Avatar von Aerodormit
  • Aerodormit

1 Beitrag seit 26.05.2018

Es gäbe da noch einige Vorgänger...

Die hier schön dargestellten Schwierigkeiten habe innerhalb der Diskussionen des 20 Jahrhunderts zum Thema "formelle Sprachen" (und - nicht wahr - Programmzeilen eines Algorithmus sind Bestandteile einer formellen Sprache) schon eine wichtige Rolle gespielt. So zum Beispiel bei L. Wittgenstein, der in seinem "Tractatus" darauf hinwies, dass unsere Welt nicht aus "realen Fakten" besteht. Sondern (dies jedenfalls für eine formalisierbare Sprache): "Die Tatsachen im logischen Raum sind die Welt" (Tr 1.13). Wenn also eine logische Sprache mit Dingen ausserhalb der logischen Welt umgehen muss, hat sie ein grundsätzliches Problem.

Um dieses Problem anzugehen, hat man die selbst lernenden Netzwerke erfunden. Wieviel aber müssen die wissen, bis sie ausserhalb ihrer logischen Welt funktionieren? Hier verweise ich nur auf die Experimente, die Josef Weizenbaum am MIT durchführte und - hoffentlich - auch den AI - Gurus bekannt sind. Das Resultat: deprimierend viel schon für einfachste Fälle.

Und wie könnte man herausfinden, ob ein neuronales Netzwerk "genug" weiss? Nicht trivial - gelinde gesagt. So gibt es zum Beispiel keinen klar bestimmten Pfad um herauszufinden, ob ein Mensch den Raum der "natürlichen Zahlen" (1,2,3...) beherrscht. Diese Art Schwierigkeit brachte den deutschen Mathematiker Leopold Kronecker zum Ausspruch: "Die natürlichen Zahlen hat uns Gott gegeben, alles andere ist Menschenwerk."

Das Posting wurde vom Benutzer editiert (09.11.2018 11:30).

Bewerten
- +
Anzeige