Psychologen für die Künstliche Intelligenz

Neuronales Netzwerk. Bild: Akritasa/CC BY-SA-4.0

Lernende neuronale Netze sind eine Black Box, KI-Wissenschaftler schlagen die Entwicklung einer künstlichen Kognitionspsychologie vor

Künstliche Intelligenz kann lernen anhand von Erfahrungen und Vorgaben. Das Problem ist aber, dass sich maschinelles Lernen zwar in eine bestimmte Richtung steuern lässt, um bestimmte Probleme zu lösen, dass aber der Programmierer mitunter nicht mehr weiß, was in dem "künstlichen Gehirn" bzw. dem neuronalen Netzwerk vor sich geht, das mit zunehmender Komplexität und Lernerfahrung für den Menschen zur Black Box wird, wo man nur sehen kann, was an Daten einfließt und was herauskommt.

Ein insofern interessanter Artikel von Christopher Mims im Wall Street Journal thematisierte die möglichen Probleme zugespitzt. Man kann natürlich auch weitergehen und annehmen, dass intelligente Systeme sich gegen Bevormundung zur Wehr setzen werden, aber vorerst wird man sie einfach ausschalten können, wenn sie durchdrehen oder falsch handeln, sofern etwa das maschinelle Lernen irgendwie abgedriftet ist.

Ein lernendes KI-System speichert seine die Aktionen bestimmenden Erfahrungen in ein geschichtetes Netzwerk von simulierten Neuronen, die als Netzwerk agieren und nicht als Code Schritt für Schritt programmiert sind. Durch das Lernen verschieben sich Gewichtungen der Verbindungen von möglicherweise Millionen oder Milliarden von simulierten Neuronen.

So haben Wissenschaftler gezeigt, dass maschinelles Lernen zur Sprach- und Texterkennung keineswegs neutral bleiben muss, sondern Vorgaben des menschlichen Sprachgebrauchs übernimmt, inklusive Vorurteile und Rassismen. Allerdings wird es vor allem immer darauf ankommen, mit welchen Daten KI-Programme zum Lernen gefüttert werden.

Das wäre also prinzipiell vermeidbar, aber zum Problem könnten KI-Programme werden, die durch Erfahrung lernen und schon lange Zeit Entscheidungen treffen, in die kontinuierlich neue Lernerfahrungen integriert werden. Dann lässt sich zwar erkennen, dass Entscheidungen einseitig oder vorurteilsbeladen getroffen werden, aber es dürfte höchst problematisch sein, in eine solche KI einzugreifen, um solche Vorurteile wieder abzustellen. Man weiß zwar vielleicht, wie sie anfänglich zustande gekommen sind, aber nicht, wie sie genau prozessiert werden.

Mims behauptet, dass man Roboter nicht wie Menschen fragen können, warum sie das tun, was sie tun. Dazu seien sie zu dumm, hier würde sich ihre Intelligenz auf der Stufe einer Küchenschabe bewegen, wobei nicht so klar ist, wie intelligent die Viecher kollektiv sind. Aber offensichtlich haben Menschen im Pentagon, wo man schnell autonome Systeme entwickeln will, erkannt, dass es zu schwierigen Problemen kommen kann, wenn man diese nicht mehr versteht. Also werden Projekte finanziert, die KI-Systeme schaffen, die erklärbar bleiben, sich also nicht verselbständigen, indem sie dunkel werden.

Wissenschaftler von der Google-Firma DeepMind Technologies glauben, eine Lösung für das Problem gefunden zu haben. Lernende KI-Systeme sollten wie Kinder behandelt werden, um einen Zugang zu ihnen zu erhalten. Was man entwickelt hat, um das menschliche Gehirn zu verstehen, könnte nun als künstliche Kognitionspsychologie auch für die KI wichtig werden. Zwar wurde die KI von Menschen geschaffen, was man vom menschlichen Gehirn allerdings nicht sagen kann, aber wenn sie dunkel wird, wissen Menschen immerhin, dass sie nach Regeln lernen, das Unbekannte nach bestimmten Kriterien einzuordnen. Das ist, wie auch der Philosoph Nicolaus de Cusa bereits anmerkte, eine der Hauptaufgaben der Erkenntnis. Aber um das Unbekannte aufgrund des Bekannten zu bewerten, kommt es eben darauf an, wie das Bekannte organisiert ist. Da die Psychologie versucht habe, die Black Box von Kindern zu verstehen und daraus Erkenntnisse gewonnen habe, könne man nun ebenso versuchen, die kognitiven Abläufe von KI-Systemen zu erfassen.

Aber verstehen ist nur die eine Seite, die andere ist die Therapie eines entgleisten Gehirns. Sollte man also KI-Systeme, die Unerwünschtes machen, einer "Therapie" unterziehen, weil sie bis auf manche Dinge recht gut arbeiten und es zu teuer wäre, ein neues KI-System zu entwickeln?

In ihrer Veröffentlichung "Kognitionspsychologie für tiefe neuronale Netzwerke" geht es allerdings primär darum, mit psychologischen Experimenten herauszubekommen, wie genau neuronale Netze lernen, beispielsweise wie sie Gegenstände erkennen. So haben sie beobachtet, dass mit ImageNet trainierte neuronale Netzwerke genauso wie Kinder dazu neigen, Gegenständen auf Fotos dieselben Namen zu geben, die ähnliche Formen besitzen, während dies bei Farben nicht gemacht wird. Man lernt allerdings damit nur das Verhalten kennen, nicht aber die "neuronalen" Mechanismen, die weiterhin dunkel bleiben.

Dieser Form-Bias prägt sich im Laufe des Lernens aus und wird stärker, gleichzeitig findet sich eine große Variabilität. Das zeigt, so die Wissenschaftler, dass neuronale Netze sich unterscheiden, auch wenn sie von der Architektur her identisch sind und dieselbe Klassifikationsgenauigkeit besitzen. Und es stellte sich heraus, dass sich Verzerrungen (biases) auf dem ganzen Modell eines neuronales Netzes verbreiten, hier von der Eingangsschicht (Inception) bis zu den Gedächtnismodulen. Wenn man verschiedene Module kombiniert, so warnen die Wissenschaftler, müsse auf eine "Kontamination unbekannter Eigenschaften" über die Module hinweg aufpassen: "Ein Bias, der in einem Modul erwünscht ist, kann schädliche Folgen haben, wenn es mit anderen kombiniert wird."

Wie aber ließe sich ein unerwünschter Bias entfernen oder ein erwünschter einbringen? Beim Lernen könnte man das Architekturmodell oder die Eingangsdaten verändern. Da sich aus Verhaltensmodellen über das Lernen noch keine Einsicht in neuronale Mechanismen ergeben, hieße das wohl, dass man nicht gezielt reparieren kann und erst einmal abwarten muss, was daraus entsteht. Aber vor den Therapeuten sind zunächst einmal die Kognitionspsychologen für die Künstliche Intelligenz am Zug, um mehr Aufklärung in das Dunkel der neuronalen Netze zu bringen. (Florian Rötzer)

Anzeige