Kommentar: Timnit Gebru, KI und die Allmacht der Internet-Konzerne

Die Auseinandersetzung um die Entlassung der KI-Ethikerin Timnit Gebru berührt Grundfragen der KI-Forschung.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 8 Beiträge
Google
Von
  • Wolfgang Stieler

Anfang Dezember gab Timnit Gebru, Co-Leiterin des Teams für ethische KI bei Google, auf Twitter bekannt, dass sie nicht mehr bei dem Unternehmen arbeitet. Ob sie selber gegangen ist, oder entlassen wurde, darüber gibt es unterschiedliche Darstellungen.

Klar ist bislang nur, dass der Auslöser des Streits die geplante Veröffentlichung eines Papers war, in dem Gebru gemeinsam mit Kollegen die Gefahren kritisiert, die von großen KI-Sprachmodellen wie GPT3 ausgehen. Google hatte sich geweigert, die Publikation freizugeben - offiziell weil das Paper „die Anforderungen an eine Publikation nicht erfüllt“. Doch der Verdacht steht im Raum, dass Google auf diese Weise eine unliebsame Kritikerin loswerden wollte.

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Dass Google-Chef Sundar Pichai sich mittlerweile in einem Memo für den Vorfall entschuldigt und eine interne Untersuchung angekündigt hat, konnte Gebru nicht beschwichtigen. In einem Interview mit der BBC warf Gebru Google mittlerweile „institutionellen Rassismus“ vor.

Doch die Auseinandersetzung um Gebrus’ Entlassung birgt noch weit mehr Sprengstoff als auf den ersten Blick scheint. Die immer größeren Sprachmodelle, die mittlerweile mit einigen hundert Gigabyte Daten trainiert werden, zeigen zwar mittlerweile ein verblüffendes Sprachverständnis.

In dem Paper „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big“, das in einer frühen, nicht autorisierten Fassung im Netz kursiert, kritisieren Gebru und ihre Kollegen die Verwendung großer Sprachmodelle jedoch auf breiter Front: Den exzessiven Energieverbrauch beim Training dieser Modelle, die Unmöglichkeit der sauberen Dokumentation der Trainingsdaten und die damit verbundene Fortschreibung von Vorurteilen und Ausgrenzung, und der exklusive Zugang privater Unternehmen zu Wissen - all das zeichnet das Bild einer Hochrisikotechnologie.

Lesen Sie auch

Tatsächlich ist das alles nicht wirklich neu. Das Paper zitiert längst veröffentlichte Arbeiten. Dass vortrainierte große Sprachmodelle auch dann „toxische Antworten“ - rassistisch, frauenfeindlich oder was auch immer - liefern, wenn die „Prompts“, also die ersten Sätze explizit, messbar harmlos sind Paper, mag dabei als technische Spielerei erscheinen. Wenn solche Modelle allerdings flächendeckend zur Sentiment-Analyse eingesetzt werden, um Job-Bewerber zu sortieren, oder Formulierungsvorschläge für Office-Kommunikation zu machen, sieht die Sache schon anders aus.

Was die ganze Diskussion jedoch so brisant macht, ist ein oft übersehenes theoretisches Detail: Der gesamte Komplex der Kritik an Rassismus, Frauenfeindlichkeit etc. bezieht sich theoretisch stark auf eine konstruktivistische Sichtweise der Welt. Nach dieser Theorie „bezeichnen Wörter und Sätze nicht die Dinge an sich, sondern tun dies immer aus einer bestimmten Perspektive“, schreibt der Germanist Andreas Gardt. „Indem Sprache die Dinge der Welt nicht einfach passiv abbildet, sondern unseren geistigen Zugang zu ihnen leitet, prägt sie unser Bild von der Wirklichkeit.“ Mit anderen Worten: Sprache prägt das Bewusstsein und muss daher „richtig“ verwendet werden. Über die Frage, ob die Theorie wirklich zutrifft, wird noch immer erbittert gestritten.

Der Witz ist aber: Für ein KI-Sprachmodell trifft diese Theorie hundertprozentig zu. Sprache prägt ihr Verständnis von der Welt. Wörter und Sätze bilden für die KI die Basis für Zusammenhänge und Beziehungen zwischen den Dingen. Wenn daraus irgendwann, wie die Forscher von Open AI hoffen, eine generalisierte Künstliche Intelligenz wird, mit echter Intelligenz, was wird die dann über die Welt gelernt haben? Gebru selbst scheint diese Möglichkeit für nicht sehr wahrscheinlich zu halten. Ihre Kritik an den Risiken dieser Art von KI-Forschung ist jedoch voll und ganz berechtigt. Eine derart mächtige Technologie darf nicht ausschließlich von einer kleinen Handvoll transnationaler Konzerne kontrolliert werden.

Mehr von MIT Technology Review Mehr von MIT Technology Review

(wst)