Debatte um KI: Billige Polemik hilft nicht weiter

Der Aufruf, die Entwicklung von KI-Systemen zu pausieren, sorgt für Streit. Dabei haben die meisten den Text offenbar nicht einmal gelesen. Schade.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 53 Beiträge
Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting

(Bild: CHUAN CHUAN/Shutterstock.com)

Von
  • Dr. Wolfgang Stieler

Vorab: Ich will den offenen Brief, in dem mittlerweile über 1.000 Unterzeichnende eine Zwangspause für die Entwicklung großer KI-Modelle fordern, nicht bedingungslos verteidigen.

Ja, ich weiß auch, aus welcher Ecke das "Future of Life Institute" kommt. Der "Longtermism" dieser Institution, die "Sorge um das langfristige Überleben der Menschheit" sieht auf den ersten Blick total sympathisch aus. Ist aber bei näherem Hinsehen ein ideologisch-philosophisches Gruselkabinett, in dem das Prinzip "earn to give" (Möglichst schnell reich werden, zum Beispiel durch Kryptogeld, um dann viel Spenden zu können) noch eine vergleichsweise sympathische Idee ist – einige dieser Leute landen auch schon mal bei der Eugenik.

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Zweite Vorbemerkung: Sicher, der Vorschlag in dem Paper ist technokratisch, elitär, und undemokratisch. Unternehmen und Forschende sollen Verfahren und Regeln zur sicheren Entwicklung und Anwendung dieser Technologie erarbeiten und untereinander austauschen. Was im Kern einer Selbstverpflichtung gleichkommt – ein Prinzip, das bereits ziemlich oft versagt hat.

Und, zu guter Letzt: Ja, ich weiß auch, dass es albern ist, vor den hypothetischen Gefahren einer möglicherweise irgendwann mal existierenden übermenschlichen KI zu warnen. Die existierenden Systeme verursachen jetzt schon Probleme. Haben wir ausführlich diskutiert, unter verschiedensten Gesichtspunkten. Geschenkt.

Aber hat mal jemand weiter gelesen? Da stehen Sätze, die ich diesen Silicon-Valley-Technokraten gar nicht zugetraut hätte. Da ist die Rede von: "Capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm".

Aufsichtsbehörden, Auditing und Zertifizierung, Produktverantwortung (und Haftbarkeit), zwingende Kennzeichnung von maschinengenerierten Inhalten – all das steht auch im Entwurf zum AI Act der EU. Das Gesetz zur Regulierung von KI-Anwendungen wird aber gerade durch einen erbitterten Streit um die Frage verzögert, ob große Sprachmodelle generell als Hochrisiko-Technologie definiert werden sollten. Kritiker dieser Idee befürchten, dass damit in Europa "die Innovation" abgewürgt wird. Eine Argumentation, die unter anderem von der Lobby amerikanischer Tech-Konzerne verfochten wird. (Der sogenannte Trilog, Verhandlungen zwischen der EU-Kommsion, dem Europäischen Rat und dem EU-Parlament sollen im April beginnen – und wird voraussichtlich zunächst in einer Sackgasse enden).

Was mir aber wirklich zunehmend auf die Nerven geht, ist das Level an Polemik, persönlichen Angriffen, billigen rhetorischen Tricks und Verachtung, das eine an sich wichtige Debatte vergiftet – und sie so zunehmend unmöglich macht. Wenn beispielsweise Emily Bender von dem Preprint-Paper "Sparks of Artificial General Intelligence" nur abschätzig als "Fan Fiction" spricht, die ja ohnehin nicht hinreichend unabhängig geprüft sei, spricht sie nicht nur im Vorbeigehen einer Preprint-Plattform wie Arxive jede wissenschaftliche Relevanz ab. Sie fordert indirekt auch eine Art Gesinnungs-Check: Jede Person, die nicht durch frühere Veröffentlichungen bewiesen hat, dass sie der Entwicklung und Anwendung großer Sprachmodelle sehr kritisch gegenübersteht, darf einfach nicht ernst genommen werden.

Das mag angemessen sein für die Liga zur Verteidigung beleidigter Computerlinguisten, und gelegentlich ist verbaler Schlagabtausch auf dem Niveau von Wrestling ja auch ganz lustig – es bringt aber niemanden weiter. Im Gegenteil, es ist schädlich, dieses Paper mit einem schlichten rhetorischen Trick in den argumentativen Mülleimer zu befördern.

Sicher, es gibt an dieser Untersuchung eine Menge zu kritisieren – unter anderem beklagen Sebastien Bubeck und seine Kollegen sogar selbst, dass sie keine Informationen über die Trainingsdaten von GPT-4 bekommen haben, also nur vermuten konnten, welche Antworten das Modell aus diesen Trainingsdaten reproduziert, und welche es neu erzeugt. Aber die psychologischen Tests beispielsweise, die von den Forschenden an GPT-4 durchgeführt wurden, lassen sich nicht nur in naiver KI-Begeisterung als "Theory of Mind" interpretieren – als Fähigkeit der KI, sich in ein Gegenüber hineinzuversetzen. Selbst mit einem skeptischen Blick offenbaren diese Tests, welche Manipulationsmöglichkeiten sich auftun, wenn die KI einem menschlichen Gesprächspartner aus dessen Verhalten heraus Emotionen zuordnen kann. Ob die Maschine die Emotionen verstehen kann oder nicht, ist dabei total egal.

Kurz gesagt: Selbstverpflichtung und ein Moratorium bringen nichts. Was wir brauchen, ist eine Debatte um die Regulierung generativer KI. Sie muss jetzt geführt werden, und schnell zu Ergebnissen kommen, denn in Sachen KI-Anwendung herrscht im Moment eine Art Wilder Westen. Und das muss aufhören. So schnell wie möglich.

(jle)