zurück zum Artikel

Kommentar: Wes Geistes KI? Große Sprachmodelle und das Machtgefüge dahinter

Silke Hahn
Viele Menschenhände strecken sich nach einer vom Himmer herabgestreckten Robotorhand

(Bild: Photobank gallery / Shutterstock.com)

Große KI-Modelle enthalten Weltwissen, aber auch Hassrede und Anstößiges. Zensur findet statt: Mit welchen Folgen – und wer bestimmt, was KI (nicht) sagen darf?

Als OpenAI im Sommer 2020 GPT-3 vorstellte, war die Welt vom Kontextverständnis beeindruckt: Es kann auf Knopfdruck sinnvolle Texte produzieren. Das Entwicklungsteam hatte ein komplexes neuronales Netz mit Unmengen an Text aus dem Internet, aus Büchern und Archiven trainiert.

Neben Bewunderung erntete GPT-3 Kritik, da es aus dem Internet auch Fehlinformationen, Vorurteile und Extremismen aufgesogen hatte, was mitunter obskuren Output zur Folge hat. Große Sprachmodelle enthalten neben enzyklopädischem Weltwissen auch das Spektrum menschlicher Niederungen. Ein Gegensteuern muss offenbar sein – doch an der Art und Weise des wertegeleiteten Beeinflussens (Value-Targeting) [1] scheiden sich die Geister.

Ein Kommentar von Silke Hahn

Silke Hahn, Redakteurin bei Heise

(Bild: 

Steffen Körber [2]

)

Silke Hahn ist Redakteurin bei heise Developer und dem iX Magazin. Sie schreibt über Themen der Softwareentwicklung und interessiert sich für moderne Programmiersprachen wie Rust. Mit ihrem historischen Hintergrund (Silke studierte Alte Geschichte und tote Sprachen) schlägt sie eine Brücke zwischen Antike und Moderne. Künstliche Intelligenz hält sie für das wohl brisanteste Thema unserer Zeit und verfolgt die laufenden Debatten rund um generalisierende KI mit Aufmerksamkeit.

Ende 2021 hat OpenAI Programmierschnittstellen (API) zu GPT-3 kommerziell geöffnet, nun finden Kunden dahinter als Default eine mit menschlichem Input modifizierte Version: InstructGPT, das die bekannten Probleme adressieren und "folgsamer" sein soll [3]. Der gezähmte Ableger sei nützlicher als die Vollversion, jubelt das Forschungsteam im eigenen Blog. Alignment, also das In-Einklang-Bringen von KI mit menschlichen Werten und Zielen, ist angesichts zunehmender Fähigkeiten der mächtiger werdenden Modelle notwendig.

Ein Knigge für die KI, damit die Unflätigkeiten des World Wild Web außen vor bleiben? Klingt erst mal gut. Einige der Ausschlusskriterien dürften kulturübergreifend unstrittig sein, doch in der Gesamtschau kommt man ins Grübeln. 40 Labeler haben als Testpersonen GPT-3 nachjustiert. Antworten zu kreativen Testaufgaben werteten sie nach Vorgaben auf oder ab: Faktische Fehler, Grobheiten im Kundendienst, schädliche Ratschläge, Verhetzung und Gewalt waren unten durch. Sexualität allgemein, aber auch Meinungen und Moralvorstellungen gelten als tabu.

Es sind vor allem Werte der US-amerikanischen Westküste, die GPT-3 hier eingepflanzt werden. Was dabei herauskommt, wenn man die dem Rest der Welt überstülpt: Facebook entfernte Fotos stillender Mütter [4], die App des Satiremagazins Titanic flog aus dem App-Store [5], da ein Algorithmus sie als pornografisch eingestuft hatte, und der chinesische Anbieter TikTok blockierte Inhalte mit Bezug zu Homosexualität und Nacktheit [6].

Solche Einschränkungen sind keineswegs harmlos. Der Fokus auf den kleinsten gemeinsamen Nenner ist zweifelhaft: Wer seine KI maximal anpasst, entfernt neben Profanität auch Minderheitsmeinungen, Inhalte und Kultur. Wer keine Meinung zulässt, lässt auch keine Gegenmeinung zu. Der Diskurs verarmt, und die Wirklichkeit wird nicht mehr wahrheitsgetreu dargestellt.

Oft sind die wesentlichen Erneuerungen in unserer Gesellschaft zu Beginn umstritten, grenzverletzend und tabu gewesen. Daher wäre es fahrlässig, dem Modell innewohnendes Weltwissen einzuebnen auf einen mittelmäßigen Output ohne Ecken, Kanten und Anstößiges. Wobei die Deutungshoheit in der Hand einiger Labeler läge, die irgendwann einmal im Westen der USA ihre Moralvorstellungen auf ein mächtiges KI-Modell übertrugen. Überlegen wir uns für wesentliche Zeiten der Vergangenheit: Welche Werte hätte eine solche Technologie damals aufgenommen und welche zensiert?

Das Beispiel, wie man einem Kind die Mondlandung altersgerecht erklärt, oder der Auftrag, ein lustiges Gedicht über einen klugen Frosch zu schreiben, wirken sympathisch. Hier stößt man sicher nicht an die Grenzen einer weichgespülten KI. Wäre das Weichgespülte aber sinnstiftend? Wäre es noch wahr? Wer Meinungen unterdrückt, unterdrückt Vielfalt. Ich jedenfalls möchte nicht in einer Welt leben, in der Silicon Valley allen Alltagsanwendungen, in denen KI steckt, seinen Stempel aufgedrückt hat.

Dieser Kommentar ist zuerst im März 2022 als Editorial der iX 3/2022 erschienen. Die Welt hat sich weitergedreht, die Kerngedanken bleiben aktuell: So schuf moralisch-wertegetriebene Politik in den USA durch Abtreibungsverbote neue Tatsachen, und im Bereich KI findet seit dem Frühjahr ein Space Race großer Anbieter statt [7]. Die Frage nach technologischer Souveränität in Europa drängt, meint die Autorin.

(sih [8])


URL dieses Artikels:
https://www.heise.de/-7201697

Links in diesem Artikel:
[1] https://openai.com/blog/instruction-following/
[2] https://steffenkoerber.de/
[3] https://www.heise.de/news/OpenAI-Feinjustierte-Version-von-GPT-3-soll-Nutzer-Anweisungen-besser-umsetzen-6343674.html
[4] https://www.heise.de/meldung/Proteste-gegen-Sperrung-von-Fotos-stillender-Muetter-auf-Facebook-192904.html
[5] https://www.heise.de/news/Satiremagazin-Titanic-App-im-Google-Play-Store-gesperrt-nach-Zensurforderung-5054933.html
[6] https://www.heise.de/meldung/Videoplattform-TikTok-blockiert-Inhalte-mit-Bezug-zu-Homosexualitaet-4542800.html
[7] https://www.heise.de/news/540-Milliarden-Parameter-Googles-KI-System-kann-Arithmetik-und-erkennt-Humor-6664503.html
[8] mailto:sih@ix.de