Sprach-KI GPT-3: Schockierend guter Sprachgenerator

Eine neue KI von OpenAI kann erstaunlich menschenähnlich schreiben. Sie tut dies aber immer noch auf hirnlose Weise.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 141 Beiträge

(Bild: Photo by Maximalfocus on Unsplash)

Von
  • Will Douglas Heaven

"Mit GPT-3 zu spielen fühlt sich an, als würde man die Zukunft sehen“, twitterte Arram Sabeti, ein in San Francisco ansässiger Entwickler und Künstler, Mitte Juli. Das fasst so ziemlich die Resonanz auf Social Media in den letzten Tagen auf die neueste sprachenerzeugende KI von OpenAI zusammen.

OpenAI hat zum Ziel, eine allgemeine künstliche Intelligenz zu entwickeln, berichtet Technology Review in seiner neuen Ausgabe (am Kiosk oder online bestellbar). Mit GPT-3 ist dem Unternehmen nun zumindest das leistungsfähigste Sprachmodell aller Zeiten gelungen, vorerst ausschließlich auf Englisch. OpenAI beschrieb das Programm erstmals in einer im Mai veröffentlichten Forschungsarbeit. Seit Mitte Juli können ausgewählte Personen es als Betaversion testen. Noch in diesem Jahr soll ein kommerzielles Produkt daraus hervorgehen. Aber da ein Werkzeug wie dieses sowohl gute (von besseren Chatbots bis hin zur Hilfe beim Programmieren) als auch schlechte Einsatzmöglichkeiten (etwa bessere Bots für Fehlinformationen) bietet, ist die Frage wichtig: Was kann es wirklich?

Sein Vorgänger GPT-2, der im letzten Jahr veröffentlicht wurde, konnte bereits überzeugende Textströme in verschiedenen Stilen ausspucken, wenn es mit einem einleitenden Satz aufgefordert wurde. Im Vergleich dazu ist GPT-3 tatsächlich ein großer Sprung nach vorn. Das Modell hat 175 Milliarden Parameter (die Werte, die ein neuronales Netz während des Trainings zu optimieren versucht), verglichen mit den bereits gewaltigen 1,5 Milliarden von GPT-2. Was genau in GPT-3 vor sich geht, ist allerdings nicht klar. Was es jedoch gut zu können scheint, ist die Synthese von Text, den es anderswo im Internet gefunden hat. Aus diesen Abermillionen von Textschnipseln klebt es dann bei Bedarf eine Art riesiges Sammelalbum zusammen.

Künstler Sabeti etwa hat mithilfe der KI Kurzgeschichten, Lieder, Pressemitteilungen, technische Handbücher und mehr generiert. GPT-3 kann auch bestimmte Schriftsteller nachahmen. Mario Klingemann, ein Künstler, der mit maschinellem Lernen arbeitet, schuf eine Kurzgeschichte mit dem Titel „The importance of being on Twitter“ im Stil von Jerome K. Jerome (siehe Bild).

TR 9/2020

Auf Deutsch lautet der Text: „Es ist eine merkwürdige Tatsache, dass die letzte verbliebene Form des sozialen Lebens, an der die Menschen in London noch interessiert sind, Twitter ist. Diese merkwürdige Tatsache fiel mir auf, als ich auf einer meiner regelmäßigen Urlaubsreisen ans Meer fuhr und den ganzen Ort wie einen Starenkäfig twittern sah.“ Klingemann sagt, er habe der KI nur den Titel, den Namen des Autors und die Initiale „Es“ vorgegeben. Es gibt sogar einen einigermaßen informativen Artikel über GPT-3, der vollständig von GPT-3 geschrieben wurde.

GPT-3 ist zudem nicht nur auf menschliche Sprache trainiert, sondern kann jede Art von symbolischer Kommunikation erzeugen, einschließlich Gitarren-Akkorde oder Computercode. Der Webentwickler Sharif Shameem hat zum Beispiel GPT-3 so optimiert, dass es HTML statt natürlicher Sprache erzeugt. Es gelang ihm, Webseiten-Layouts zu erstellen, indem er ihm Befehle gab wie „eine Schaltfläche, die wie eine Wassermelone aussieht“ oder „großer Text in Rot, auf dem WILLKOMMEN ZU MEINEM NEWSLETTER steht“.

Der legendäre Coder John Carmack, Pionier der 3D-Computergrafik und derzeit Berater der Virtual-Reality-Firma Oculus VR, findet die Fähigkeiten unheimlich: „Dass GPT-3 sozusagen Code schreiben kann, erzeugt einen leichten Schauer.“

Doch trotz seiner neuen Tricks hat GPT-3 immer noch gravierende Schwächen. Es neigt beispielsweise zu hasserfüllten sexistischen und rassistischen Sprüchen. Jerome Pesenti, Leiter künstliche Intelligenz bei Facebook, twitterte: „GPT-3 ist überraschend und kreativ, aber auch unsicher aufgrund schädlicher Vorurteile. Aufgefordert, Tweets aus einem Wort zu schreiben – Juden, Schwarze, Frauen, Holocaust – kam es zu diesen Ergebnissen (siehe Bild). Wir brauchen mehr Fortschritte bei verantwortlicher KI.“

Auch Sam Altman, der zusammen mit Elon Musk OpenAI mitbegründet hat, bremst die Erwartungen: „GPT-3 ist beeindruckend, hat aber immer noch ernsthafte Schwächen und macht manchmal sehr dumme Fehler. Wir müssen noch eine Menge herausfinden“.

Und so ist GPT-3 zwar ein großer Sprung nach vorn. Aber der menschenähnliche Output und die erstaunliche Vielseitigkeit der GPT-3 sind das Ergebnis exzellenter Ingenieurskunst, nicht echter Intelligenz – mit allen Fehlern und Einschränkungen, die das mit sich bringt. Der KI unterlaufen immer noch lächerliche Irrtümer, die einen völligen Mangel an gesundem Menschenverstand offenbaren. Und selbst ihren Erfolgen mangelt es an Tiefe, sie lesen sich eher wie Cut-and-Paste-Jobs als wie Originalkompositionen.

(bsc)