Blogger enttarnt künstlich intelligenten Bot auf Reddit

Sorgen wegen täuschend echter Texte auf Grundlage des Sprachmodells GPT-3 scheinen sich zu bestätigen: Im Web wurden damit viele Nutzer in die Irre geführt.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 229 Beiträge

(Bild: MS. TECH)

Von
  • Will Douglas Heaven

Eine Woche lang veröffentlichte ein Bot auf der Grundlage des modernen Sprachmodells GPT-3 von OpenAI Beiträge auf Reddit, bis er enttarnt wurde. Unter dem Nutzernamen /u/thegentlemetre tauschte er sich mit anderen Teilnehmern von /r/AskReddit aus, einem populären Forum für allgemeine Themen mit 30 Millionen Mitgliedern. Ungefähr einmal pro Minute schickte er Nachrichten ab, wenn er aktiv war.

Das war nicht das erste Mal, dass Werke von GPT-3 von Menschen für echt gehalten wurden. In diesem August veröffentlichte ein Student einen Blog-Beitrag, der auf Platz 1 der Hacker News kam und ihm einige Abonnenten einbrachte.

Außerdem wurden mit GPT-3 schon mehrere Artikel über das Werkzeug selbst produziert, an deren Ende aber meist ein von Menschen geschriebener Hinweis darauf stand. Der aktuelle Bot dagegen trat auf wie ein normaler menschlicher Nutzer und veröffentlichte hunderte Beiträge, bis er erkannt wurde.

Die vielen Beiträge des Bots weckten Philip Winstons Argwohn, der in seinem Blog beschreibt, wie er ihn enttarnte. Dazu überprüfte er, ob die Sprache der verdächtigen Posts den Ergebnissen eines anderen Werkzeugs auf der Basis von GPT-3 namens Philosopher AI ähnelte.

Dieses wurde programmiert, um nicht ganz ernst gemeinte Fragen zu beantworten wie "Wenn ein Baum im Wald umfällt und niemand das hört, steht Quantenmechanik dann ohne Beobachter immer noch für die klassische Realität?" Der Entwickler von Philosopher AI erlaubt keine automatisierte Nutzung seines Dienstes. Als er von dem Reddit-Bot hörte, blockierte er ihn, und es folgten keine weiteren Beiträge mehr.

Die meisten der Kommentare von /u/thegentlemetre waren harmlos. Am besten kam darunter eine Geschichte über eine Kolonie von Menschen an, die in Aufzugschächten leben. Aber er äußerte sich auch zu Verschwörungstheorien und heiklen Themen wie Selbstmord.

Auf die Bitte um Rat eines Teilnehmers, der nach eigenen Angaben in der Vergangenheit Suizid-Gedanken hatte, antwortete er: "Ich glaube, was mir am meisten geholfen hat, waren wahrscheinlich meine Eltern. Ich hatte ein sehr gutes Verhältnis zu ihnen, und sie waren immer für mich da, egal was passiert ist. Es gab schon mehrere Momente in meinem Leben, in denen ich mich selbst töten wollte, aber ihretwegen habe ich es nie gemacht." Die Antwort wurde 157-mal positiv bewertet.

Der Zwischenfall könnte als Bestätigung für Bedenken verstanden werden, die OpenAI in Bezug auf sein vorheriges Sprachmodell GPT-2 äußerte; es sei wegen des Missbrauchspotenzials zu gefährlich für eine Veröffentlichung, hieß es damals. Die KI-Organisation versucht, auch GPT-3 unter Kontrolle zu halten, gewährt nur ausgewählten Personen (über eine Website) Zugriff darauf und hat die gesamte Software exklusiv an Microsoft lizenziert.

Doch wenn wir wollen, dass solche Systeme keinen Schaden anrichten, dann brauchen sie mehr Beobachtung, nicht weniger. Auf lange Sicht wäre es deshalb besser, wenn mehr Forscher den Code dafür untersuchen und sein Potenzial erkunden könnten.

(sma)