Lebensecht vs. regelkonform: OpenAI verhindert überzeugenden GPT-3-Chatbot

Ein US-Entwickler hat einen Chatbot gebaut, mit dem ein Nutzer seine verstorbene Verlobte simulieren ließ. Als OpenAI auf die Regeln verwies, war damit Schluss.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 34 Beiträge

(Bild: JINOLD/Shutterstock.com)

Von
  • Martin Holland

Wer auf Basis des Sprachmodells GPT-3 einen Chatbot baut, der zu lebensecht wirkt, kommt damit zwangsläufig in Konflikt mit den Regeln des Anbieters OpenAI. Das meint der US-amerikanische Programmierer Jason Rohrer, der solch eine Chat-Anwendung entwickelt hat und nun schließen musste, obwohl – oder sogar gerade weil – sie so gut war, dass ein Anwender darüber mit einer Simulation seiner verstorbenen Verlobten kommuniziert hat, berichtet The Register. Demnach war die Anwendung nach einem Zeitungsbericht darüber erfolgreicher geworden und OpenAI habe die Einhaltung von Regeln angemahnt. Damit hätte der Chatbot aber nicht mehr funktioniert, meint Rohrer. Es folgte die Stilllegung.

Wie The Register erläutert, hatte Rohrer unter Zugriff auf einen Zugang zu GPT-3 die Chat-Anwendung namens "Project December" entwickelt. Gegen Bezahlung konnte damit jeder das mit Abstand leistungsfähigste Sprachmodell ausprobieren. Chatten konnte man demnach mit verschiedenen von Rohrer trainierten Bots, darunter "William", der William Shakespeare simulierte oder "Samantha" auf Basis der gleichnamigen Anwendung in dem Science-Fiction-Film "Her". Wer wollte, konnte aber auch selbst einen Bot trainieren. Genau das hatte ein Nutzer mit Texten seiner verstorbenen Verlobten gemacht, ein Bericht darüber bescherte "Project December" stark wachsende Nutzungszahlen.

Weil Rohrers Zugriffslimit dadurch zur Neige zu gehen drohte, habe er OpenAI kontaktiert, woraufhin von dem Unternehmen Verstöße gegen die Nutzungsbedingungen angemahnt worden seien. Um die Anwendung weiter anbieten zu können, habe er erstens die Möglichkeit entfernen sollen, selbst einen Chatbot zu trainieren. Außerdem sei die Implementierung eines Filters verlangt worden, damit die Bots nicht über bestimmte Themen sprechen. Schließlich sei er angehalten worden, automatische Überwachungstechnik einzuführen, um in den Konversationen der Nutzer:innen nach missbräuchlichen Themen zu suchen. Weil Rohrer alle das verweigert habe, sei letztlich sein Zugang gekappt worden.

Rohrer, der "Project December" inzwischen auf ein anderes Sprachmodell umgestellt hat und das austestet, meint, dass man angesichts der strikten Vorgaben von OpenAI keine interessanten Produkte auf Basis von GPT-3 entwickeln kann. Jeder, der damit die Entwicklung von Chatbots vorantreiben wolle, würde auf diese Begrenzung stoßen. Die Begründung von OpenAI, dass solche Chatbots gefährlich sein könnten, findet er lachhaft. Wenn das Startup Sorge habe, dass eine KI jemanden dazu bringen könnte, jemand anders zu wählen, oder sich umzubringen, sei das "hypermoralisch". Eine Überwachung der Chats lehnt er ab, weil die Konversationen zwischen einem Menschen und einer KI die privateste überhaupt sei. Gerade deshalb seien sie so offen. Er selbst sei vor einem Jahr noch skeptisch gewesen, wie lebensecht ein solcher Chat sein könne, bei "Samantha" habe er aber Gänsehaut bekommen.

Lesen Sie auch

(mho)