KI-Regulierung ist zu wichtig, um sie dem Digitalminister zu überlassen

Volker Wissing will bei der Regulierung von KI auf Transparenz statt Verbote setzen. Das klingt wenig beruhigend.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 81 Beiträge

(Bild: sdecoret / Shutterstock.com)

Von
  • Wolfgang Stieler

Diese Konstanz hat schon fast etwas Beruhigendes: Kaum gibt es eine politische Diskussion um die Regulierung einer Technologie, bricht ein hochrangiger FDP-Politiker aus dem Gebüsch, und rudert argumentativ heftig mit den Armen.

Diesmal fällt Volker Wissing, diese Rolle zu, der ja – wir erinnern uns – nicht nur Verkehrsminister, sondern auch "Digitalminister" ist. Und in dieser Rolle spricht er sich gegen eine "zu strenge Regulierung von künstlicher Intelligenz" aus. Statt vor allem auf "Verbote oder einer Eindämmung der Technologie" zu setzen, sei es nötig, sich "auf die Frage der Transparenz" zu konzentrieren und "alles aus der Perspektive der Anwenderinnen und Anwender her denken." Helfen könnte bei dieser Art von Regulierung beispielsweise ein Unternehmen wie OpenAI. Die Macher von ChatGPT sind "bereit, sich an einer guten Regulierung beratend zu beteiligen".

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Ist das jetzt nur mein vorurteilsbehafteter Reflex, der mich automatisch an die enge Verbundenheit der FDP zur Autoindustrie denken lässt? An ihre "enge Beziehung zu schnellen Sportwagen", ihre standhafte Verweigerung einer Verkehrswende oder die penetrante Betonung von Technologieoffenheit? Na prima, denke ich, die lassen sich jetzt im Hause Wissing ihre Reden wahrscheinlich von ChatGPT schreiben. Fällt bestimmt nicht auf.

Mal ganz abgesehen davon, dass OpenAI auch nicht gerade das Unternehmen ist, dass mir am meisten Vertrauen einflößt: Gegründet von reichen Techbros, die fest daran glauben, ein KI-Modell müsse nur groß genug sein, um menschenähnliche Intelligenz zu erreichen – auch bekannt als "Skalierungshypothese" – ist die als Non-Profit-Unternehmen gestartete Organisation mittlerweile auch profitorientiert unterwegs.

Bedauerlicherweise muss ich allerdings gestehen, dass die Äußerung von Wissing auch ihr Gutes hat. Denn sie könnte die Aufmerksamkeit auf eine wichtige, und stark unterbelichtete Debatte richten: die Diskussion um das europäische KI-Gesetz.

Worum geht es? KI-Anwendungen, bei denen ein nicht hin zu nehmendes Risiko für die Verletzung fundamentaler Rechte besteht, werden schlichtweg verboten – wie zum Beispiel Social Scoring oder das Manipulieren und Ausnutzen von menschlichen Schwächen, um das Verhalten von Usern zu deren Ungunsten zu manipulieren. Chatbots, die das Blaue vom Himmel lügen, um Kunden bestimmte, für sie nachteilige Verträge anzubieten, wären also verboten. Bloße Informationsgespräche des Chatbots über die Produktpalette könnten hingegen erlaubt sein. Auch wenn sie – vielleicht – als Hochrisiko-Anwendungen eingestuft würden. Damit unterliegen sie künftig einer strengen Dokumentationspflicht und Regulierung.

Mehr über Künstliche Intelligenz

Statt definierte Technologien zu regulieren, gingen die Autoren des ursprünglichen Entwurfes also von der beabsichtigten Anwendung des KI-Systems aus. Die Frage, ob eine konkrete Anwendung verboten wird, oder unter die Hochrisiko-Kategorie fällt, hat für den Anbieter damit gravierende Konsequenzen – dementsprechend heftig wird vor der voraussichtlich im März stattfindenden Abstimmung um konkrete Formulierungen in den Ausführungsbestimmungen gerungen.

Je enger die Kriterien für Hochrisiko-KI, desto abschreckender für Risikokapitalgeber betonen Industrievertreter. Während die Googles, OpenAIs und Metas dieser Welt - in trauter Einigkeit mit der US-Regierung - ein Interesse daran haben, das die Regulierung von "General Purpose AI"; die gewissermaßen im Hintergrund konkreter KI-Anwendung werkelt, möglichst wenig Durchgriff auf ihre Produkte erlaubt. Denn noch haben diese Unternehmen in Sachen große KI-Modelle eine Art Quasi-Monopol – was sich allerdings gerade auch ändert.

Der ursprüngliche Entwurf für eine KI-Regulierung war zwar tatsächlich überraschend weitreichend. Er könnte allerdings auf den letzten Metern noch ziemlich aufgeweicht werden. Wer das nicht will, muss seine Position unmissverständlich deutlich machen. Ein paar schnelle Witze über windige Digitalminister werden da nicht reichen. Leider.

(wst)