Bundestag: KI-Kommission will Killer-Roboter international geächtet wissen

Die eingesetzte Enquete-Kommission "Künstliche Intelligenz" hat erste Zwischenergebnisse veröffentlicht. Die Fraktionen bewerten diese sehr unterschiedlich.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 42 Beiträge

(Bild: sdecoret/Shutterstock.com)

Von

Der Bundestag hat am Freitag kontrovers über Chancen und Risiken der Künstlichen Intelligenz (KI) debattiert anhand erster Resultaten der einschlägigen, seit anderthalb Jahren tagenden Enquete-Kommission. Mehrere Redner betonten, dass es "an uns liegt, wie wir" die Schlüsseltechnologie gestalten. Nicht-Handeln sei "keine Option", konstatierte die Vorsitzende des Gremiums, Daniela Kolbe (SPD). Sie warb dafür, in der zweiten Phase "noch mehr den Geist der Überparteilichkeit walten" zu lassen.

Die Kommission fand jüngst erst nach heftigen internen Auseinandersetzungen einen Kompromiss zum eigenen transparenten Handeln. Mit der Mehrheit der großen Koalition hatte die Runde zunächst beschlossen, die bereits verfassten Berichte der ersten drei Arbeitsgruppen nicht zu veröffentlichen. Nach heftigen Protesten von Grünen und Linken, denen zufolge die Ergebnisse nicht ein Jahr in der Schublade schmoren und später ganz darin verschwinden dürften, hat das Gremium am Donnerstag zumindest Zusammenfassungen der beendeten Projektgruppen freigegeben.

Am heftigsten umstritten waren die Empfehlungen der Experten zum Thema "KI und Staat" und dort wiederum zu den Bereichen innere sowie äußere Sicherheit. Beim kritischen Bereich der tödlichen autonomen Waffensysteme erzielte die Gruppe den Konsens, dass diese Waffen international geächtet werden sollten. Uneinigkeit bestand aber in der Frage, ob die Verhandlungen in Genf mit dem Ziel eines Verbots zu führen seien. Die Bundesregierung soll sich nun erst einmal weiter auf internationaler Ebene rüstungskontrollpolitisch für einen Bann von "Killer-Robotern" einsetzen und auf dem Weg dorthin eine "möglichst große Gruppe von Staaten" einbinden.

Bei allen Maßnahmen und beim Einsatz von KI-Systemen im Bereich der inneren Sicherheit "muss eine Abwägung zwischen dem Recht auf Sicherheit und der möglichen Einschränkung von Bürger- und Grundrechten vorgenommen werden", heißt es weiter. Nachvollziehbarkeit und Transparenz sollten hier in besonderer Weise gegeben sein. Die Gruppe nennt Pilotprojekte in Deutschland und Europa wie das zur Gesichtserkennung am Berliner Bahnhof Südkreuz, Roborder oder Predictive Policing, ohne sie aber näher zu bewerten. Solche Systeme sollten aber breit debattiert und möglichst einer Risikoklasse zugeordnet werden.

Generell sei bei staatlich entwickelten KI-Anwendungen sicherzustellen, dass diese "nicht diskriminieren", unterstreicht die Gruppe. Sie plädiert dafür, die Bevölkerung breit und umfänglicher zu der Technologie aufzuklären. Eine einheitliche Open-Data-Plattform könne helfen, personelle Ressourcen effizienter zu nutzen, leistungsfähigere KI-basierte Algorithmen und Analysen zu ermöglichen sowie von "Drittanbieter-Plattformen" unabhängig zu werden.

Die Qualitätsüberprüfung von Daten "hinsichtlich Konsistenz, Integrität und möglicher Verzerrungen muss hohe Priorität genießen", halten die Verfasser fest. Dabei bedürfe es qualifizierter Vertrauenszentren. Die beteiligten Abgeordneten und Sachverständigen empfehlen zudem einen "Rechtsanspruch auf Widerspruch gegen KI-Empfehlungen in Verwaltungsprozessen", sodass Bürger im Zweifel Anspruch auf menschliche Bearbeitung geltend machen könnten.

Aus Sicht der Mehrheit der Projektgruppe KI und Wirtschaft ist es nötig, "noch gezielter und mit starker staatlicher Finanzkraft in die KI-Förderung hineinzugehen" – insbesondere mit Blick auf Startups, anwendungsnahe Forschung und wissenschaftliche Expertise, Transfer in den Mittelstand sowie auf eine leistungsfähige Infrastruktur. Sie schlägt vor, einen eigenständigen, europäischen Weg zu definieren, um eine nachhaltige KI zu etablieren, die sich gegenüber den großen KI-Nationen USA und China behaupten könne.

Die Wirtschaftsexperten waren sich einig, dass der Umgang mit KI "einen klaren Kompass" erfordere. Zudem sollten "Datenräume" eingerichtet, die "technologische Souveränität" etwa mit Blick auf Rechenzentren, Hardware oder Quanten-Computing gestärkt sowie wünschenswerte "KI-Moonshot-Projekte" gefördert und umgesetzt werden.

Mögliche negative Szenarien wie der "gläserne Patient", die Folgen detaillierter Prognosen über den eigenen Gesundheitszustand und die Lebenserwartung, ein verändertes Verhältnis zwischen Arzt sowie Patient oder eine "Entmenschlichung der Gesundheitsberufe" seien bereits in der Debatte, weiß die Gruppe KI und Gesundheit. Demgegenüber erschlössen sich Vorteile hier eher, wenn etwa "Verbesserungen in der Diagnose, Therapie oder Versorgung" erzielt werden könnten. Offenkundig sei es, dass der Umgang mit Gesundheitsdaten mit potenziellen "direkten Folgen für Leib und Leben" besonders sensibel erfolgen müsse.

Die Autoren werben für eine "gemeinsame Mensch-Maschine-Interaktion zur Erhöhung der Qualität der Pflege". Es dürfe nicht etwa der Kostendruck darüber entscheiden, ob Senioren in Heimen durch autonome Roboter versorgt würden. Die Regierung soll gemeinsam mit allen relevanten Akteuren innerhalb des nächsten Jahres eine umfassende Strategie für KI im Gesundheitsbereich auflegen.

Der Sozialdemokrat René Röspel sprach sich im Plenum für ein Modell für die Technik aus, die dem Menschen dienen, ihn aber nicht überwachen dürfe wie in China. "Wir sehen die Chancen der Künstlichen Intelligenz und wollen diese nicht zerreden", erklärte Ronja Kemmer (CDU). Sie verwies etwa auf selbstfahrende Autos und Krebsfrüherkennung und bezeichnete "AI made in Europe" als vielversprechende Marke. Es gelte, "mehr KI" zu wagen und nicht jeden Fehler eines KI-Systems als Bremsklotz zu identifizieren.

Auch der FDP-Politiker Mario Brandenburg will "in der Vergangenheit verhaftete Debatten" überwinden. Weder Rassismus noch Sexismus seien Erfindungen von Algorithmen. "Daten sind ein Spiegel unserer Gesellschaft", stellte er klar. KI sei ein "Werkzeug ohne eigene Agenda". "Wir brauchen einen ideologiefreien Umgang mit der Künstlichen Intelligenz", befand Joana Cotar (AfD). Diese müsse dem Menschen "die Freiheit zum selbständigen Denken lassen". Sie warnte vor Panikmache gerade rund um Wahlen, da nicht der Algorithmus entschiede: etwas mehr Gelassenheit etwa im Umgang etwa mit Social Bots könne nicht schaden.

Die Linksfraktion gab zu Protokoll, dass sie die Teilberichte zur Wirtschaft und zur inneren Sicherheit sowie zum Militär weitgehend ablehne und dafür Sondervoten abgeben müssten. Sie vermisste klare rote Linien, wenn die Technik großen Schaden für Mensch oder Gesellschaft nach sich ziehe. Bei Grundrechtseingriffen wie beim Einsatz biometrischer Gesichtserkennung oder autonomer Waffen seien Grenzen überschritten, gab Anke Domscheit-Berg zu bedenken. Sie beklagte, dass die drei Gruppen "ausschließlich hinter verschlossenen Türen" getagt hätten und bei Expertenbefragungen der Live-Stream abgeschaltet worden sei.

Die Schweizer Bahn nutze KI, um Schienen besser auszulasten, brachte der Grüne Dieter Janecek ein Beispiel für das von ihm propagierte europäische Modell nach dem Motto "sozial, ökologisch, nachhaltig". Auch autonome Kleinbusse in den Außenbezirken hätten Potenzial. KI könne helfen, "um die Klimakrise zu bekämpfen". Dafür seien aber klare Leitplanken nötig, um den mit KI ebenfalls drohenden "totalen Überwachungsstaat" zu verhindern. (mho)