UNESCO zu KI: Auch China stimmt gegen Social Scoring und Massenüberwachung

Die UNESCO-Generalkonferenz hat Leitlinien zum ethischen Einsatz von Künstlicher Intelligenz beschlossen, die Staaten auf den Menschenrechtsschutz einschwören.

Lesezeit: 5 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 14 Beiträge

(Bild: Pavel Ilyukhin/Shutterstock.com)

Von
  • Stefan Krempl

Systeme mit Künstlicher Intelligenz (KI) müssen verhältnismäßig sein und dürfen keinen Schaden anrichten. So lautet das erste von zehn Prinzipien in der Empfehlung für einen ethischen Einsatz der Schlüsseltechnik, die die UNESCO-Generalkonferenz am Dienstag beschlossen hat. Demnach sollen KI-Systeme vor allem nicht für Social Scoring und "Zwecke der Massenüberwachung" verwendet werden.

Überraschenderweise hat auch China als eines der 193 Mitgliedsländer der UNESCO für das 28-seitige Dokument gestimmt. Das Reich der Mitte arbeitet selbst an einem "Sozialkreditsystem" inklusive einer Bürgerbewertung in Form eines "Citizen Score". Behörden sollen mit dem Social Scoring genau verfolgen können, was die Bevölkerung macht. Über eine Punktevergabe wäre es ihnen dann auch möglich, den Zugang etwa zu Reisen einzuschränken.

Im Westen wird China zudem verstärkt mit der technologisch gestützten Unterdrückung der muslimischen Bevölkerungsminderheit der Uiguren in der autonomen Region Xinjiang sowie dem Kampf gegen die Demokratiebewegung in Hongkong in Verbindung gebracht. Überwachungskameras mit biometrischer Gesichtserkennung gehören in der Volksrepublik zum Straßenbild.

Trotzdem hat es die UN-Sonderorganisation, die durch Förderung der internationalen Zusammenarbeit in Bildung, Wissenschaft, Kultur und Kommunikation zum Erhalt des Friedens und der Sicherheit beitragen soll, geschafft, China in die Ethik-Initiative mit einzubinden. Ein Grund dafür dürfte sein, dass die Empfehlung freiwilligen Charakter hat. Die Teilnehmerstaaten sind nicht verpflichtet, sie umzusetzen. Trotzdem dürfte der Druck wachsen, sich an die verabschiedeten Grundsätze und Werte zu halten.

"Die gewählte KI-Methode sollte nicht gegen die in diesem Dokument festgehaltenen Grundwerte verstoßen", heißt es in den Leitlinien. "Insbesondere darf ihre Anwendung nicht die Menschenrechte verletzen oder missbrauchen." Das KI-Verfahren sollte zudem "dem Kontext angemessen sein und auf strengen wissenschaftlichen Grundlagen beruhen". In Szenarien, in denen Entscheidungen unumkehrbare oder schwer rückgängig zu machende Auswirkungen haben oder es um Leben und Tod gehen kann, sollte der Mensch letztlich am Drücker sein.

Unerwünschte Schäden wie Sicherheitsrisiken und eine erhöhte Anfälligkeit für IT-Angriffe müssten vermieden werden sowie "während des gesamten Lebenszyklus von KI-Systemen angegangen, verhindert und beseitigt werden", lautet eine weitere Forderung. KI-Akteure sollen soziale Gerechtigkeit fördern sowie "Fairness und Nichtdiskriminierung jeglicher Art im Einklang mit dem Völkerrecht gewährleisten".

Zu den weiteren Grundsätzen gehören Nachhaltigkeit, Datenschutz, menschliche Kontrolle, Transparenz und Erklärbarkeit sowie Verantwortung und Rechenschaftspflicht. Auch zu einer Zusammenarbeit bei der KI-Entwicklung unter Einbezug aller Akteure nach dem Multi-Stakeholder-Modell rät die UNESCO.

Teil der Empfehlung ist auch, dass KI-Entwickler ethische Folgenabschätzungen durchführen. Regierungen sollen "strenge Durchsetzungsmechanismen und Abhilfemaßnahmen einführen, um sicherzustellen, dass die Menschenrechte, die Grundfreiheiten und die Rechtsstaatlichkeit in der digitalen Welt und in der physischen Welt geachtet werden".

Enthalten sind zudem einige Forderungen zu spezifischen Themen wie Gender, Bildung, Kultur und Umwelt. Die Länder sollten etwa öffentliche Mittel zur Förderung der Vielfalt in der Technologie bereitstellen, indigene Gemeinschaften schützen und den CO2-Fußabdruck von KI-Technologien wie großen Sprachmodellen überwachen.

Laut der deutschen UNESCO-Kommission handelt es sich "um den ersten global verhandelten Völkerrechtstext im Bereich der KI-Ethik". Dieser sei "in einem zweijährigen, intensiven und teils kontroversen zwischenstaatlichen Verhandlungsprozess erarbeitet" worden. Der Handlungsrahmen "übersetze" Menschenrechte und Werte wie das Vorsorgeprinzip in "konkrete politische Gestaltungsaufgaben". Diese bezögen sich auch auf Felder wie Umwelt und Gesundheit.

Wann immer Entwickler und Entscheider davon ausgehen müssten, dass die Entwicklung bestimmter KI-Anwendungen negative Auswirkungen haben könnte, sollten sie die Finger davon lassen, erläuterte Gabriela Ramos, Vize-Generaldirektorin der UNESCO für Sozial- und Humanwissenschaften, gegenüber dem Online-Magazin Politico den grundlegenden Ansatz. Sie wollte nicht darüber spekulieren, ob Peking als bislang stärkster Befürworter von Social Scoring diesem Grundsatz folgen werde. Sie wertete es aber als gutes Zeichen, dass Russland und China generell mit an Bord seien.

Die USA, in denen die größten KI-Unternehmen der Welt ansässig sind, zählen nicht zu den UNESCO-Mitgliedern und haben die neue Empfehlung auch nicht unterzeichnet. Ramos hofft trotzdem, dass die anderen Länder auf die Vereinigten Staaten Gruppenzwang ausüben. Sie sieht das Papier als "Code zur Änderung des Geschäftsmodells der KI-Branche". Dieses werde zudem sicher auch die Verhandlungen über die geplanten europäischen KI-Regeln beeinflussen. Damit soll etwa staatliches Social Scoring untersagt werden. Umkämpft ist noch ein ausdrückliches Verbot automatisierter Gesichtserkennung im öffentlichen Raum.

(mho)