Europaratsempfehlungen zu KI: im Zweifel für die Menschenrechte

Der Europarat ruft seine 47 Mitgliedsstaaten auf, auf Algorithmen-basierte Systeme zu verzichten, falls diese die Grundrechte von Bürgern einschränken würden.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 23 Beiträge
Von

Die 47 Mitgliedsländer des Europarates sollen staatlich und kommerziell eingesetzte KI-Systeme konsequent auf ihre Grundrechtsfähigkeit überprüfen. Das steht in ausführlichen Richtlinien, die der Ministerrat internationalen Organisation am Mittwoch in Straßburg verabschiedet hat. An KI-Firmen und Entwickler gerichtet, fordern die Richtlinien: Grundrechtseinschränkungen der Staaten, in denen sie ihre Dienste anbieten, entbinden sie nicht von den eigenen Verpflichtungen. Sie müssen Betroffene aufklären, deren Entscheidungen gegen Datenspenden akzeptieren und ihnen erlauben, sich auch juristisch gegen jede "Kategorisierung" zu wehren.

Zwei Jahre lang hat das Steering Committee on Media and Information Society des Staatenbundes in zahlreichen Konsultationen mit Mitgliedsländern, Experten und Zivilgesellschaft die "Empfehlungen an die Mitgliedsstaaten zu Grundrechtswirkungen von Algorithmen-basierten Systemen" vorbereitet. Am Mittwochmorgen verabschiedete der Ministerrat, das höchstes Gremium des Europarates, die auf 22 Seiten dargelegten aufwendigen und auch kostenintensiven Maßnahmen zum Monitoring von KI-Systemen.

Durch den Empfehlungskanon für Regierungen und Private ziehen sich Grundrechtsfolgenabschätzungen, deren Durchführung für alle Seiten einigen Aufwand bedeutet. Denn die Folgenabschätzung wird wegen der dynamischen Entwicklung solcher Systeme als Prozess verstanden, der entlang des gesamten Lifecycles von Algorithmen-basierten Systemen notwendig bleibt.

Lernende oder anders trainierte Algorithmen müssen immer daraufhin abgeklopft werden, inwieweit sie gegen Grundrechte verstoßen – sei es durch Auswahl und Sammeln von Daten, Art der Analyse, Design oder im praktischen Betrieb. Einbezogen werden sollen dabei auch die im Lauf von Entwicklung und Betrieb eingegangenen Beschwerden. Die Regierungen des Europarates sind aufgefordert, ihre Aufsichtbehörden entsprechend auszustatten und regelmäßig Konsultationsrunden einzuberufen.

Als Nutzer automatisierter Entscheidungssysteme von Verkehrsplanung bis Justiz sind öffentliche Stellen dabei nicht nur gehalten, darauf zu achten, dass die Systeme nicht diskriminieren und bestehende soziale Ungleichgewichte zementieren. Sie müssen vielmehr bei Beschaffung und Einsatz solcher Systeme auch darauf achten, dass etwaige Grundrechtsverletzungen durch Dienstleister, etwa beim Datensammeln, verhindert werden. Nachträgliche Re-Identifizierung von Personen ist dabei eine der genannten Gefahren. Sollte ein KI-System mit zu hohen Riskien für Grundrechte verbunden sein, sollten Regierungen den Einsatz verhindern.

Zugleich spricht das Dokument auch die Frage der drohenden Abhängigkeit von möglicherweise wenigen großen Anbietern an. Als Hüter eines offenen und vielfältigen Marktes soll der Staat die Infrastruktur für mehr Wettbewerb schaffen, damit auch kleine Organisationen oder Firmen Algorithmen-basierte Systeme nutzen können. Dabei wird auch angemerkt, dass immer größere Datensätze nicht zwangsläufig zu besseren Ergebnissen führen.

In den kommenden Jahren sollen die Mitgliedsländern am rechtlichen und institutionellen Rahmen für Grundrechtsprüfungen arbeiten und Rechtsmittel für Klagen für die Bürger schaffen.

Und noch etwas legen die Europaratsstaaten sich selbst ambitioniert auf: Bürgerinnen und Bürger müssen sich etwa durch technische Maßnahmen gegen die Aufnahme in Datenpools selbst schützen dürfen. Dazu gehöre die Möglichkeit, dass sie selbst "ihre Aktivitäten für Automatisierung oder andere Formen maschineller Auslesbarkeit oder Manipulation nicht nachvollziehbar machen, zum Beispiel durch Verschleierung", heißt es im Dokument.

Verbindlich sind die Richtlinien für die Mitgliedsstaaten erst einmal nicht, bestätigt Charlotte Altenhoener vom Büro des Europarates in Straßburg. Für eine ganze Reihe von Regierungen, die aktuell gesetzliche Regelungen für KI anstreben, lieferten die Richtlinien aber Orientierung. "Wir stellen immer wieder fest, dass solche Richtlinien Eingang in lokale Regulierungen finden", versichert Altenhoener. Aktuell seien insbesondere die skandinavischen Länder dabei, KI-Regulierung voranzutreiben. Andere Regierungen, etwa die deutsche, seien vorsichtiger. Sie hätten Sorgen, Innovationen möglicherweise einzuschränken.

Altenhoener verweist darauf, dass bei der Erarbeitung der Richtlinien Anbieter wie Microsoft und Google weniger Sorgen wegen Innovationshemmnissen geäußert, sondern im Gegenteil klare Maßgaben gefordert hätten. Darauf könnten Zertifizierungen aufgebaut werden. Möglichst internationale Standards schützten sie vor regulatorischen Flickenteppichen. Die ziemlich detaillierten Regeln können übrigens, so meint die Expertin, durchaus auch von Software-Entwicklern als Richtschnur herangezogen werden.

Wie wichtig den Regierungen das Thema KI und Algorithmen tatsächlich ist, zeigt eine von den Europaratsmitgliedsstaaten Ende vergangenen Jahres gestartete Initiative für eine KI-Konvention des Rats. Eine solche wäre dann für alle Staaten ab Unterzeichnung verbindlich und könnte auch von Staaten außerhalb Europas gezeichnet werden, genauso wie die Cybercrime-Konvention oder die Datenschutz-Konvention des Europarates. (ll)