Menü

Forscherin fordert: KI-Technik stärker kontrollieren

Die Big-Data-Expertin Kate Crawford hat dazu aufgerufen, Systeme für Künstliche Intelligenz notfalls zu hacken, um sie transparenter zu machen und ihre sozialen Auswirkungen prüfen zu können. Nötig sei eine kleinteilige Analyse.

Künstliche Intelligenz, KI, AI

Wissenschaftlerin und Publizistin Kate Crawford plädiert für eine stärkere Kontrolle von Künstlicher Intelligenz (KI). Eine Leitfrage von Forschern und Aktivisten müsse es sein, "wie wir Zugang zu solchen Systemen bekommen", konstatierte die Australierin am Freitag auf der Hauskonferenz von Netzpolitik.org in Berlin in einem Gespräch mit dem US-amerikanischen Künstler und Aktivisten Trevor Palgen. "Wir müssen verstehen, wie sie Entscheidungen treffen" so Crawford, die an der Universität in New York und am Massachusetts Institute of Technology (MIT) lehrt.

Kate Crawford im Gespräch mit Trevor Paglen: Die Wissenschaftlerin und der Künstler gaben auf der "Das ist Netzpolitik!"-Konferenz einen Ausblick zu Künstlicher Intelligenz. Sie konzenrtierten sich dabei auf soziale Auswirkungen von KI-Technik.

Bisher seien KI-Programme und die zugehörige Rechnerinfrastruktur in der Regel eine "komplette Black Box", erklärte Crawford. Angesichts der Tatsache, dass Künstliche Intelligenz zunehmend in das Gesundheitswesen, den Arbeitsmarkt, den Versicherungs- und Immobiliensektor, die Kreditwirtschaft und viele andere Bereiche des täglichen Lebens einziehe, müssten die grundlegenden KI-Techniken transparent gemacht werden.

"Maschinenlernen sucht nach Mustern", führte die Expertin aus. Deren Interpretation sei schwierig und komplex, was gravierende soziale Auswirkungen haben könne. Algorithmen beobachteten verstärkt das menschliche Verhalten und unterbreiteten Vorschläge, um dieses zu optimieren, brachte sie ein Beispiel. Es gehe dabei um ein ständig wiederholtes Testen verschiedener Lösungsansätze.

So könnten Autofahrer laut Crawford etwa von einem lernfähigen Navigationssystem immer wieder auf unterschiedliche Strecken umgelenkt werden. Auf dem Weg zum Arbeitsplatz gehe es dabei nur darum, ein paar Minuten einzusparen oder dranzuhängen. Viel gravierender könne sich eine ungünstige Routenführung auswirken, wenn jemand dringend in eine Klinik eingeliefert werden müsse und ihm eine längere Route zugewiesen werde.

Mehr Infos

Um die sozialen Auswirkungen von KI prüfen zu können, sei daher dringend ein "Reverse Engineering" einschlägiger Systeme nötig, befand die Forscherin. Im Notfall müssten diese im Rahmen des rechtlichen Spielraums für Sicherheitstester gehackt werden. Generell sei eine gesonderte Forschungsethik für KI zu entwickeln, damit diese sich nicht als "langsam wirkendes Gift" entpuppe. Auch die Bürger müssten immer wieder Beweise für die Effektivität einschlägiger Anwendungen wie "Predictive Policing" verlangen. Eine Studie dazu habe für Chicago jüngst ergeben, dass es damit gar nicht weit her sei.

Der Google-Arm DeepMind habe kürzlich viel Presse bekommen, weil dessen KI-Programm den Menschen beim Go-Spielen geschlagen habe, ergänzte der US-Konzeptkünstler Trevor Paglen. Weit weniger beachtet worden sei, dass der IT-Konzern mit dem gleichen Ansatz den Stromverbrauch in seinen Rechenzentren um 40 Prozent habe senken können. Dabei dürften solche Entwicklungen künftig viel stärker in das Leben der Menschen hineinspielen.

Der Grenzgänger, der mit seinen Werken immer mehr technische geprägte Prozesse wie Überwachung anschaulich zu machen sucht, warnte vor allem vor dem Einzug von KI in das Strafverfolgungs- und Justizwesen. Die US-Firma Vigilance Solutions etwa installiere immer mehr Lesegeräte für Autokennzeichen im öffentlichen Raum, reichere die erhobenen Daten mit eigenen Informationsbeständen zu ausgefeilten Bewegungsprofilen an und stellte diese wiederum etwa "den Cops" zur Verfügung. So könne etwa analysiert werden, wer seine Bußgelder für Verkehrsvergehen schon bezahlt habe.

Mit Crawford ging Paglen konform, dass es in einem ordentlichen rechtsstaatlichen Verfahren derartige Black-Box-Verfahren nicht geben dürfe. Bedenklich an erster Stelle sei daran schon das Unterfangen, menschliches Handeln quantifizieren und im zweiten Gang computergesteuert optimieren zu wollen. (Stefan Krempl) / (ssi)

Anzeige
Zur Startseite
Anzeige