Menü
Cebit

Gipfeltreffen zur KI: Mensch oder Maschine – wer programmiert wen?

Microsoft, IBM und Facebook-Vertreter präsentieren sich auf der Cebit als Unternehmen, die mit der KI-Technik erst am Anfang stehen.

Gipfeltreffen zur KI: Mensch oder Maschine – wer programmiert wen?

Wissenschaftsjournalist Ranga Yogeshwar auf der Cebit.

(Bild: heise online / Valerie Lux)

Die Anwendung von KI hat IT-Konzernen bisher auch peinliche Momente beschert: Beispielsweise etikettierte die automatische Bilderkennungssoftware von Google Photos ein Foto einer Nutzerin 2015 mit zwei dunklen Menschengesichtern als "Gorillas". Unvergessen bleibt auch Tay, Microsofts automatischer TweetBot, der schon nach kurzer Zeit nur noch antisemitische und sexistische Nachrichten twitterte: 4chan-Trolle hatten den Bot so lange mit menschenfeindlichen Material gefüttert, dass die selbstlernende Intelligenz diese Aussagen als die Norm für die Formulierung ihrer Tweets interpretierte.

Facebook startete erst vor kurzem seine automatische Gesichtserkennung mithilfe von KI, über diese sind bislang keine öffentlichen Beschwerden bekannt. Das Unternehmen ist zum ersten Mal mit einem Stand auf der Cebit vertreten. Dort sprach Facebook-Sprecher Norberto Andrade von der KI wie von einem Kind, das seine Verhaltensweisen von der Umwelt abschaut. Die KI sei nur eine "Reflektion unseres menschlichen Verhaltens, sie imitiere gute und schlechte Charaktereigenschaften". Facebook kämpfe mit der KI wie ein trotziges Kind, das einfach noch nicht das tue, was von ihr gewollt wird.

Anzeige

Beim KI-Einsatz geht es Facebook momentan vor allem darum, "Hate Speech schnell und effizient aufspüren", sagte Andrade. Und dabei habe Facebook mittlerweile begriffen, dass es vor allen Dingen bei den Vorurteilen der Mitarbeiter anfange, die die Algorithmen programmierten. "Wir glauben daran, dass Diversität in der Belegschaft die beste Antwort auf die Mängel der KI sei", erklärte Andrade. Menschen pflegten – unbewusst – ein Schubladendenken, aber Maschinen dürften diese engen Kategorien nicht von den Softwareentwicklern übernehmen. Facebook hat für seine Entwickler ein Handbuch namens "FB Learner Flow" entwickelt, das seinen Mitarbeitern helfen soll, diese Vorurteile im Arbeitsprozess aufzuspüren.

Das Problem in der Anwendung von KI sei nicht die Erhebung von Daten, waren sich KI-Professor Christian Bauckhage vom Fraunhofer-Institut und Moshe Rappoport von IBM in ihren Vorträgen einig, sondern die Frage, nach welchen Kriterien die Daten gebündelt und analysiert werden sollten. "Es hört sich trivial an, aber wir bei IBM verwenden extrem viel Zeit dafür, Entscheidungen zu treffen, welche Daten wir jetzt gebrauchen kann und welche nicht", erklärte Rappoport. Bauckhage verwies darauf, dass das die Anzahl vorklassifizierter Daten ("labeled data"), also Bilder mit Namensetikett, von denen die KI lerne könne, noch extrem gering sei.

Weltweit beschäftigten sich momentan etwa eine Millionen Berufstätige mit der Aufgabe, die Algorithmen zu trainieren und Fotos semantisch zu interpretieren, damit die KI diese verstehe. Denn damit die künstliche Intelligenz mit Sicherheit einen Luftballon erkennt, müssen erst tausende bis hunderttausende Fotos mit Luftballons manuell von Menschen mit dem Namen "Luftballon" markiert werden. Ein nicht zu unterschätzender Aufwand. Der Leiter der Bosch-Forschungsabteilung Michael Bolle gab deswegen zu bedenken, dass sei mit der KI für selbstfahrende Autos "noch ganz am Anfang stehe" – mittlerweile habe die KI zwar eine niedrigere Fehlertoleranz bei der Erkennung von manchen Gegenständen als das menschliche Auge, doch vollständige Sicherheit könne sein selbstfahrendes Auto immer noch nicht garantieren.

In den Arbeitsschritten von KI-Anwendungen gibt es einen weiteres Hindernis: Ausschließlich Softwareentwickler könnten die komplizierten Berechnungen verstehen, nach denen der Computer die Bildanalyse durchführt. Die Berechnungen hätten jedoch gravierende Auswirkungen für Individuen. Dieses Faktum fördere nicht die gesellschaftliche Akzeptanz von künstlicher Intelligenz, war häufig auf der Cebit zu hören.

Die Wissenschaftlerin Sandra Wachter vom Oxford Internet Institute veröffentlichte voriges Jahr zusammen mit dem italienischen Philosophen Luciano Floridi einen Aufsatz, in dem sie das "Recht auf Erklärbarkeit" von Algorithmen in der DSGVO einforderte. Jeder müsse verstehen können, mit welcher Methode beispielsweise automatische Vorschläge von Bannerwerbung generiert werden. "Es kann nicht sein, dass Google Werbung von hochbezahlten Stellenanzeigen meistens nur männlichen Nutzern anzeige", meinte Wachter auf der Cebit. "Jeder Algorithmus kann in klarer und verständlicher Sprache erklärt werden", viele Entwickler drückten sich um diese Aufgabe.

Für die Erklärung der Kausalität von algorithmischen Entscheidungen trat auch Wissenschaftsjournalist Ranga Yogeshwar ein. Demokratie brauche Erkenntnis, sagte er auf der gut besuchten Bühne in Halle 27, es sei nicht gut, dass KI-Anwendungen mittlerweile samt und sonders zu einer Black Box verkommen seien. Das Plädoyer für "Explainable AI" wurde somit zum Schlagwort der Stunde auf der Gipfeltreffen zur künstlichen Intelligenz.

Im Bereich der künstlichen Intelligenz für die Erkennung von Sprachstrukturen gab es einige Neuheiten: Microsoft-Vertreter präsentierten neue Features der hauseigenen Suchmaschine Bing vor – künftig sollen Sucherergebnisse nicht nur in einer Listenabfolge erscheinen, sondern in Infoboxen, Textkästen oder in Strukturen wie "Pro vs. Contra" dem Nutzer angezeigt werden.

Auch die Erinnerung kann durch KI gestützt werden – die Kriminalpsychologin Julia Shaw präsentierte vor einem vollbesetzten Saal einen kostenlosen Chatbot, der durch seine Frage-Antwort-Struktur die Erinnerung von Opfern von Diskriminierung am Arbeitsplatz helfen soll. Eine KI-Anwendung, die der Gesellschaft hilft und deswegen viel Applaus generierte. Yogeshwar knüpfte daraufhin an Jaron Laniers technik-kritischer Cebit-Keynote an: Die ganzen KI-Träumereien der großen IT-Konzerne für vollautomatisierte Arbeitsabläufe teile er ebenfalls nicht. "Ich möchte eines klarstellen, Hunger und Armut zu bekämpfen ist wichtiger als die nächste Smart Watch", sagte Yogeshwar. (Valerie Lux) / (anw)

Anzeige