Missing Link: Was wir über die Fairness der Welt von moderner KI lernen können
KI-Basismodelle verstehen die Komplexität unserer Welt jenseits klar definierter Aufgaben – das birgt Herausforderungen. Wo droht Gefahr und was können wir tun?
(Bild: Wirestock Images/Shutterstock.com)
- Jonas Andrulis
Seit 2008 hat die zweite Welle von KI-Anwendungen überraschende neue Funktionen möglich gemacht und dabei die Erwartungen so hoch geschraubt, dass heute jede Currywurstbude behauptet, eine KI-Strategie zu haben. Die Modelle, die diese technologische Revolution antreiben, stützen sich auf riesige künstliche neuronale Netze (Deep Learning), die Millionen (und später Milliarden) von Parametern mit Hilfe sorgfältig erstellter Trainingsdatensätze anpassen. Doch bis vor kurzem hatten all diese KI-Modelle eine Gemeinsamkeit: Sie beschränkten sich auf die Verarbeitung spezieller Inputs (wie Kamerabilder aus Fahrzeugen) mit im Vorfeld eng definierten Ergebnissen (wie der Erkennung von Fußgängern). Die Grundlage sind von Menschen definierte Ziele anhand manuell annotierter Trainingsdaten (überwachtes Lernen). Das Verhalten solcher Modelle lässt sich leicht verstehen und messen, ihre Leistung ist gut quantifizierbar – wie beispielsweise in einer Konfusionsmatrix, die angibt, wie viele echte Fußgänger die Künstliche Intelligenz (KI) übersehen hat oder meint, erkannt zu haben, wo es keine gibt.
Jonas Andrulis, Founder und CEO Aleph Alpha
(Bild: Julian Beekmann)
Die 2019 von Jonas Andrulis und Samuel Weinbach in Heidelberg gegründete Aleph Alpha GmbH betreibt als einziges europäisches KI-Unternehmen die Forschung, Entwicklung und Gestaltung in Richtung generalisierender Künstlicher Intelligenz (Artificial General Intelligence, kurz: AGI).
Die Heidelberger steuern beim Gaia-X-Projekt OpenGPT-X multimodale Modelle der neuesten Generation bei. 2021 stellten sie mit 28,3 Millionen Euro an Wagniskapital einen deutschen Deep-Tech-Finanzierungsrekord auf.
Technologiesouveränität schafft Handlungsfähigkeit
Selbstbewusst strebt das Unternehmen laut eigenen Angaben danach, technische Kompetenz und Wertschöpfung hier zu bündeln, damit Europa im globalen Wettbewerb handlungsfähig bleibt. "Wenn die gesamte Wertschöpfung zu den Aktionären von Microsoft und OpenAI geht, dann fehlt uns das hier als Gesellschaft", untermauert CEO Andrulis das Anliegen. Der Machine Learner und Serienunternehmer war zuvor leitend in der KI-Forschung von Apple aktiv. 2021 gewann er den Deutschen KI-Preis für eine Technologie vergleichbar mit Deep Mind und OpenAI.
KI im Expertengepräch: Wohin steuert Europa?
Im Heise-Interview "Freistoß oder Eigentor – Mehr Spielraum für Machine Learning" diskutieren Jonas Andrulis und Reinhard Karger (DFKI) komplementär über Künstliche Intelligenz und die technologische Transformation.
Beim Erstellen dieser Art von KI ist es möglich, versehentlich ein Modell zu trainieren, das für eine bestimmte Gruppe von Menschen oder in gewissen Anwendungsfällen keine gute Leistung zeigt. Sobald ein solches potenzielles Problem erkannt wurde, ist es damit relativ einfach, auch ethische Bedenken hinsichtlich der Fähigkeiten des Modells zu äußern: Fußgänger (in diesem Beispiel) mit einem seltenen Aussehen (was hier heißt: ungewöhnlich verglichen mit der Mehrheit im Datensatz) könnten nicht mit ausreichender Qualität erkannt worden sein. Falls das der Fall ist, lässt es sich eindeutig evaluieren und darstellen.
Wir können versuchen, einen (Teil-)Datensatz von Fußgängern mit ungewöhnlichem Aussehen zu erstellen (basierend auf passenden Kriterien wie beispielsweise ethnischer Zugehörigkeit oder Größe) und messen, wie gut unser Modell bei dieser Untergruppe abschneidet. Liegt das Ergebnis unterhalb unseres Schwellenwerts für die Akzeptanz, können wir weitere Trainingsdaten hinzufügen, die genau diese Beobachtungen enthalten oder die Gewichtung der bereits vorhandenen erhöhen. Dieser Ansatz wird die Modelle nicht perfekt machen, und der Versuch, jedes unerwünschte Verhalten zu entfernen, wird uns in eine Endlosschleife von Änderungen führen – aber zumindest sind die Werkzeuge gut etabliert.
Prominente Beispiele, bei denen diese Art von Systemen Diskussionen ausgelöst haben, sind die falsche Klassifizierung von Menschen als Affen oder die schlechte Leistung der Gesichtserkennung für dunkelhäutige Benutzer. In diesen Beispielen wurden sehr klare und eindeutig definierte Ziele für das KI-System (Erkennung von Objekten in Bildern, Erkennung menschlicher Gesichter) zweifellos für eine Teilmenge der Daten nicht erreicht. Obwohl kein KI-System immer alles richtig machen wird, ist es sinnvoll, ein System anzustreben, das diese Art von Fehlern vermeidet. Dass diese Fälle von den betroffenen Unternehmen zeitnah korrigiert wurden, demonstriert die Möglichkeit der Nachbesserung. Bei ihr sollte man sich darüber im Klaren sein, dass der Versuch, diese Probleme zu beheben, ein iterativer Prozess ist und die Systeme dabei wiederholte Anpassungen zulassen müssen. Inzwischen gibt es bewährte Tools und Methoden, um solche unerwünschten Effekte zu reduzieren, während die Grundfunktionalität in ähnlicher Güte erhalten bleibt.
Eine neue Generation von Weltmodellen
Seit einigen Monaten existiert in Forschung und Industrie eine neue Generation von KI-Modellen, für die sich ähnliche Bewertungen nicht mehr auf triviale Weise durchführen lassen. Diese Modelle versuchen nicht, eine bestimmte überwachte (vordefinierte) Zuordnung zu erlernen (Kamerabild auf Fußgänger), sondern allgemeine "Bedeutung" und Muster in den Daten zu verstehen. Da keine menschliche Annotation mehr nötig ist, wird dieses Vorgehen selbstüberwachtes Lernen (self-supervised) genannt. Es kann und wird – bei einem ausreichend großen Modell und Datensatz – komplexe Strukturen und Abhängigkeiten finden. Auf der Grundlage dieser Modelle und ihrer erlernten Weltstruktur lässt sich eine Vielzahl verschiedener Anwendungsfälle implementieren, die das während des Trainings erworbene Wissen nutzen.
Aus diesem Grund hat eine Gruppe von Forschern der Universität Stanford ihnen den Namen "Foundation Models" (Basismodelle) gegeben – denn mit ihrer Hilfe können wir unzählige neue mögliche Anwendungen entwickeln, die auf dem Weltwissen der Modelle aufbauen. Viele der Fähigkeiten, die sich aus diesem Aufbau ergeben, sind überraschend und waren während des Trainings nicht absehbar oder geplant. Die Ergebnisse sind oft neuartig und können beeindruckend komplex sein: Das von OpenAI entwickelte generative Bildmodell DALL-E beispielsweise kann auf der Grundlage einer kurzen Textbeschreibung Bilder des gewünschten Inhalts erstellen, und das mit fast unbegrenzter Flexibilität (s. Abb. 1).
(Bild: OpenAI)
Die Funktionalitäten, die sich auf diesen Basismodellen aufbauen lassen, sind nahezu unbegrenzt – dabei nutzen sie komplexe und teilweise unbekannte interne Muster und Zusammenhänge in den Daten (und der Welt). Dadurch gibt es keine einfachen Maßnahmen, um ethische Bedenken ähnlich wie bei den Modellen des überwachten Lernens zu berücksichtigen. Wenn DALL-E einen "Sessel in Form einer Avocado" erschafft, wie können wir dann beurteilen, ob diese Darstellung fair ist? Werden alle Arten von Sesseln oder Umgebungen so dargestellt, wie wir es für erforderlich halten? Sind Menschen inbegriffen? Was sind unsere Anforderungen an die Darstellung von Menschen? Während diese Fragen für das DALL-E-Beispiel harmlos erscheinen, werden sie im Zusammenhang mit GPT-3 und ähnlichen Modellen äußerst relevant.
So sind GPT-3-ähnliche Modelle beispielsweise in der Lage, eine Zusammenfassung eines langen Textes zu schreiben, ohne dass sie Beispiele oder zusätzliche Trainingsdaten sehen müssen. Aber wird diese Zusammenfassung alle Aspekte des Dokuments angemessen wiedergeben? Würde ein Psychiater nicht eine andere Zusammenfassung schreiben als ein Ingenieur, oder ein alter Deutscher sich nicht auf andere Aspekte des Textes konzentrieren als ein junger japanischer Schriftsteller? Ist diese Subjektivität, die wir bei menschlichen Autoren als selbstverständlich akzeptieren, auch für KI-Modelle in Ordnung? Wie lässt sich das messen und fair vergleichen?
Wir müssen hier zwei Fragen untersuchen:
- Was machen die Basismodelle eigentlich? Wie lassen sich ihre Ergebnisse verstehen?
- Was sind aus einer ethischen Perspektive vernünftige Anforderungen an diese Modelle?