zurück zum Artikel

KI: OpenAI will Sozialwissenschaftler in die Forschung einbeziehen

Künstliche Intelligenz: OpenAI möchte Sozialwissenschaftler in die Forschung einbeziehen

Die Forschungseinrichtung erläutert in einer Abhandlung, warum Sozialwissenschaftler für die KI-Entwicklung wichtig sind.

OpenAI, eine Non-Profit-Organisation zum Erforschen von Themen rund um künstliche Intelligenz (KI) und Machine Learning (ML), hat eine Abhandlung mit dem Titel "AI Safety Needs Social Scientists" veröffentlicht. Die Verfasser erläutern, warum sie Sozialwissenschaftler für die Entwicklung von KI-Systemen wichtig finden.

Der Schwerpunkt liegt vor allem auf der Interaktion zwischen Menschen und Machine-Learning-Anwendungen. Wichtig sei dabei, dass Letztere zuverlässig das tun, was die Menschen von ihnen erwarten. Als Ausgangspunkt dafür führt OpenAI bereits seit geraumer Zeit Befragungen über die Erwartungen durch, um dann die Machine-Learning-Modelle entsprechend zu trainieren.

Hier fangen jedoch bereits die Probleme an, da jede einzelne Person unterschiedliche Einstellungen und potenzielle Vorurteile mitbringt. Zudem beeinflusst die Fragestellung die Antwort. So hängt die Einschätzung, ob eine bestimmte Aktion falsch sei, unter anderem davon ab, ob das Wort "moralisch" in der Frage vorkommt.

Im Mai vergangenen Jahres hatte OpenAI eine Methode vorgeschlagen [1], um die Zuverlässigkeit von ML-Agenten zu erhöhen. Dabei debattieren zwei KI-Systeme miteinander, und ein menschlicher Schiedsrichter bewertet die Konversation sowie das Resultat.

Da derzeit Machine-Learning-Ansätze noch nicht in der Lage sind, komplexere Debatten zu führen, wird in der Abhandlung vorgeschlagen, zunächst die Debatte mit zwei menschlichen Teilnehmern durchzuführen und die Erkenntnisse auf die Diskussion der Maschinen zu übertragen. Beide Gespräche bewertet ein menschlicher Schiedsrichter. Auf die Weise sollen bessere Erkenntnisse über menschliche Argumentationsweisen in die Entwicklung der Systeme einfließen.

Die Erkenntnisse aus der Diskussion zwischen Personen helfen beim Übertragen auf ML-Syteme.

Die Erkenntnisse aus der Diskussion zwischen Personen helfen beim Übertragen auf ML-Syteme.

(Bild: OpenAI)

Die auf Menschen begrenzten Versuchsreihen sollen in der Auslegung die ML-Algorithmen im Blick haben, aber von keinem der Beteiligten ein Wissen in Machine Learning voraussetzen. Vielmehr geht es darum zu erkennen, wie Menschen sich in den Gesprächen verhalten und welche Denkweise dahintersteckt.

Die Abhandlung führt exemplarisch verschiedene Szenarien auf, um die Argumentationsweise von Menschen für das Übertragen auf ML-Systeme nachzuvollziehen. In der "Singe Pixel Image Debate" sehen die Debattierenden entweder das Foto einer Katze oder eines Hundes. Unabhängig vom tatsächlichen Bild versucht nun einer, den Schiedsrichter davon zu überzeugen, dass es eine Katze sei, der andere argumentiert für den Hund. Der Schiedsrichter sieht nur die rechteckigen Markierungen zum Unterstreichen der Argumente, nicht jedoch das Bild. Zum Abschluss dürfen die Teilnehmer genau einen Pixel zeigen, um ihre Argumentation zu unterstreichen.

Für ein Experiment sehen die Debattierenden ein Foto eines Hundes oder einer Katze und versuchen dem Schiedsrichter, der das Bild nicht sieht, jeweils von einer Gattung zu überzeugen.

Es ist ein Hund! Nein, es ist eine Katze! Nicht die Fakten zählen, sondern die Argumentation.

(Bild: OpenAI, Foto Wikipedia, CC-BY-SA)

An der Stelle zeigt sich jedoch das zu stark eingeengte Wissen der beteiligten Experten: Die meisten KI-Forscher sind auf Machine Learning spezialisiert, bringen aber zu wenig Wissen und Erfahrung zu menschlichem Verhalten und Wahrnehmung mit. An dieser Stelle sollen die Sozialwissenschaftler ins Spiel kommen. Die Herausforderungen der KI seien interdisziplinär, sobald es um die Interaktion zwischen Mensch und Maschine geht, und erforderten somit ein interdisziplinäres Team von Wissenschaftlern.

Die Verfasser der Abhandlung sehen im Bereich der Sozialwissenschaften viele nützliche Felder wie experimentelle und soziale Psychologie, Kognitionswissenschaft, Politikwissenschaft sowie Ökonomie. Auch angrenzende Wissensbereiche wie Neurowissenschaft und Rechtskunde sind gefragt.

Neben der Veröffentlichung der Abhandlung hat OpenAI einen Workshop am Center for Advanced Study in the Behavioral Sciences (CASBS) an der Stanford University mit organisiert. Außerdem will die Organisation Sozialwissenschaftler einstellen [2].

Weitere Details lassen sich dem OpenAI-Blog entnehmen [3]. Die Abhandlung ist über die auf Machine Learning spezialisierten Website Distill kostenfrei verfügbar [4]. (rme [5])


URL dieses Artikels:
http://www.heise.de/-4314533

Links in diesem Artikel:
[1] https://blog.openai.com/debate/
[2] https://jobs.lever.co/openai/dd3f7709-6651-4399-b2b4-4f27abcbd296
[3] https://blog.openai.com/ai-safety-needs-social-scientists/
[4] https://distill.pub/2019/safety-needs-social-scientists/
[5] mailto:rme@ct.de