Menü

Ars Electronica 2018: "Error" oder die Kunst der Unvollkommenheit

Das Digitalfestival widmete sich dieses Mal dem Fehler und seinem Wert: Die Debatten förderten Bedenkenswertes zutage – und möglicherweise selbst Fehler.

Von
vorlesen Drucken Kommentare lesen 4 Beiträge
Ars Electronica 2018: "Error" oder die Kunst der Unvollkommenheit

(Bild: xiaoxinghai)

Das Motto der Ars Electronica wird üblicherweise in der Hauptkonferenz ausgebreitet, einem der vielen Programmpunkte. Beim diesjährigen Thema "Error – The Art of Imperfection" war das leider anders. Welche Rolle Fehler im Entwicklungsprozess von Technik, Kunst und Gesellschaft spielen, ist eine faszinierende Frage, doch es blieb bei recht oberflächlichen Bekundungen, dass Fehler wichtig seien. Doch warum man dann beispielsweise ständig versucht, Fehler zu vermeiden, wurde schon nicht mehr gefragt.

Mehr Infos

Nichtsdestotrotz waren die Vorträge, die sich in der einen oder anderen Art auf das Thema bezogen, durchaus hörenswert. Nathan Lents, Professor für Biologie an der City University of New York und bekannter Buchautor berichtete über Fehler im Menschen. Man ist ja geneigt zu glauben, die "Krone der Schöpfung", sei fehlerfrei in dem Sinne, als dass der Mensch optimal an die Umgebung angepasst ist. Jedenfalls so, dass ein Ingenieur ihn nicht verbessern könnte.

Mit diesem Irrglauben räumte Lents erfolgreich auf. Er hat eine ganze Systematik für die Fehler entwickelt, zum Beispiel jene, die sich aus einer fehlenden Übereinstimmung zwischen Körper und (aktueller) Umwelt ergeben. Unsere Körper sind nicht für die überwiegend sitzende Tätigkeit gebaut und die verbreitete Kurzsichtigkeit entwickelt sich, weil Kinder im prägenden Alter sich überwiegend in geschlossenen Räumen aufhalten.

Aber auch die Evolution selbst macht Fehler. Als prägnantes Beispiel führt Lents den rückläufigen Kehlkopfnerv (Nervus laryngeus recurrens) an, der auf seinem Weg von Gehirn zum Stimmorgan sich unter das Herz hindurchschlingt, (was bei Herzoperationen peinlich beachtet werden muss). Dieser Umweg, bei der Giraffe fünf Meter lang, war sicherlich bei irgendeinem Urwesen nicht vorhanden, doch die Evolution konnte den einmal falsch eingeschlagenen Weg nicht mehr korrigieren.

Die Highlights der Ars Electronica 2018 (8 Bilder)

Was "sieht" eigentlich ein autonomes Auto?
(Bild: Dorothea Cremer-Schacht)

Lents reißt nur knapp an, dass auch das menschliche Gehirn seine Fehler hat, beispielsweise in seinem Fokus auf das unmittelbar vor ihm Liegende und der Schwierigkeit, langfristige Folgen des Handelns zu berücksichtigen. Womit er auch zum nächsten Vortrag überleitete.

Meredith Broussard

(Bild: Dorothea Cremer-Schacht)

Meredith Broussard lehrt an der New York University. Ihr Thema hat sie in ihrem Buch "Artificial Unintelligence, How Computers Misunderstand the World" ausgebreitet. Am Beispiel des Titanic-Untergangs hypothetisiert sie die Berechnung eines neuronales Netzes, um die Überlebenswahrscheinlichkeit eines Reisenden im voraus zu ermitteln. Es stellt sich heraus, dass das wichtigste Kriterium die Passagierklasse ist: Solche in der ersten Klasse hatten eine höhere Chance ein Rettungsboot zu erwischen.

Eine Versicherung auf dieser Basis würde nun die ärmeren Passagiere der billigen Klassen doppelt bestrafen, indem sie diesen auch noch höhere Versicherungsprämien abknöpft. Darauf angesprochen, dass das neuronale Netz nur Wahrscheinlichkeiten vorgibt, die Prämien aber eine davon unabhängige Geschäftsentscheidung sind, verweist Broussard darauf, dass sie im Vortrag die technischen Zusammenhänge vereinfachen müsse. Nun gut.

Sie kommt dann auf das virale Video des "rassistischen" Seifenspenders, der nämlich eine schwarze Männerhand nicht erkennt, wohl aber eine weiße. Hieran entwickelt Broussard das Konzept des "Unconscious Bias", also Vorurteilen, deren wir uns nicht bewusst sind und die sich als gefährliche oder schädliche Technologien manifestieren können. Nun ist ein schlecht designter Seifenspender kein Weltproblem, aber Broussard meint, autonome Autos hätten die gleichen Bilderverarbeitungsalgorithmen. Es wäre erstaunlich, wenn die Ingenieure in Stuttgart oder Wolfsburg das bestätigen würden.

Der "rassistische" Seifenspender

Im zweiten Block der Konferenz ging es um bewusst erzeugte Fehler, als "Fake-News". Regina Rini forscht über Moralphilosophie an der York Universität in Toronto. Sie analysierte in ihrem Vortrag sehr überzeugend, wie politische Interessengruppen gezielt Gerüchte ins Netz streuen, um die Stimmung anzuheizen und wie die sozialen Medien dies systematisch verstärken, um das "Engagement" der Nutzer zu steigern, also Klicks zu generieren. Wer sich regelmäßig auf Facebook oder Twitter aufhält, kennt den Effekt, dass die krassesten Sprüche am häufigsten zitiert werden. Doch so gut die Analyse, so fragwürdig sind die Lösungsvorschläge.

Ein automatisches Kennzeichnen von Bots mag noch angehen, so es denn zuverlässig funktioniert. Doch die Idee, Nutzer zu kennzeichnen, die vermeintliche Falschmeldungen verbreiten, klingt sehr nach Orwells 1984. Rini sieht durchaus das Problem, dass jemand festlegen muss, was wahr und was falsch ist. Doch das Facebook oder Twitter dies könnten, weil sie in der Lage sind, viele Informationsquellen zu verknüpfen, mutet aus deutscher Sicht fast naiv an, wo sich die halbe Nation über ein einziges Video streitet, das von der Antifa zu Chemnitz verbreitet wurde. Dass Rini Bewertungskonzepte wie die von Stackoverflow nicht kennt, die ohne zentrale Wahrheitsinstanz auskommen, macht deutlich, dass die Ars noch viel zu tun hat, Geisteswissenschaftler und Techniker zusammenzubringen.

Auch das Thema Datensicherheit wurde angerissen. Der Schweizer Biologe Ernst Hafen trug die erstaunliche Idee vor, die Europäische Datenschutz-Grundverordnung (DSGVO) anzuwenden, um die Kontrolle über die Nutzung der eigenen Daten zu erlangen. Jeder kann sich von jedem Partner die über ihn gespeicherten Daten geben lassen. Auch wenn die Internetfirmen viel über uns wissen – nur wir selbst können alle Daten über uns zusammenführen. In dieser Kombination steckt ein enormes Wissenspotential für Forschung und Entwicklung, man denke nur an die Verknüpfung von Gesundheitsdaten, Genom-Sequenz-Informationen und Bewegungsprofilen. Die Zusammenführung dieser Daten, die laut Hafen noch in unserer Hoheit liegt, verspricht hohen gesellschaftlichen Gewinn.

Um diese Ressource zu nutzen, sollten die Menschen ihre Daten in Genossenschaft einbringen und so Kontrolle halten und vom Nutzen profitieren. Als Beispiel verwies Hafen auf die Midata-Initiative. Doch anzunehmen, dass sein skizziertes Genossenschaftsmodell auch außerhalb der Schweiz Vertrauen genießt, ist mutig.

Den Festivalmachern war es in der Vergangenheit oft gelungen, visionäre Themen aufs Parkett zu bringen. Vielleicht liegt heute ein Problem darin, dass die gesellschaftliche Debatte mehr von konservativer Seite befeuert wird, und diese Stimmen wenig Affinität zur Ars-Szene haben. Für die Zukunft wünscht man der Ars jedenfalls mehr Mut zur Kontroverse. (Johannes Schacht) / (mho)

Anzeige