Konferenz M3: Künstliche Intelligenz ist in der Realität angekommen

Die Konferenz Minds Mastering Machines widmete sich drei Tage dem Thema Künstliche Intelligenz. Die Veranstalter hatten ein breites Programm an Fachvorträgen sowohl für Einsteiger als auch erfahrene Entwickler und Data Scientists zusammengestellt.

Veranstaltungsberichte  –  0 Kommentare
Konferenz M3: Künstliche Intelligenz ist in der Realität angekommen

Minds Mastering Machines (M3) ist die neue Machine-Learning-Konferenz (ML) von heise Developer und dpunkt.verlag. Im Oktober 2017 gemeinsam mit The Register zunächst in London gestartet, fand die M3 im April 2018 erstmals in Deutschland statt. Etwa 270 Interessierte aller Kenntnisstufen fanden sich für zwei Tage im Kölner Komed zusammen, um in zwei Keynotes und insgesamt 36 Fachvorträgen in drei parallelen Tracks mehr über das maschinelle Lernen und computergestützte Entscheidungen zu erfahren. Das Spektrum reichte von Einführungen für absolute Neulinge bis hin zu technischen Deep Dives für Anwender bestimmter neuronaler Netze.

Trotz einer Vielzahl erheiternder Anekdoten war Verantwortung ein zentraler Begriff in beiden Keynotes. Während der klassische Ansatz in der Informatik ist, dass Software von Programmierern definierte Regeln auf Eingangsdaten anwendet, um ein bestimmtes Ergebnis zu erzielen, dreht das maschinelle Lernen die Vorgehensweise um: Es leitet aus Eingangsdaten und einer Abbildung davon eben solche Regeln ab. Die blinde Anwendung von Formalismen birgt dabei durchaus Gefahren.

Marcel Tilly

Marcel Tilly von Microsoft erläuterte den Teilnehmern, dass viele Gesichtserkennungsverfahren, die beispielsweise das Alter und Stimmungsbild einer Person erkennen sollen, aufgrund ihres unbalancierten Trainings sehr gute Trefferraten bei jungen, hellhäutigen Männern haben. Je weiter sich ein Gesicht davon jedoch unterscheidet, desto schlechter funktioniert die Klassifikation. Während man hier noch von technischen Herausforderungen sprechen kann, die bei umsichtiger und fachlich einwandfreier Arbeit vermeidbar sind, gibt es innerhalb der Maschinenethik durchaus Probleme, die auch aus menschlicher Sicht unlösbar erscheinen.

Prof. Oliver Bendel von der Universität Sankt Gallen zeigte das an einem Szenario, in dem ein autonomes Fahrzeug bei einer unausweichlichen Kollision entscheiden müsste, wen es als menschlichen Kollateralschaden in Kauf nehmen würde. Im Kern wandte er sich dagegen, eine solche Entscheidung einem Algorithmus zu überlassen, sondern sieht die Verantwortung nach wie vor beim Menschen. Das steht im krassen Gegensatz zu einem seiner US-amerikanischen Kollegen, der an Roboterethik für Kampfmaschinen arbeitet.

Professor Oliver Bendel

Einige Vorträge widmeten sich der Frage, wie die Nutzung der künstlichen Intelligenz (KI) aktuell ausschaut. Selbst wenn man sich gegen die inflationäre Verwendung des Begriffs sträubt, gehören klassische Expertensysteme und bodenständige Machine-Learning-Verfahren mit zur KI. Und diese neudeutsch als narrow AI (schmale KI) bezeichneten Systeme, weil sie in einem bestimmten Aufgabenbereich eingesetzt werden und nicht als universelle Wissensmaschinen an Science Fiction erinnern, sind durchaus in der Realität angekommen.

In mehreren Praxisberichten erfuhren die Teilnehmer unter anderem davon, wie Unternehmen eingehende Dokumente nicht mehr nur digitalisieren, sondern zusätzlich eine semantische Interpretation vornehmen. Gerhard Hausmann von der Barmenia führte ein auf TensorFlow basierendes Klassifikationssystem vor, das aus Zahnarztrechnungen aufgelistete Leistungen extrahiert und gegen die Gebührenordnung prüft. Es funktioniert auch dann, wenn die Leistungen unscharf beschrieben oder mit vielen, teilweise nicht standardisierten Abkürzungen formuliert sind. Da man im Enterprise-Umfeld mit Produktiveinsätzen von zehn Jahren und länger rechnet, punktet das von Google entwickelte Framework TensorFlow damit, dass die Nutzer angesichts der stetig wachsenden Community von einer entsprechend langen Unterstützung ausgehen.

Kerstin Fuchs und Maren Übelhör über Anomalieerkennung und Prediction von Zeitreihen im Unternehmenskontext.

Von Chi Nhan Nguyen des Berliner Startups SMACC hörte man von einem Trainingsdatensatz mit über 300.000 Rechnungsdokumenten in 25.000 verschiedenen Layouts, bei denen die Schwierigkeit darin besteht, aus OCR-Daten bis zu 70 unterschiedliche Labels wie Anschrift, Steuernummer oder Kontodaten durch bidirektional rückgekoppelte neuronale Netze zu erkennen. Anwenderberichte über die technischen Herausforderungen und die Implementierung von Recommender Systemen oder das Erkennen betrügerischer Bestellvorgänge beim Online-Shopping rundeten diesen Themenschwerpunkt ab. So kämpfen Stanimir Dragiev und Sascha Effenberger von Zalando bei der Betrugsdetektion damit, dass sich die zugrundeliegenden Merkmale über die Zeit immer wieder verändern. Was tut man aber mit fehlenden Werten beim erneuten Training? Beispielsweise könnte man alte, unvollständige Datensätze einfach verwerfen. Eleganter sind Imputationsverfahren oder der Einsatz spezifischer Modelle in Abhängigkeit des Merkmalraums. Bei den systematischen Tests des Teams stellte sich aber heraus, dass das simple Auffüllen mit einer indikativen Konstante ausreichend war.

Technisch versierte Unternehmen wie Zalando unterhalten mittlerweile eigene Forschungs- und Entwicklungsabteilungen für Data Science und KI, und es entsteht manchmal der fälschliche Eindruck, dass wirklich alle Unternehmen in diesen Feldern innovativ werden könnten. Oftmals scheitert der Einsatz der neuen Techniken jedoch an Banalitäten. Marc Pickardt, Vertreter der Gesundheitsregion NORD e.V., berichtete von einem Machine-Learning-Projekt zur Analyse computertomografischer Bilder, in dem für das Training die systematische Bezeichnung einer Erkrankung nach dem ICD-10 Katalog erwartet wurde, man die Diagnose aber nur in medizinischer Prosa vorfand. Das bestätigte die Aussage von dem ebenfalls bei Zalando beschäftigten Calvin Seward, dass man bei einem datengetriebenen Projekt alle am Gesamtprozess Beteiligten frühzeitig einbeziehen muss. In seinem Vortrag stellte er auch eine humorvolle Typologie der üblichen Verdächtigen vor, die häufig für das Scheitern der digitalen Transformation von Unternehmen verantwortlich sind.

Wahren Keynote-Charakter hatte der Vortrag von Klaas Bollhöfer der Berliner Agentur Birds on Mars. Er stellte die Kooperation mit dem polnischen Künstler Roman Lipski vor, der sich durch die Ausgaben einer künstlichen Intelligenz in seinem Schaffen inspirieren lässt. Ein generatives Netzwerk erlernt den Stil des Künstlers und verändert diesen leicht. Neu geschaffene Werke füttert er in das Netzwerk zurück, und in diesem Kreislauf beeinflussen sich Künstler und Computer gegenseitig. Was als Kunstprojekt gedacht war, stellt gleichzeitig ein wichtiges Paradigma der Interaktion mit dem Computer dar: Die künstliche Intelligenz soll den Menschen nicht ersetzen, sondern ihn in seiner Wahrnehmung unterstützen. Bollhöfer sieht darin die Zukunft der Arbeit.

Neben den vielen strategischen und grundsätzlichen Vorträgen zum Machine Learning kam auch das Handwerkliche nicht zu kurz. Oliver Zeigermann, neuerdings auch O'Reilly-Autor, führte in zwei Vorträgen in die Grundbegriffe und Qualitätsmetriken ein. Lars Gregori von SAP Hybris zeigte in einem Vortrag, wie das CoreML-Framework von Apple es ermöglicht, mit wenig Aufwand ein mit Keras oder Scikit-Learn angelerntes Modell unter iOS für die Klassifikation zu benutzen. In einem weiteren Vortrag stellte er das von Microsoft freigegebene Project Malmö vor, mit dem Programmierer unter anderem die Spielfigur der Minecraft-Welt steuern und für das sogenannte Reinforcement Learning nutzen können, bei dem der Computer erst zur Laufzeit gute von schlechten Spielzügen zu unterscheiden lernt.

Angeregte Diskussionen gab es bei den Thementischen am ersten Abend.

Unterm Strich war die ausverkaufte Minds Mastering Machines eine durchaus erfolgreiche Konferenz, bei der von Neulingen bis zu routinierten ML-Anwendern jeder etwas mit nach Hause mitnehmen konnte. Die Mischung der Teilnehmer war gut und reichte von neugierigen Entwicklern bis zu erfahrenen Praktikern sowie von IT-Consultants zu Enterprise-Datenwissenschaftlern. Statt der hohlen Phrasen, die leider zu viele andere Veranstaltungen zum Thema Künstliche Intelligenz bieten, gab es handfeste Informationen und Lektionen für Entwickler und Data Scientists sowie Berichte über den praktischen Einsatz von KI. (rme)

Boris Adryan
ist promovierter Biologie und leitete von 2008 bis 2016 eine Forschungsgruppe für computergestützte Genomforschung an der University of Cambridge. Dort unterrichtete er auch Data Science und machinelles Lernen in einem interdisziplinären Studiengang. Seit 2016 ist Boris wieder in Deutschland und arbeitet nun im Chief Digital Office des Chemieunternehmens Merck.

(Veranstalter der Minds Mastering Machines sind heise Developer, iX und der dpunkt.verlag, die Teil der Heise Gruppe sind; Anm. d. Red.)