KI-Lernangebote für Einsteiger und Fortgeschrittene

KI-Lernangebote für Einsteiger und Fortgeschrittene

Wissen | Hintergrund

Nachvollziehen kann man in aller Regel nicht, wie etwa ein neuronales Netz eine Katze erkennt. Glücklicherweise geben viele gute Lernquellen im Netz Einblicke ins maschinelle Lernen.

Googles Teachable Machine erklärt die Funktionsweise von Machine Learning auf spielerische Weise, sodass auch Kinder sie nachvollziehen können. Gegebenenfalls muss ihnen allerdings ein Erwachsener die englischsprachigen Erklärungstexte übersetzen. Der Besucher benötigt nur einen Browser und eine Webcam. Mit deren Bildern lässt sich ein neuronales Netzwerk trainieren, drei verschiedene Gesten zu erkennen. Teachable Machine weist diesen Gesten drei Farben zu: grün, rosa und orange. Je nachdem, welche Geste es erkennt, gibt es unterschiedliche Bilder, Töne oder Sätze aus.

Um dem Netzwerk die erste Geste beizubringen, etwa eine grüßende Hand, führt man sie aus und drückt dabei den Knopf „Train Green“. Teachable Machine macht dabei eine Fotoserie. Das Netzwerk sollte mit mindestens 30 Fotos pro Farbe trainiert werden, empfiehlt das Tutorial.

Diesen Schritt wiederholt man jetzt mit den Gesten für die Farben rosa und orange. Anschließend zeigt das Netzwerk live an, welche Geste es momentan erkennt. Genauer gesagt, gibt es permanent für alle drei Farben aus, mit welcher Wahrscheinlichkeit es die jeweilige Geste im Bild erkennen – und für die mit der höchsten Wahrscheinlichkeit präsentiert es die Ausgabe.

Teachable Machine führt sehr gut vor Augen, wie deutlich voneinander abgegrenzte Eingabedaten die Erkennungsergebnisse verbessern und wie unerwartete Effekte die Ergebnisse verschlechtern können, etwa eine andere Beleuchtung als beim Training. Dass die Anwendung die Notebook-Kamera nutzt, ist übrigens unproblematisch: Sie läuft komplett im Browser und überträgt keine Bilder zu Google.

Tiefere Einblicke erlaubt A Neural Network Playground, mit dem der Besucher den gesamten Nutzungsprozess eines tiefen künstlichen neuronalen Netzwerks durchspielen kann – die Auswahl der einzelnen Neuronen, ihre Staffelung in verborgenen Schichten, das Training, die Ausgabe: Vielleicht der intuitivste Zugang, um zu erfahren, wie Deep Learning tickt.

Mit dem Baukasten lassen sich unter anderem Klassifikatoren bauen. Die Aufgabe dabei ist, Datenpunkte einer von zwei Mengen zuzuordnen. Das klingt komplizierter, als es ist. Der Spielplatz stellt Daten, Neuronen and Gewichte grafisch dar. So sieht man auf den ersten Blick, wie sich jedes Neuron und jede Verbindung auf das Gesamtnetz auswirkt – und zwar vor dem, beim und nach dem Lernen. Und dann kann man losexperimentieren: Das vorgegebene Netz will partout nicht eines der vorgegebenen Datensets erkennen? Dann kann man es mit neuen Netzwerkebenen und Neuronen ausstatten und es erneut versuchen. Die Netzwerktopologie ist übrigens in der URL enthalten. Wer eine schöne Lösung für ein Problem gefunden hat, kann sie also leicht weitergeben.

Das markante Gesicht dieser Katze hat beim Bildklassifikator offenbar den Ausschlag für die richtige Erkennung gegeben.

Normalerweise kann man nicht in ein neuronales Netzwerk hineinsehen wie beim Neural Network Playground – viele künstliche neuronale Netze sind Black Boxes, weil sie wesentlich komplexer sind. Dass man ihre Entscheidungen nicht nachvollziehen kann, ist aber ein Problem für viele Anwendungsfälle, etwa medizinische Diagnosen: Hier will man wissen, warum eine KI eine bestimmte Entscheidung getroffen hat.

Aus diesem Grund ist derzeit die sogenannte interpretierbare KI ein wichtiges Forschungsfeld. Hier sucht man nach Wegen, um die Entscheidungswege künstlicher Intelligenz transparent zu machen. Ein Verfahren dazu nennt sich Layer-Wise Relevance Propagation. Es durchläuft, stark vereinfacht, die Entscheidungsprozesse in neuronalen Netzen rückwärts.

Dabei wird nachvollziehbar, welcher Input welchen Einfluss auf das Ergebnis hat. Der Einfluss jedes Merkmals auf das Ergebnis lässt sich zum Beispiel durch Heatmaps visualisieren. Auf dem Server des Fraunhofer HHI kann man diese Methode mit Fotos, Texten und handschriftlichen Ziffern ausprobieren.

Auch die Forscher von Google und OpenAI lassen Sie in ihre Netzwerke hineinschauen. Dazu haben sie einen Weg gefunden, die in einem Bilderkenner-Netzwerk realisierten Konzepte zu visualisieren, also zum Beispiel: Was ist ein (idealtypisches) Radio? Dabei kommen sehenswerte Bilder-Matrizen heraus, sogenannte Activation Atlases.

Mit den Activation Atlases von Google und OpenAI kann man ein Stück weit in die Black Box „neuronales Netzwerk“ schauen.

Wer sich mit den vorgestellten drei Diensten einen intuitiven Zugang zum Deep Learning verschafft und Blut geleckt hat, will vielleicht tiefer in die Materie einsteigen und auch die mathematischen Grundlagen verstehen. Dazu ist das kostenlose Online-Buch Neural Networks and Deep Learning ein guter Startpunkt. Praktisch: Das erste Kapitel behandelt die Buchstabenerkennung ausführlich, um die es im folgenden Programmierartikel geht.

Es gibt auch zahlreiche Online-Kurse über das Thema Machine Learning. Sehr zu empfehlen ist der Kurs von Andrew Ng bei Coursera. Ng ist ein angesehener KI-Vorreiter und lehrt an der Universität Stanford. Der Kurs selbst ist kostenlos; wer ihn mit einem Zertifikat abschließen will, zahlt 71 Euro.

Viele, viele weitere Links auf Lernquellen zum Thema Deep Learning finden sich in der Sammlung Awesome Deep Learning Resources bei GitHub, die der Entwickler Guillaume Chevalier zusammengetragen hat. Bei learn anything sammeln die Besucher Lernquellen verschiedener Art, angefangen bei Wikipedia-Artikeln über freie Bücher bis zu Reddit-Threads oder Subreddits. (jo)


Dieser Artikel stammt aus c't 21/2019.

Kommentare