Deep Learning: Microsofts Computational Network Toolkit wandert nach GitHub

Neue Heimat und neue Lizenz: Mit dem Wechsel zu GitHub und zur MIT-Lizenz will Microsoft eine größere Verbreitung des eigenen Deep Learning Toolkit erreichen.

 –  9 Kommentare
Deep Learning: Microsofts Computational Network Toolkit wandert nach GitHub

Microsoft hat das Computational Network Toolkit (CNTK) von der eigenen Hosting-Website CodePlex nach GitHub migriert. Im Zuge des Wechsels wurde auch die Lizenz des Deep Learning Toolkit geändert, und zwar von der Microsoft Research License zur freien MIT-Lizenz. Durch den Lizenzwechsel ist es nun für Entwickler einfacher, die Software zur Entwicklung eigener Deep-Learning-Anwendungen einzusetzen, da die Microsoft Research License sich primär an akademische Einrichtungen richtete. Auf CodePlex war das Projekt seit April 2015 gehostet.

CNTK wird als vereinheitlichtes Deep-Learning-Toolkit mit Fokus auf Performance-Aspekten beschrieben, das neuronale Netze als eine Reihe von Rechenschritten über einen gerichteten Graphen beschreibt. Bei Microsoft ist das Toolkit wohl in der Spracherkennung von Produkten wie Cortana zum Einsatz gekommen. Bei diesen Einsatzszenarien setzte Microsoft offenbar GPUs und Nvidias GPU-Computing-Framework CUDA ein. CNTK sei aber nicht auf diesen Bereich der künstlichen Intelligenz beschränkt, heißt es in Microsofts Next-Blog, sondern könne ebenso bei Unternehmen gute Dienste leisten, die große Datenmengen in Echtzeit verarbeiten müssen.

Mit dem Toolkit konkurriert Microsoft mit vergleichbaren Projekten wie Theano, Googles kürzlich vorgestelltem TensorFlow, Torch 7 und Caffe. Im Vergleich soll es gar schneller als die Konkurrenten sein.

Das Projekt ist nicht das erste aus dem Umfeld des Machine Learning, das Microsoft auf GitHub zur Verfügung stellt. So gibt es hier das sogenannte Distributed Machine Learning Toolkit seit Mitte November 2015. Dahinter steht ein parametrisierbares Framework mit zahlreichen Programmierschnittstellen, die Entwicklern dabei helfen sollen, sich auf das Wesentliche in diesem Umfeld – Datenmodelle und Training – zu konzentrieren. Zu den Schlüsselkomponenten gehören der Parameter-Server (DMTK-Framework), ein Algorithmus zum Trainieren der Modelle (LightLDA) sowie ein Werkzeug zum Verarbeiten natürlicher Sprache (Distributed Word Embedding).

Die Idee von Machine Learning und insbesondere Deep Learning ist, dass man Software schreibt, die lernt, wie man ein Problem löst, anstelle ein Programm zu schreiben, das das Problem löst. Die Entwicklung immer leistungsfähigerer Programme, die aus Beispielen lernen und das Gelernte verallgemeinert, ist die Grundlage der immensen Verbesserungen bei der Bild- und Spracherkennung, wie sie Google, Facebook und Co. heutzutage routinemäßig einsetzen. (ane)