Menü

Machine Learning: PyTorch 1.3 setzt auf Mobilgeräte

Die neue Version von Facebooks Machine-Learning-Framework PyTorch ermöglicht das Zusammenspiel mit iOS- und Android-Geräten.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 1 Beitrag

(Bild: Machine Learning & Artificial Intelligence / Mike MacKenzie / cc-by-2.0))

Von

Facebook hat Version 1.3 des Machine-Learning-Frameworks PyTorch veröffentlicht. Im Zentrum des neuen Releases stehen drei Features, die alle noch einen experimentellen Status innehaben: benannte Tensoren (Namend Tensors), Quantisierung in Form eines 8-Bit-Modells sowie Support für iOS- sowie Android-Geräte. Damit können Machine-Learning-Experten das Framework nun im mobilen Sektor einsetzen. TensorFlow-Nutzer kennen diese Funktionen wahrscheinlich vom eigens dafür abgespaltenen Framework TensorFlow Lite.

In einem Blogbeitrag erklärt das PyTorch-Team, dass das Ausführen von Machine Learning auf Edge-Geräten wohl an immer größerer Relevanz gewinnt und Applikationen hierfür eine immer geringere Latenz erwarten. Um ein effizienteres Machine Learning auf Geräten zu ermöglichen, unterstützt PyTorch 1.3 deshalb nun einen vollständigen Workflow für mobile Geräte – von Python bis zum endgültigen Deployment auf iOS und Android.

Dafür haben die Entwickler Optimierungen auf dem Build-Level vorgenommen und eine konfigurierbare Sammlung an Operatoren ermöglicht, sodass Nutzer die Binary-Größe im Zusammenhang mit den benötigten Operatoren konfigurieren können. Außerdem haben sie wohl an der Performance für mobile CPUs und GPUs geschraubt und die nativen Mobile-APIs dahingehend ergänzt, dass sie nun häufig vorkommende Aufgaben zur Integration von Machine Learning in mobile Applikationen umfassen.

Alexander Rush von der Cornell University hat argumentiert, dass die traditionelle Implementierung von Tensoren erhebliche Mängel aufweist, wie das Freilegen privater Dimensionen, die Übertragung basierend auf der absoluten Position und die Aufbewahrung von Typinformationen in der Dokumentation. Er schlug als alternativen Ansatz vor, Named Tensors zu verwenden, was nun als experimentelles Feature in PyTorch möglich ist.

Ebenfalls neu ist der Support für ein 8-Bit-Quantisierungsmodell, mit dem Entwickler Computation- und Storage-Vorgänge mit einer reduzierten Präzision ausführen können. Dadurch sollen Deployments auf Server und Edge-Geräten effizienter ausführbar sein. Dieses derzeit experimentelle Feature beinhaltet die Unterstützung für die Quantisierung nach dem Training, die dynamische Quantisierung und das quantisierungsorientierte Training.

Eine vollständige Liste aller Neuerungen inklusive Breaking Changes finden sich in den Release Notes auf GitHub. (bbo)