Menü
Developer

Nvidia veröffentlicht Code für beschleunigtes maschinelles Lernen

Nvidia nutzt die Computer Vision and Pattern Recognition Conference zur Veröffentlichung mehrerer Machine-Learning-Projekte.

vorlesen Drucken Kommentare lesen

Nvidia hat auf der Computer Vision and Pattern Recognition Conference in Salt Lake City eine Reihe von Ankündigungen zu Machine-Learning-Software bekanntgegeben. So handelt es sich bei Apex um eine Open-Source-Erweiterung von Facebooks Deep-Learning-Framework PyTorch, mit der Benutzer die Leistung der Trainingsmodelle auf Nvidias Volta-GPUs maximieren können sollen.

Das als Technical Preview vorliegende Apex ist für das Mixed-Precision-Training in translationalen Netzen, Sentimentanalysen und die Bildklassifizierung gedacht. Die Nvidia-Entwickler haben im Zuge des Apex-Projekts Tools entwickelt, die diese Aufgaben unterschiedlichen PyTorch-Benutzern nahebringen sollen. Die Mixed-Precision-Tools wurden beispielsweise entwickelt, um die Trainingsgeschwindigkeit zu verbessern und gleichzeitig die Genauigkeit und Stabilität der Trainings zu gewährleisten. So bietet Apex die automatische Ausführung in FP16- oder FP32-Berechnungen, die automatische Verarbeitung von Master-Parameterkonvertierungen und die automatische Verlustskalierung, die alle mit wenigen Zeilenänderungen am vorhandenen Code verfügbar sind. Die Installation von Apex erfordert CUDA 9, PyTorch 0.4 oder höher und Python 3.

Mit der Open-Source-Bibliothek DALI (Data Loading Library) sollen Forscher Daten-Pipelines um 15 oder mehr Prozent beschleunigen können – unter Zuhilfenahme von GPUs. Darüber hinaus lassen sich damit wohl Leistungsengpässe in Computer-Vision-Anwendungen beheben, die komplexe, mehrstufige Schritte zur Datenerweiterung umfassen. Mit DALI können Deep-Learning-Experten die Trainingsleistung auf Bildklassifizierungsmodelle wie ResNet-50 mit MXNet, TensorFlow und PyTorch über P3-8-GPU-Instanzen oder DGX-1-Systeme mit Volta-GPUs auf Amazon Web Services skalieren.

Dann ist jetzt Nvidias programmierbarer Inferenzbeschleuniger TensorRT 4 allgemein verfügbar. Er beschleunigt Lerninterferenzen wie die Übersetzung von neuronalen Maschinen, Empfehlungssystemen, Sprach- und Bildverarbeitungsanwendungen auf GPUs. TensorRT 4 steht allen Mitgliedern des Nvidia Registered Developer Program auf der TensorRT-Produktseite als kostenloser Download zur Verfügung.

Schließlich ist die Software zur Nutzung der Container-Orchestrierungssoftware Kubernetes auf Nvidia-GPUs auf Nvidias GitHub-Seite zur Verfügung. Mit der Kubernetes-Version können Unternehmen Trainings und Inferenzimplementierungen für Multi-Cloud-GPU-Cluster erweitern. Und sie können die Bereitstellung, Wartung, Planung und den Betrieb mehrerer GPU-beschleunigter Anwendungscontainer über Knotencluster hinweg automatisieren. Das Angebot hat derzeit den Status eines Release Candidate.

Im Video präsentiert Virag Chavan von Nvidia den Weg zur GPU als Service in Kubernetes.

(ane)