Machine Learning: TensorFlow-Benchmarks auf MacBooks mit M1 Pro und M1 Max

Die Apple-Chips M1 Pro und M1 Max mit ihren 16 beziehungsweise 32 GPU-Kernen bringen einen Leistungsschub für High-End-MacBooks. Das kann die Hardware.

Lesezeit: 14 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 5 Beiträge
Von
  • Ramon Wartala
Inhaltsverzeichnis

Seit Ende 2021 gibt es erste Macs, die statt Intels Core i5, i7 oder i9 Apples eigenes System-on-a-Chip (SoC) M1 nutzen. Nach MacBook Air und Mac mini ist der M1 nun auch auf MacBook Pro, iMac und dem iPad Pro angekommen. Der M1 basiert auf der ARM-Architektur und integriert CPU-Kerne für hohe Leistung mit entsprechend hoher Energieaufnahme, CPU-Kerne für sparsamen Stromverbrauch, GPU- sowie die als Neural Engines oder Neural Processing Units (NPU) bezeichneten Kerne für die schnelle Berechnung von Grafik- sowie Machine-Learning-Aufgaben. Nach dem M1 brachte Apple Ende Oktober 2021 mit dem M1 Pro und dem M1 Max zwei SoCs der gleichen Familie heraus, allerdings mit deutlich mehr Kernen. Hier sollen sie zeigen, unter welchen Bedingungen und mit welchem Tooling sie sich für Machine-Learning-Anwendungen einsetzen lassen und wie schnell sie im direkten Vergleich sind.

Mehr zum Thema Machine Learning

Der Ära des M1 ging bei Apple eine längere Stagnationsphase bei Grafikhardware voraus. Aufmerksame Beobachter vermuteten deshalb bereits, dass der Konzern an einer eigenen CPU arbeitet. Apples Kompromisse bekam nicht nur die Gaming-Branche zu spüren, die auf dem Mac keine standardisierte Hardware nutzen konnte. Auch andere Branchen mit höheren Anforderungen an die Berechnungsgeschwindigkeit großer Zahlenmengen wurden dadurch über Jahre in ihrer Entwicklung gehemmt und wechselten auf andere Systeme.

Die auf wissenschaftliche Berechnungen und Machine-Learning-Anwendungen spezialisierten Nvidia-GPUs blieben den Mac-Nutzern verwehrt. Externe Lösungen wie die Thunderbolt 3 Enclosure (eGPUs), zum Beispiel von Herstellern wie Sonnet, Blackmagic oder Gigabyte, wurden nur unzureichend mit Treibern versorgt. Zumindest für CAD und Spiele konnten diese Lösungen ab macOS High Sierra (10.13) mit Radeon-RX-Grafikkarten von AMD genutzt werden, aber CUDA-optimierte Machine Learning Frameworks wurden hier nahezu vollständig ausgesperrt.

Immer mehr Wissen. Das digitale Abo für IT und Technik.

  • Zugriff auf alle Inhalte von heise+
  • exklusive Tests, Ratgeber & Hintergründe: unabhängig, kritisch fundiert
  • c't, iX, MIT Technology Review, Mac & i, Make, c't Fotografie direkt im Browser lesen
  • einmal anmelden – auf allen Geräten lesen - monatlich kündbar
  • erster Monat gratis, danach monatlich ab 9,95 €
  • Wöchentlicher Newsletter mit persönlichen Leseempfehlungen des Chefredakteurs
GRATIS-Monat beginnen Jetzt GRATIS-Monat beginnen Mehr Informationen zu heise+