Menü

Apple stellt ARKit 3, Core ML 3 und weitere Entwickler-Tools vor

Wie in den Vorjahren legt Apple bei der WWDC bei seinen Entwicklerwerkzeugen einen Schwerpunkt auf Augmented Reality und Machine Learning.

Lesezeit: 1 Min.
In Pocket  speichern vorlesen Drucken Kommentare lesen 1 Beitrag

(Bild: dpa, Shawn Thew)

Developer
Von

Die wichtigste News für Entwickler auf Apples Entwicklerkonferenz WWDC ist vermutlich das GUI-Framework SwiftUI, aber auch andere Neuerungen sind dieser Tage ein Thema im kalifornischen San Jose. So gibt Apple unter anderem einen Einblick in ARKit 3, Core ML 3 und Create ML. Außerdem legt die nun als Beta vorliegende Version 11 der Entwicklungsumgebung Xcode die Grundlage für das Entwickeln von Anwendungen mit den neuen Frameworks.

Apple WWDC 2019

mehr anzeigen

Die neueste Ausgabe von ARKit, Apples Software Development Kit für Augmented-Reality-Anwendungen enthält unter anderem ein Motion-Capture-Feature, das Entwicklern hilft, die Bewegung von Menschen in Apps zu integrieren, sowie eine People-Occlusion-Funktion. Mit letzterer werden AR-Inhalte vor oder hinter Menschen erscheinen, um immersivere AR-Erlebnisse und Greenscreen-ähnliche Anwendungen zu ermöglichen.

RealityKit und Minecraft Earth - Live-Demo (WWDC 2019) (Quelle: Apple)

Zwei weitere AR-Werkzeuge sind Reality Composer und RealityKit. Reality Composer wird als App für iOS und Mac beschrieben, die außerdem in Xcode integriert ist. Sie soll es einfach machen, interaktive Augmented-Reality-Erlebnisse ohne vorherige 3D-Erfahrung zu erstellen. RealityKit wiederum ist ein High-Level-Framework mit fotorealistischem Rendering, Kameraeffekten, Animationen und physikalischen Features, das speziell für Augmented-Reality-Szenarien entwickelt wurde. Es umfasst des Weiteren eine Swift-API und integriert sich mit ARKit.

Spielten Ankündigungen zu früheren ARKit-Versionen schon bei den beiden letzten WWDC-Ausgaben eine Rolle, gilt das auch für das Machine-Learning-Framework Core ML, mit dem iOS-Entwickler Machine-Learning-Anwendungen können. Die nun vorgestellte Version 3 ist die erste, die Trainings für maschinelles Lernen auf dem Gerät bietet, um personalisierte Erfahrungen mit iOS-Apps zu ermöglichen. Mehrere Modelle mit unterschiedlichen Datensätzen zu trainieren, wird auch ein Feature der neuen Create-ML-App auf macOS für Anwendungen wie Objekt- und Geräuscherkennung sein. Mit der App sollen Entwickler Machine-Learning-Modelle erstellen können, ohne Code anfassen zu müssen.

Tools und Programmiersprachen auf der heise MacDev

Apples Entwicklerwerkzeuge, aber auch die Programmiersprache Swift werden einen großen Rahmen auf der neuen Entwicklerkonferenz heise MacDev einnehmen, die von 3. bis 5. Dezember 2019 in Karlsruhe stattfindet. Bis 21. Juni kann man sich noch mit Vorträgen und Workshops für die Konferenz bewerben, aus denen die Ausrichter – Mac & i, heise Developer und dpunkt.verlag – dann das Programm zusammenstellen.

mehr anzeigen

Multi-Model-Training mit verschiedenen Datensätzen kann mit neuen Modelltypen wie Objekterkennung, Aktivität und Klassifizierung verwendet werden.Mit über 100 Modellschichten, die jetzt Core ML unterstützt, bietet Apple ein breites Spektrum an Machine-Learning-Szenarien, die Bereiche wie Computer Vision und Natural Language Processing umfassen.

Eine kleinere Neuerungen ist, dass Entwickler mit dem PencilKit Unterstützung für Apple Pencil zu ihren Apps hinzuzufügen können. Es enthält außerdem eine neu gestaltete Tool-Palette. Eine weitere ist, dass MapKit nun neue Funktionen wie Vektor-Overlays, Point-of-Interest-Filterung, Kamera-Zoom und Schwenkbeschränkungen sowie Unterstützung für den Dark Mode bietet. (ane)