Menü

iOS 13: Mehr Siri für iOS-Apps – und weitere Entwicklerverbesserungen

Apple plant für die nächste Version seines Mobilbetriebssystems Verbesserungen für Entwickler. Die Sprachassistentin des Konzerns wird mehr Features abdecken.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 2 Beiträge

Apples Sprachassistentin Siri wird immer wieder dafür kritisiert, dass sie schlechter funktioniere als ihre Konkurrenten Google Assistant und Alexa von Amazon.

(Bild: dpa, Daniel Reinhardt)

Von

Apple hat Siri in den vergangenen Jahren nur schrittweise für die direkte Verwendung durch Entwickler geöffnet – so beherrscht die Sprachassistentin noch immer nicht alle Anwendungskategorien. Mit iOS 13 soll sich das einem iOS-Leak-Experten zufolge ändern. Es soll neue sogenannte Siri Intents geben, also Möglichkeiten für Anfragen, die über die Sprachassistentin an Apps herangetragen werden können

Wie der iOS-Entwickler Guilherme Rambo unter Berufung auf informierte Kreise schreibt, lässt sich Siri in iOS 13 nun dazu nutzen, eine Medienwiedergabe zu starten, Suchanfragen zu stellen, Sprachtelefonate über Apps einzuleiten, Tickets zu bestellen, Attachments an Nachrichten anzuhängen sowie Informationen zu Flügen, Abfluggates und Sitzplätzen zu erhalten. Teilweise sind solche Funktionen schon in iOS 12 implementiert, müssen allerdings über Umwege wie Siri Shortcuts aufgerufen werden.

In Sachen Augmented Reality (AR) plant Apple ebenfalls Verbesserungen. So soll es ein neues, komplett für Swift gedachtes Framework geben sowie eine neue Apple-Developer-App, mit der sich "AR-Erfahrungen visuell erstellen" lassen. ARKit soll menschliche Posen erkennen und Spielecontroller mit Touchpads sowie Stereo-AR-Headsets unterstützen.

Weiterhin arbeitet Apple offenbar an einer Öffnung der Taptic Engine. Mit dem Vibrationsmotor soll es künftig neue Feedback-Stile für Entwickler geben. Link-Vorschauen wie in der Nachrichten-App werden angeblich für Entwickler geöffnet. In Sachen NFC wird Apple iOS 13 stärker öffnen. Entwickler dürfen angeblich erstmals auch Karten in den Standards ISO7816, FeliCa oder MiFare auslesen – und nicht nur NDEF.

Rambo hat außerdem vernommen, dass Apple seine Machine-Learning-Engine CoreML um die Möglichkeit von On-Device-Updates ergänzen wird – Modelle sind damit nicht mehr statisch. Weiterhin soll es verschiedene neue APIs für Entwickler geben, die etwa den Abgleich von Notizen in der Notizen-App und den Zugriff auf externe Kameras und SD-Karten erlauben. (bsc)