Menü
Mac & i

Ex-Apple-Entwickler schafft neuartige Nutzeroberfläche

Mit dem "Project Erasmus" hat der Ex-iPhone-Ingenieur Bob Burrough eine 3D-UI geschaffen, die sich an das Umgebungslicht anpasst.

Von
vorlesen Drucken Kommentare lesen 123 Beiträge
Apple-Entwickler schafft neuartige Nutzeroberfläche

Noch benötigt "Project Erasmus" eine kleine Hardware-Anpassung.

(Bild: Screenshot YouTube)

Er gehörte einst zu den Topentwicklern bei Apple – sieben Jahre lang kümmerte er sich unter anderem um das iPad- und iPhone-Betriebssystem: Bob Burrough hat sich mit neuen User-Interface-Ideen zurückgemeldet. Mit dem sogenannten Project Erasmus will der Ex-Software-Development-Manager in Cupertino Smartphone-Oberflächen revolutionieren.

Software mit Fischauge

Die Idee dabei ist simpel (siehe Video): Die komplette Nutzerschnittstelle soll auf Licht und Schatten in der Umgebung reagieren und sich dadurch deutlich realistischer anfühlen. Ein Demonstrationsvideo zeigt, wie das praktisch gehen soll: Hält man das iPhone beispielsweise unter eine Lampe, passen sich Schatten und Beleuchtung der Bedienoberfläche daran an.

Das Video demonstriert die Auswirkungen der Lichtverhältnisse auf die Benutzeroberfläche. (Quelle: Bob Burrough)

Neben der Project-Erasmus-Software verwendet Burrough nur ein weiteres Hardware-Element: Der Frontkamera des iPhone hat er ein Weitwinkelobjektiv von Olloclip (bzw. Fischauge) spendiert, damit sie ein genaueres Abbild der Umgebung einfangen kann. Ein Echtzeit-Rendering sorgt dann dafür, dass die UI-Elemente auf dem Bildschirm wie physische Objekte wirken.

Bislang nur ein Proof of Concept

In seinem Demovideo läuft Burrough durch Räume seines Hauses mit unterschiedlicher Beleuchtung und zeigt die dynamische Anpassung der Oberfläche, deren Schalter und Texturen natürliche Schatten und Lichtbereiche und Highlights zeigen. Ist das Gerät ganz im Dunkeln, wird natürlich auch die Oberfläche dunkel – was nutzungstechnisch eher unsinnvoll ist.

Noch ist Project Erasmus in einem frühen Entwicklungsstadium beziehungsweise ein Konzeptbereich – was Burrough damit künftig vorhat, ist unklar. Auch müssten Anpassungen vorgenommen werden, damit der Code auch mit der gewöhnlichen Selfie-Kamera des iPhone läuft. Alternativ könnte zur Raumerfassung auch der Face-ID-Gesichtserkennungssensor (True Depth) in neueren iPhone-Modellen verwendet werden, der über eine 3D-Sensorik verfügt.

(bsc)