Das kommende Apple AR-Headset, auch bekannt als Apple Glass, soll offenbar in der Lage sein, Handgesten zu verfolgen und zu erkennen.

Das ist die Behauptung von Ming-Chi Kuo, etablierter Analyst und Allrounder für informierte Apple-Lieferkettengerüchte. In seinem neuesten Research Note für Investoren (via MacRumors) hat Kuo enthüllt, dass das AR-Headset von Apple 3D-Sensormodule enthalten wird, um Positionsänderungen und sogar Handgesten aufzunehmen.

Kuo zieht die Parallele zu Apples Face-ID-Sensortechnologie, die bereits in der Lage ist, relativ subtile Veränderungen Ihrer Mimik zu erkennen, wie jeder, der schon einmal fünf Minuten damit verbracht hat, mit einem Einhorn zu zwinkern, bezeugen wird.

Diese VR-Implementierung würde vier Sätze von 3D-Sensoren beinhalten, die noch höherwertiger sind als diese Face ID-Sensoren. Der Analyst erwähnt, dass Apple die Technologie verwendet, um „eine intuitivere und lebendigere Mensch-Maschine-Benutzeroberfläche“ bereitzustellen. Diese Schnittstelle könnte Sie zum Beispiel sehen, wie Sie einen virtuellen Ballon loslassen, indem Sie Ihre Faust lösen.

Neben der Gestensteuerung wird die umfangreiche Palette hochentwickelter Sensoren von Apple AR offenbar Objekterkennung, Eyetracking, Iriserkennung, Sprachsteuerung, Hauterkennung, Gesichtserkennung und räumliche Erkennung ermöglichen.

Apple arbeitet seit einiger Zeit an der Objekterkennung. 2017 stellte Apple mit ARKit ein neues Entwicklertool zum Erstellen von Augmented-Reality-Apps und -Spielen vor. Es hilft, die Kameras und Sensoren eines iPhones zu nutzen, um Bewegungen zu verfolgen und 3D-Modelle mit unheimlicher Genauigkeit in der realen Welt zu platzieren.

Jüngsten Berichten zufolge versucht Apple bereits, sein erstes AR-Headset mit einem leichteren und schnelleren Gerät für 2024 zu verfeinern.