Zaawansowany AR/VR zestaw Vision Pro firmy Apple: Wszystko, co musisz wiedzieć o czujnikach

Die Welt ist derzeit fasziniert von Apples neuem, revolutionärem Vision Pro AR/VR Kit, das wie ein Gerät aus der Zukunft aussieht, aber auch wie gewöhnliche Skibrillen aus den 90er Jahren. Dabei ist das äußere Erscheinungsbild beim Vision Pro nicht der wichtigste Aspekt – es kommt darauf an, was innen geschieht. Die enthaltenen Sensoren ermöglichen den Beginn der räumlichen Computernutzung und sollen hoffentlich das aktuelle Spielerlebnis transformieren.

Um zu verstehen, wie Vision Pro funktioniert und was es erreichen kann, werfen wir einen Blick auf die Details seiner Technologie.

Erstens werfen wir einen Blick auf die Kameras:

Auf der Außenseite des Geräts befinden sich zwei hochauflösende Hauptkameras und sechs Weltverfolgungskameras. Diese Kameras erfassen die Umgebung stereoskopisch in 3D. Wenn Sie mit Vision Pro vertraut sind, wissen Sie wahrscheinlich, dass Sie Fotos machen und Videos von dem aufnehmen können, was Sie betrachten. Dafür sind die Hauptkameras da. Die Hauptoberfläche von Vision Pro, namens Home View, kann über Ihre Anwendungen und Erfahrungen aufgerufen werden und wird durch Augenbewegungen und Handgesten gesteuert. Schauen Sie einfach auf ein Symbol und tippen Sie mit den Fingern darauf, um es auszuwählen. Aus diesem Grund gibt es so viele Weltverfolgungskameras, die auf die äußere Welt gerichtet sind. Sie ermöglichen es Vision Pro, selbst kleinste Bewegungen Ihrer Finger zu erkennen. Mit ihrer Hilfe können Sie beispielsweise durch Betrachten einer Bildecke hineinzoomen und sie mit Ihren Fingern ziehen – eine kleine Handbewegung, die Vision Pro mithilfe der sechs Verfolgungskameras erkennen kann.

Lassen Sie uns nun einen Blick ins Innere des Geräts werfen:

Die Augenverfolgung (nicht EyeSight, es handelt sich um etwas anderes) ist entscheidend für Vision Pro. Sie muss in der Lage sein, Augenbewegungen innerhalb des Kits zu unterscheiden, und dies ist dank vier internen Infrarot-Verfolgungskameras möglich, die jede Augenbewegung erfassen. Mit diesen vier Kameras wird ein Symbol in der Home View-Oberfläche einfach durch Betrachten ausgewählt. Aber Vision Pro enthält auch eine weitere interne Kamera, nämlich die TrueDepth-Kamera, die eine Benutzerauthentifizierung ermöglicht. TrueDepth-Kameras wurden erstmals in iPhones für die Face ID-Technologie eingeführt und umfassen die modernsten Komponenten und Software, die von Apple entwickelt wurden, um präzise Gesichtsdaten zu erfassen. Tausende unsichtbare Punkte werden auf Ihr Gesicht projiziert, um eine Tiefenkarte zu erstellen, und Infrarotbilder werden ebenfalls aufgenommen. Wir wissen nicht genau, ob Vision Pro im gesamten Gesicht oder nur im Bereich der Augen arbeitet, aber es nutzt definitiv die TrueDepth-Technologie, um seine Ziele zu erreichen.

Nun widmen wir uns den verfügbaren LiDAR-Scannern:

LiDAR ist eine weitere Technologie, die Apple bereits in seinen Spitzen-iPhones und iPads verwendet hat. LiDAR steht für „Light Detection and Ranging“ und ist ein Gerät, das einen Laserstrahl aussendet und so eine präzise Messung der Entfernungen zu umgebenden Objekten ermöglicht. Apple behauptet, dass das iPhone mit dem LiDAR-Scanner in der Lage ist, bessere Fotos bei schlechten Lichtverhältnissen aufzunehmen und der Kamera bei schnellerem Autofokus zu helfen, um keinen perfekten Moment zu verpassen. Sie müssen nichts dafür tun – zeigen Sie einfach die Kamera in die Dunkelheit und machen Sie ein Foto. Apple hat auch eine kostenlose Measure-App, die den LiDAR-Scanner für die Abstandsmessung nutzt. Wofür wird der LiDAR-Scanner in Vision Pro eingesetzt? Nun, Vision Pro verwendet die Umgebung, um seinen Hauptbildschirm zu platzieren. Daher muss es wissen, wie nahe Sie an Wänden und Möbeln sind. Dies wird mit dem im Vision Pro Kit enthaltenen LiDAR-Scanner ermöglicht.

Vier interne Messgeräte:

Interne Messgeräte (IMU) werden normalerweise in Drohnen verwendet. Es sind Geräte, die Informationen von Sensoren wie Gyroskopen und Beschleunigungsmessern liefern, um Daten über Beschleunigung und Ausrichtung zu liefern und Messungen von Neigung, Rollen und Gieren zu ermöglichen. Sie können auch verwendet werden, um Position und Geschwindigkeit zu berechnen. Vision Pro verwendet IMUs, um seine Position im Raum zu erfassen, da von den Benutzern nicht erwartet werden kann, dass sie an einem Ort stehen bleiben, während sie Augmented Reality erleben.

Flicker-Sensor:

Der Flicker-Sensor wurde von Apple mit dem iPhone 7 eingeführt. Er erkennt künstliches Lichtflackern und kompensiert es beim Aufnehmen von Fotos und Videos. Da Vision Pro hauptsächlich in Innenräumen mit künstlicher Beleuchtung verwendet wird, ist es sinnvoll, dass Apple ihn eingeführt hat, um sicherzustellen, dass die über das Vision Pro Kit übertragenen Bilder aufgrund künstlichen Lichts nicht flackern.

Umgebungshelligkeitssensor:

Der letzte Sensor im Apple Vision Pro Kit ist der Umgebungshelligkeitssensor. Dieser Sensor passt die Helligkeit des Displays an die Umgebung an. Er kann in verschiedenen Apple-Produkten wie der Apple Watch oder iOS-Geräten gefunden werden, aber seine bekannteste Anwendung besteht darin, die Tastatur des MacBooks bei schlechten Lichtverhältnissen zu beleuchten. Vision Pro wird offensichtlich einen solchen Sensor benötigen, da es wissen muss, wie hell das Display je nach Tageslicht oder dunklen Bedingungen sein sollte.

Mikrofone?

Zu guter Letzt betrachten wir die Mikrofone. Obwohl Apple schweigsam ist über den Zweck der sechs Mikrofone im Vision Pro Kit, kann man spekulieren, dass sie einen Zweck jenseits von nur Sprachbefehlen erfüllen und fast wie Sensoren wirken. Wahrscheinlich führen sie eine akustische Abtastung des Raums durch, um die Illusion der erweiterten Realität zu erzeugen und den Klang an Ort und Stelle zu halten, während Sie den Kopf drehen.

Wir werden diesen Abschnitt und den Rest des Artikels mit Informationen über Vision Pro Sensoren aktualisieren, sobald wir mehr erfahren.

FAQ-Sektion basierend auf den Hauptthemen im Artikel:

1. Welche Kameras enthält das Vision Pro Kit von Apple?
– Das Vision Pro Kit enthält zwei hochauflösende Hauptkameras und sechs Weltverfolgungskameras.

2. Wie funktioniert die Augenverfolgung beim Vision Pro Kit?
– Die Augenverfolgung im Vision Pro Kit wird durch vier interne Infrarot-Verfolgungskameras ermöglicht.

3. Was ist LiDAR und wofür wird es verwendet?
– LiDAR steht für „Light Detection and Ranging“ und wird im Vision Pro Kit verwendet, um die Entfernungen zu umgebenden Objekten zu messen und den Hauptbildschirm entsprechend zu platzieren.

4. Welche Rolle spielen die internen Messgeräte (IMU) im Vision Pro Kit?
– Die internen Messgeräte (IMU) im Vision Pro Kit erfassen die Position des Geräts im Raum, um eine interaktive Augmented Reality-Erfahrung zu ermöglichen.

5. Welche Funktionen erfüllen der Flicker-Sensor und der Umgebungshelligkeitssensor im Vision Pro Kit?
– Der Flicker-Sensor kompensiert künstliches Lichtflackern, während der Umgebungshelligkeitssensor die Displayhelligkeit entsprechend der Umgebung anpasst.

Quelle: [Quellenangabe einfügen, wenn vorhanden]