Apple Vision Pro: Neue Infos zu Entwicklerwerkzeugen, Umgebungen und visueller Suche

visionOS Software Development Kit (SDK) von Apple vorgestellt

Apple hat gestern die Verfügbarkeit neuer Softwarewerkzeuge und Technologien bekannt gegeben, mit denen Entwickler und Entwicklerinnen App-Erlebnisse für die Apple Vision Pro erschaffen können. Mit visionOS, dem weltweit ersten räumlichen Betriebssystem, ermöglicht es die Vision Pro, mit digitalen Inhalten auf eine Art zu interagieren, die so wirkt, als seien die Inhalte physisch im Raum vorhanden.

„Ab heute kann die weltweite Apple Entwicklercommunity eine komplett neue Klasse dreidimensionaler Apps entwickeln, die die unbegrenzte Bildschirmfläche der Vision Pro voll ausnutzen und digitale Inhalte nahtlos mit der physischen Welt verschmelzen, um außergewöhnliche neue Erfahrungen zu ermöglichen. Mit dem visionOS SDK können Entwickler:innen die leistungsstarken und einzigartigen Fähigkeiten der Vision Pro und von visionOS voll ausschöpfen, um komplett neue Erlebnisse mit Apps in einer Vielzahl von Kategorien wie Produktivität, Design, Spiele und mehr zu entwickeln.“

So berichtet Apple in einer Mitteilung an uns. Der Konzern wird nächsten Monat Developer Labs in Cupertino, London, München, Shanghai, Singapur und Tokio eröffnen, um Entwicklern und Entwicklerinnen die Möglichkeit zu geben, Apps auf Apple Vision Pro Hardware zu testen und Unterstützung vom Apple-Ingenieurteam zu erhalten. Entwicklerteams können sich zusätzlich für Entwickler-Kits registrieren, die dabei helfen, Apps schnell zu entwickeln, zu verbessern und direkt auf der Apple Vision Pro zu testen.


Auf diese Weise sollen neue Erlebnisse erschaffen werden, die die Funktionen der Apple Vision Pro nutzen, indem man die gleichen grundlegenden Frameworks verwendet, die man bereits von anderen Apple Plattformen kennt, darunter Technologien wie Xcode, SwiftUI, RealityKit, ARKit und TestFlight. Diese Werkzeuge versetzen Entwickler und Entwicklerinnen in die Lage, völlig neue Arten von Apps zu erstellen, die ein ganzes Spektrum an immersiven Möglichkeiten umfassen. Dazu gehören Fenster, die eine räumliche Tiefendimension haben und 3D-Inhalte darstellen können, Inhalte, die Erlebnisse schaffen, die aus jedem Winkel betrachtet werden können und Räume, die die User vollständig in eine Umgebung mit unbegrenzten 3D-Inhalten eintauchen lassen.

Außerdem kann mit Apps im neuen visionOS Simulator interagiert werden, um verschiedene Aufteilungen im Raum und Lichtverhältnisse zu erkunden und zu testen. Jedes Entwickler-Framework verfügt über integrierte Unterstützung für die Bedienungshilfen von Apple, um sicherzustellen, dass räumliches Computing und visionOS Apps für alle zugänglich sind. Ab dem nächsten Monat können Entwicklerteams, die 3D-Apps und Spiele mit den Authoring Tools von Unity entwickelt haben, ihre Unity-Apps auf die Apple Vision Pro portieren und die leistungsstarken Funktionen voll ausschöpfen.

„Visual Search“ kann übersetzen und Texte kopieren

Darüber hinaus sind weitere Features für die Apple Vision Pro bekanntgeworden. So soll das Betriebssystem visionOS des Mixed-Reality-Headsets auch über eine Funktion namens „Visual Search“ („Visuelle Suche“) verfügen, die ähnlich wie die Visual Lookup-Option auf dem iPhone und iPad klingt. Mit der visuellen Suche können User das Vision Pro-Headset verwenden, um Informationen über einen Gegenstand zu erhalten, Text in der Welt um sie herum zu erkennen und mit ihm zu interagieren, gedruckten Text aus der realen Welt in Anwendungen zu kopieren und einzufügen, Text zwischen 17 verschiedenen Sprachen zu übersetzen und vieles mehr.

Text aus der realen Welt, der Kontaktinformationen, Webseiten, Einheitenumrechnungen und ähnliche Informationen enthält, kann in visionOS verarbeitet werden. Wenn zum Beispiel ein gedrucktes Handout einen Link zu einer Website enthält, lässt sich der Link mit dem Vision Pro scannen und ein Safari-Fenster öffnen, um die Website anzuzeigen. Oder wenn in einem Rezept Unzen angegeben sind, man aber Gramm benötigt, kann man die Einheit über das Headset umrechnen. Die Visual Search-Funktion wurde von Steve Moser in visionOS gefunden und kann über die aktuellste Xcode-Betaversion genutzt werden, die Apple gestern veröffentlicht hat.

visionOS verfügt über 13 virtuelle Umgebungen

Das Vision Pro-Headset bietet die Möglichkeit, eine Umgebung zu aktivieren, mit der man die Welt um sich herum ausblenden und entspannen kann. Apple hat in der Vergangenheit bereits Mount Hood als eine Szene genannt, die man besuchen und als Hintergrund verwenden kann. Aber es gibt noch zwölf weitere Umgebungen in visionOS zu entdecken:

  • Haleakala
  • Yosemite
  • Sky
  • Joshua Tree
  • Lake Vrangla
  • Mount Hood
  • The Moon
  • Beach
  • White Sands
  • Winter Light
  • Fall Light
  • Summer Light
  • Spring Light

Vision Pro-User können eine virtuelle Umgebung betreten, indem sie die Digital Crown drehen, um die reale Welt auszublenden. Umgebungen können als Hintergrund für das Ansehen von Filmen, die Nutzung von Apps, das Tätigen von Anrufen und mehr verwendet werden. Auch diese Szenen wurden vom Entwickler und Redakteur Steve Moser entdeckt.

Hinweis: Dieser Artikel enthält Affiliate-Links. Bei Käufen über diese Links erhalten wir eine Provision, mit dem wir diesen Blog finanzieren. Der Kaufpreis bleibt für euch unverändert.

Anzeige

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Copyright © 2024 appgefahren.de