AR-gestützte Grundlagen der Unity-Anwendung
Das EasyAR Sense Unity-Plugin bietet grundlegende Funktionen für die Entwicklung von AR-Anwendungen in Unity. Dieser Artikel führt in die Grundlagen und Komponenten ein, die für die AR-Entwicklung in Unity relevant sind.
Bevor Sie beginnen
- Verstehen Sie AR-gestütztes 3D-Rendering.
Grundlagen der Unity-AR-Anwendungsentwicklung
Zunächst müssen Sie wissen, welche Unity-Versionen und Plattformen mit EasyAR kompatibel sind:
In Unity folgt der typische Ablauf einer AR-Anwendung dem Muster allgemeiner AR-Anwendungen, wird jedoch durch die AR Session-Komponente verwaltet, die folgende Aufgaben übernimmt.
flowchart TD
subgraph AR
CameraDevice[Camera Device]
Tracker[Tracker]
Renderer[Renderer]
CameraDevice -->|Image Frame| Tracker
Tracker -->|Image Frame + Tracked Pose| Renderer
end
subgraph unity["Unity AR"]
B[Session]
C([Camera])
O([Origin])
T([Target])
B -- transform --> C
B -- transform --> O
B -- transform --> T
classDef Unity fill:#6e6ce6,stroke:#333,color:#fff
class B Unity
class C Unity
class O Unity
class T Unity
end
CameraDevice -..- B
Tracker -..- B
Renderer -..- C
Renderer -..- O
Renderer -..- T
Beginnen Sie mit diesen Grundkomponenten, um schrittweise die AR-Grundlagen in Unity zu verstehen:
Anschließend ist das Verständnis des Zentrumsmodus entscheidend, um zu verstehen, wie EasyAR das Verhalten von Unity-Komponenten steuert:
Falls Sie Erfahrung mit Unity-XR-Frameworks (z.B. AR Foundation) haben, könnten diese Themen relevant sein:
Nach der Entwicklung im Unity-Editor sollten Sie folgende Konfigurationen vor dem Build für Zielgeräte beachten:
Ein praktisches Workflow-Beispiel fasst die erlernten Grundlagen zusammen:
Nächste Schritte
Nachdem Sie die Grundlagen beherrschen, vertiefen Sie Ihr Wissen mit diesen Funktionen:
- Frame-Datenquellen (Frame Source)
- Nutzen Sie Unity-AR-Simulation während der Entwicklung
- Verwenden Sie Diagnosefunktionen im Entwicklungsprozess
Für Headset-Anwendungen benötigen Sie zusätzlich: