EasyAR 헤드셋 및 안경 지원
EasyAR SDK는 강력한 크로스 플랫폼 AR 기능을 제공하며, 그 설계 철학은 헤드셋(Headset)이라는 새로운 공간 컴퓨팅 장치에도 동일하게 적용됩니다. 이 글에서는 EasyAR가 헤드셋 장치를 어떻게 지원하는지, 그리고 개발자가 이러한 기능을 활용하여 몰입형 경험을 구축하는 방법을 소개합니다.
용어 설명
이 문서에서 "헤드셋" 또는 "Headset"은 머리에 착용하는 형태로, 몰입형 또는 투시형 상호작용을 지원하는 컴퓨팅 장치를 특정합니다. 이들은 사용자 눈앞에 가상 콘텐츠를 표시하여 증강 현실(AR) 또는 혼합 현실(MR) 경험을 구현합니다. 여기에는 다음이 포함됩니다:
- 광학식 투시형 헤드셋 (Optical See-Through, OST): 반투명 렌즈를 통해 현실 세계를 직접 관찰
- 비디오 투시형 헤드셋 (Video See-Through, VST): 카메라로 현실 세계를 캡처하여 비디오 스트림 형태로 관찰
관습적으로 헤드셋은 AR 안경, MR 안경 또는 VR 헤드셋으로도 불리지만, 본문에서는 이들 장치를 통칭하여 "헤드셋"으로 지칭합니다.
헤드셋의 기본 작동 원리
EasyAR의 헤드셋 지원 원리를 더 잘 이해하기 위해 먼저 헤드셋 장치의 기본 작동 흐름을 살펴봅니다:
- 환경 인지: 내장된 다중 카메라, 깊이 센서(예: iToF), 관성 측정 장치(IMU) 등을 통해 주변 환경의 기하학적 구조, 조명 조건, 물체 표면을 실시간으로 인지합니다.
- 공간 계산: 센서 데이터를 기반으로 SLAM 시스템을 통해 사용자 머리의 6DoF 포즈(위치 + 방향)를 실시간으로 추적합니다.
- 콘텐츠 렌더링 및 표시: 장치 포즈에 따라 3D 콘텐츠(모델, 효과 등)를 렌더링하고 디스플레이에 투사합니다. VR 모드에서는 순수 가상 화면이 표시되며, AR/MR 모드에서는 가상 화면이 실제 환경(VST 카메라 화면 또는 OST 투시 배경)과 합성됩니다.
- 상호작용 시스템: 컨트롤러, 제스처 인식, 음성 또는 안구 추적을 통해 사용자 명령을 수신하고 응답합니다.
EasyAR 헤드셋 지원 원리
EasyAR는 헤드셋의 네이티브 공간 추적 또는 렌더링 파이프라인을 대체하지 않고 공간 계산 강화 역할로 협력합니다. 전문적인 AR 알고리즘 엔진으로서 다양한 AR 시나리오의 공간 인지 및 계산 능력을 제공하며, 장치의 기존 시스템과 효율적으로 협력합니다.
| 책임 범위 | 역할 분담 |
|---|---|
| 헤드 6DOF 추적, 디스플레이 렌더링, 기본 상호작용 등 | 헤드셋 네이티브 SDK/런타임 |
| 이미지/물체 인식 및 추적, 대규모 공간 위치 지정 등 고급 인지 능력 | EasyAR SDK |
EasyAR SDK는 이미지/물체 인식, 희소 재구성, 조밀 재구성, 대규모 공간 위치 지정 등 세계 인지의 핵심 AR 기능을 제공하며, 세계를 "이해"하고 헤드셋 애플리케이션에 가상 콘텐츠가 배치될 위치를 알려줍니다.
EasyAR SDK는 플러그인 또는 라이브러리로 헤드셋의 애플리케이션 개발 프레임워크(일반적으로 Unity 또는 Unreal)에 통합됩니다. 장치 시스템의 원시 데이터 스트림을 수신하여 처리 및 계산한 후, 장치 공간 좌표계에 상대적인 포즈 행렬을 출력합니다. 최종적으로 헤드셋 엔진의 렌더링 파이프라인이 가상 물체를 올바른 위치에 그립니다.
지원 현황 및 구현 방식
EasyAR는 주요 헤드셋 개발 플랫폼에 대해 포괄적인 지원을 제공하며, 주로 다음 두 가지 방식으로 구현됩니다:
- Unity/Unreal Engine 통합: 가장 주류이자 권장되는 방식입니다. 헤드셋 제조사는 일반적으로 전용 Unity/Unreal 플러그인 또는 XR SDK를 제공합니다. EasyAR는 제조사의 SDK에 원활하게 통합되어 사용될 수 있습니다.
- 네이티브 플랫폼(Native) 통합: 극한의 성능 또는 특정 네이티브 개발이 필요한 시나리오의 경우, EasyAR의 C++/Java/Objective-C 네이티브 인터페이스를 사용할 수 있습니다. 이는 일반적으로 개발자가 장치 하위 데이터와의 인터페이스 연결을 직접 처리해야 합니다.
EasyAR는 Unity 방식을 통해 여러 주요 헤드셋 플랫폼에서 테스트 및 검증되었습니다. 현재 확인된 지원 장치는 다음과 같습니다:
| 헤드셋 장치 모델 | 시스템/SDK 버전 요구사항 |
|---|---|
| Apple Vision Pro | visionOS 2 이상 |
| PICO 4 Ultra Enterprise | PICO Unity Integration SDK 3.1.0 이상 |
| Rokid AR Studio | Rokid Unity OpenXR Plugin 3.0.3 이상 |
| XREAL Air2 Ultra | XREAL SDK 3.1 이상 |
| Xrany X1 | Xrany元霓 SDK |
참고
Rokid AR Studio는 Rokid Unity OpenXR Plugin을 통해 Rokid UXR 3을 지원하지만, 특히 크로스 장치 사용 시 XR Interaction Toolkit 사용을 권장합니다.
중요
Apple Vision Pro, PICO, XREAL는 해당 기업 라이선스가 필요합니다. 문의 사항은 영업 담당자에게 문의하십시오.
- Apple Vision Pro 인터페이스 라이선스 제한으로 인해 Apple 기업 API 허가를 획득한 장치만 지원됩니다.
- PICO 인터페이스 라이선스 제한으로 인해 PICO 엔터프라이즈 버전 장치만 지원됩니다.
- XREAL 인터페이스 라이선스 제한으로 인해 기업 라이선스를 획득한 장치만 지원됩니다.
상기 언급되지 않은 다른 제조사의 헤드셋 장치의 경우, EasyAR는 사용자 정의 카메라 등의 확장 접근 방식을 제공합니다. 자세한 내용은 EasyAR 헤드셋 확장 패키지 생성을 참조하여 접속할 수 있으며, 직접 연결을 완료할 수 있습니다.
이 과정은 일반적으로 다음 단계를 포함합니다:
- 장치 개발 권한 획득: 대상 헤드셋의 개발자 계정 및 SDK 문서를 신청합니다.
- 센서 데이터 스트림 획득: 장치 SDK에서 카메라 이미지(비디오 프레임), 카메라 파라미터 등 필수 데이터를 획득합니다.
- EasyAR API 호출: EasyAR의 저수준 API를 사용하여 획득한 센서 데이터를 EasyAR
FrameSource에 전달하여 처리합니다. - 계산 결과 획득 및 적용: EasyAR 엔진에서 계산 결과(카메라 포즈)를 획득하고 3D 렌더링 엔진에 적용합니다.
이 과정을 완료하는 데 도움이 되는 상세한 개발 가이드와 샘플 코드를 제공합니다. 연결 과정에서 문제가 발생하면 개발자 커뮤니티에서 기술 지원을 요청할 수 있습니다.
사용 가능한 핵심 기능
헤드셋 장치에서 풍부한 공간 애플리케이션 구축을 위해 EasyAR의 전체 기능 매트릭스를 활용할 수 있습니다:
- 평면 이미지 추적: 사전 설정된 이미지를 인식하고 추적하여 동적 비디오 또는 3D 모델을 이미지 위에 중첩시킵니다.
- 3D 물체 추적: 사전 설정된 3D 모델(장난감, 제품 포장 상자 등)을 인식하고 추적하며 가상 콘텐츠가 상호작용하도록 합니다.
- 희소 공간 맵: 주변 환경을 스캔하여 3차원 시각 맵을 생성하고 시각적 위치 지정 및 추적 기능을 제공합니다. 생성된 맵은 저장하거나 여러 장치 간에 실시간으로 공유할 수 있습니다.
- 조밀 공간 맵: 주변 환경의 조밀 포인트 클라우드 맵과 메쉬 모델(Mesh)을 스캔 및 생성하여 가상 물체와 실제 물체의 물리적 오클루전 관계를 구현함으로써 몰입감을 크게 향상시킵니다.
- 클라우드 이미지 인식: EasyAR 클라우드 데이터베이스에 연결하여 방대한 양의 이미지 인식 및 관리를 구현하며, 전시, 교육 등 시나리오에 적합합니다.
- Mega 대규모 공간 위치 지정: 도시 규모 공간 계산 솔루션으로, EasyAR 클라우드 위치 지정 서비스에 연결하여 안정적이고 빠르며 정밀한 위치 지정 및 추적을 구현함으로써 AR 경험의 범위를 극대화하고 확장합니다.
플랫폼별 가이드
특정 플랫폼에서 빠르게 시작하는 데 도움을 주기 위해 상세한 멀티 플랫폼 통합 가이드를 준비했습니다. 아래 탭을 클릭하여 해당 플랫폼의 빠른 시작 튜토리얼을 확인하십시오.
- 소개
- 헤드셋 샘플 사용
- 헤드셋 지원 활성화
- 프로젝트 설정
- EasyAR 헤드셋 확장 패키지 생성