Seguimiento de plano combinado con seguimiento de movimiento
Este artículo explica cómo combinar el seguimiento de imágenes planas con el seguimiento de movimiento del dispositivo para mejorar la estabilidad del seguimiento y la experiencia del usuario en escenarios complejos. Incluye principios fundamentales, efectos esperados y análisis de problemas potenciales.
Principios básicos
Fusión de movimiento (Motion Fusion) combina datos de pose (posición + rotación) del seguimiento de imágenes planas con datos del seguimiento de movimiento del dispositivo, logrando una estimación de pose más robusta. A continuación, su flujo principal:
Sincronización y complementariedad de datos
- Seguimiento visual: Calcula la pose del fotograma actual mediante coincidencia de puntos característicos de la imagen, pero es susceptible a oclusión, desenfoque o movimientos rápidos.
- Seguimiento de movimiento: Utiliza sensores IMU para obtener datos de movimiento del dispositivo a alta frecuencia, pero presenta errores de deriva acumulativa.
- Mecanismo de fusión:
- Alinea los sistemas de coordenadas de la pose del seguimiento visual con la del seguimiento de movimiento.
- Cuando la imagen objetivo es claramente visible y el movimiento es estable: prioriza el seguimiento visual. La pose del seguimiento visual se envía constantemente al módulo de fusión para corregir la deriva acumulativa del sistema.
- Cuando se pierde la imagen objetivo, ocupa un área muy pequeña en la pantalla o hay movimiento rápido: el seguimiento visual falla, priorizando el seguimiento de movimiento. Predice la pose fusionada basándose en la pose actual del seguimiento de movimiento.
Puntos técnicos clave
- Alineación de marca de tiempo: Sincroniza las marcas de tiempo de los fotogramas visuales con los datos del seguimiento de movimiento para evitar vibraciones por retraso.
- Alineación de sistema de coordenadas: Alinea los sistemas de coordenadas según las trayectorias del seguimiento visual y del seguimiento de movimiento.
- Relocalización: Cuando la imagen reaparece, el seguimiento visual retoma rápidamente y corrige posibles errores acumulativos, "recuperando" la posición correcta del objeto virtual.
Escenarios aplicables y limitaciones
La fusión de movimiento no es adecuada para todos los escenarios. No aplicará en los siguientes casos:
- El dispositivo objetivo no admite funciones de seguimiento de movimiento como ARCore/ARKit. Lista detallada de dispositivos compatibles: Soporte de dispositivos para seguimiento de movimiento.
- La imagen/objeto plano en la escena es dinámico, por ejemplo, una tarjeta sostenida con la mano durante la experiencia.
En otros escenarios, usar fusión de movimiento mejorará significativamente la experiencia de usuario del seguimiento de imágenes planas, incluyendo pero no limitado a:
- Movimiento rápido: El usuario mueve el dispositivo rápidamente, causando desenfoque de movimiento que inutiliza el seguimiento de imagen.
- Desaparición del objetivo: Cuando la imagen sale del objetivo o este es ocluido por objetos dinámicos (como personas), el contenido virtual permanece visible.
- Alejamiento del objetivo: El usuario se aleja del objetivo reduciendo su tamaño en pantalla, manteniendo un seguimiento estable.
- Condiciones de baja iluminación: El rendimiento del seguimiento visual disminuye, pero la experiencia se mantiene.
Efecto y resultados esperados
En escenarios aplicables, la fusión de movimiento proporcionará una experiencia de usuario más estable y fluida que el seguimiento de imágenes planas por sí solo.
Efecto ideal
- Seguimiento más estable: Los objetos virtuales no tiemblan ni saltan.
- Transición fluida: Cuando falla el seguimiento visual, los cambios en la pose fusionada son continuos y naturales.
- Resistencia a interferencias: Si el objetivo se pierde, es ocluido o el dispositivo se mueve rápido, el objeto virtual sigue al movimiento del dispositivo.
Casos no ideales y soluciones
| Fenómeno | Causa | Percepción del usuario | Solución |
|---|---|---|---|
| No activado inicialmente | El seguimiento de movimiento requiere tiempo para inicializarse | El contenido desaparece inicialmente | Incluir indicaciones UI hasta completar la inicialización |
| Deriva notable | Acumulación de errores del sistema sin corrección visual prolongada | El objeto virtual se desvía de su posición | Guiar al usuario para reducir tiempos de oclusión o añadir indicaciones de relocalización visual |
| Caída de rendimiento | Ejecución simultánea prolongada de ambas funciones | Disminución de FPS o congelamientos | Fenómeno normal; desactivar fusión de movimiento mediante API |
Método de verificación de resultados esperados
Pruebas en escenario real con dispositivo compatible:
- Enfocar la imagen y verificar estabilidad del objeto virtual.
- Ocluir la imagen con la mano durante 2 segundos mientras se mueve el dispositivo; observar si el objeto virtual se desplaza suavemente.
- Retirar la mano; confirmar que el objeto virtual vuelve rápidamente a su posición sin saltos.
Resumen y mejores prácticas
La fusión de movimiento mejora significativamente la robustez del seguimiento de imágenes planas en múltiples escenarios, pero requiere soporte hardware y rendimiento adecuado del dispositivo. Los desarrolladores deben activar esta función selectivamente según los dispositivos de los usuarios objetivo y ofrecer soluciones de degradación en dispositivos de bajo rendimiento.
Referencias API para activar/desactivar fusión de movimiento en tiempo real:
- Nativo: setResultPostProcessing
- Unity: EnableMotionFusion