Ego-Exo4D

Junto con el consorcio Ego4D, META AI lanzó Ego-Exo4D, el conjunto de datos público más grande de su tipo para apoyar la investigación sobre el aprendizaje por video y la percepción multimodal.

El conjunto de datos descargable está disponible en la dirección ➡️ https://bit.ly/3tiS3Ob
Más detalles (en inglés) en ➡️ https://bit.ly/3RsWkIb

El conjunto de datos cuenta con más de 1,400 horas de videos de actividades humanas calificadas recopiladas en 13 ciudades por 800+ participantes de la investigación.
Utilizando el Proyecto Aria de Meta [ https://www.projectaria.com/ ], el conjunto de datos también incluye:
• Audio de siete canales alineado en el tiempo
• IMU
• Mirada
• Posturas de la cabeza
• Nubes de puntos 3D del entorno

Este trabajo fue posible gracias a la colaboración entre FAIR [Futures of Artificial Intelligence Research], el Proyecto Aria de Meta y 15 universidades asociadas.

Futures of Artificial Intelligence Research (FAIR) es un Núcleo Milenio de investigación y creación interdisciplinario en torno a las implicancias culturales, sociales y ambientales de la Inteligencia Artificial (IA).

ahora la UBU ya está en este proyecto con DINper

Introducing Ego-Exo4D: A foundational dataset for research on video learning and multimodal perception

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *