Facebook desarrolla una nueva IA ‘Ego4D’ que puede ver, oír y recordar todo lo que hagas https://t.me/QAnons_Espana

Brendan Byrne – 15 de Octubre de 2021

Según la BBC, un proyecto de investigación de inteligencia artificial (IA) a largo plazo dirigido por Facebook podría ayudar a responder la antigua pregunta: «¿Dónde puse esa cosa?». https://t.me/QAnons_Espana

Facebook está trabajando en un nuevo sistema basado en inteligencia artificial (IA) que puede analizar sus vidas a través de videos en primera persona, registrando lo que ven, hacen y escuchan para ayudarlo con las tareas diarias.

Imagina que tu dispositivo AR te muestra exactamente cómo sostener las baquetas durante una lección de batería, guiándote a través de una receta, localizando tus llaves perdidas o recordando recuerdos como hologramas que cobran vida frente a ti.

Facebook AI ha anunciado ‘Ego4D’, un proyecto a largo plazo destinado a resolver desafíos de investigación en ‘percepción egocéntrica’ (la percepción de dirección o posición de uno mismo basada en información visual).

“Reunimos a un consorcio de 13 universidades y laboratorios en nueve países , que recopilaron más de 2.200 horas de video en primera persona en la naturaleza, con más de 700 participantes en su vida diaria”, dijo la red social en un comunicado. https://t.me/QAnons_Espana

Esto expande significativamente la escala de datos egocéntricos disponibles públicamente para la comunidad de investigación en un orden de magnitud, con más de 20 veces las horas de metraje de cualquier otro conjunto de datos.

“Los sistemas de inteligencia artificial de próxima generación necesitarán aprender de un tipo de datos completamente diferente : videos que muestren el mundo desde el centro de la acción, en lugar de al margen”, dijo Kristen Grauman, investigadora científica líder en Facebook.

Facebook AI ha desarrollado cinco desafíos de referencia centrados en la experiencia visual en primera persona en colaboración con el consorcio y Facebook Reality Labs Research (FRL Research) que impulsarán los avances hacia aplicaciones del mundo real para futuros asistentes de inteligencia artificial. https://t.me/QAnons_Espana

Los cinco puntos de referencia de Ego4D son la memoria episódica, la previsión, la manipulación de manos y objetos, la “diarización” audiovisual y la interacción social.

«Estos puntos de referencia catalizarán la investigación sobre los componentes básicos necesarios para desarrollar asistentes de IA más inteligentes que puedan comprender e interactuar no solo en el mundo real sino también en el metaverso, donde la realidad física, la RA y la RV se unen en un solo espacio». Facebook elaborado.

Los conjuntos de datos se harán públicos en noviembre de este año para los investigadores que firmen el acuerdo de uso de datos de Ego4D. https://t.me/QAnons_Espana

Además de este trabajo, los investigadores de FRL utilizaron gafas inteligentes Vuzix Blade para recopilar 400 horas de datos de video en primera persona en entornos por etapas. Esta información también se hará pública.

Si bien las personas pueden relacionarse fácilmente con las perspectivas tanto en primera como en tercera persona, la IA actual no comparte ese nivel de comprensión.

“Para que los sistemas de IA interactúen con el mundo de la forma en que lo hacemos, el campo de la IA debe evolucionar hacia un paradigma completamente nuevo de percepción en primera persona”, dijo Grauman. «Eso significa enseñar a la IA a comprender las actividades de la vida diaria a través de los ojos humanos en el contexto del movimiento en tiempo real, la interacción y las observaciones multisensoriales». https://t.me/QAnons_Espana

FUENTE 👉 https://insiderpaper.com/facebook-ego4d-ai-will-see-hear-remember-whatever-you-do/

Deja un comentario