Investigación fuente META https://ai.meta.com/blog/brain-ai-research-human-communication/?utm_source=linkedin&utm_medium=organic_social&utm_content=video&utm_campaign=fair
Utilizando la IA para decodificar el lenguaje del cerebro y mejorar nuestra comprensión de la comunicación humana
7 de febrero de 2025•
7 minutos de lectura

Durante la última década, el laboratorio Meta Fundamental Artificial Intelligence Research (FAIR) en París ha estado a la vanguardia del avance de la investigación científica. Hemos liderado avances en medicina , ciencia climática y conservación y hemos mantenido nuestro compromiso con la ciencia abierta y reproducible . De cara a la próxima década, nuestro enfoque está en lograr inteligencia artificial avanzada (AMI) y usarla para impulsar productos e innovación en beneficio de todos.
Hoy, en colaboración con el Basque Center on Cognition, Brain and Language , un centro de investigación interdisciplinario líder en San Sebastián, España, estamos emocionados de compartir dos avances que muestran cómo la IA puede ayudarnos a avanzar en nuestra comprensión de la inteligencia humana, acercándonos a la AMI. Basándonos en nuestro trabajo previo para decodificar la percepción de imágenes y el habla a partir de la actividad cerebral, estamos compartiendo una investigación que decodifica con éxito la producción de oraciones a partir de grabaciones cerebrales no invasivas, decodificando con precisión hasta el 80% de los caracteres y, por lo tanto, a menudo reconstruyendo oraciones completas únicamente a partir de señales cerebrales. En un segundo estudio, estamos detallando cómo la IA también puede ayudarnos a comprender estas señales cerebrales y aclarando cómo el cerebro transforma eficazmente los pensamientos en una secuencia de palabras.
Esta importante investigación no sería posible sin la estrecha colaboración que hemos fomentado en la comunidad de la neurociencia. Hoy, Meta anuncia una donación de 2,2 millones de dólares al Hospital de la Fundación Rothschild en apoyo a este trabajo. Esto continúa nuestra trayectoria de trabajar en estrecha colaboración con algunas de las principales instituciones de investigación de Europa, entre ellas NeuroSpin (CEA) , Inria , ENS-PSL y CNRS . Estas asociaciones seguirán siendo importantes para nosotros a medida que trabajamos juntos para explorar cómo estos avances pueden marcar una diferencia en el mundo y, en última instancia, mejorar la vida de las personas.
Uso de IA para decodificar el lenguaje a partir de grabaciones no invasivas del cerebro
Cada año, millones de personas sufren lesiones cerebrales que les impiden comunicarse. Los métodos actuales muestran que la comunicación se puede restablecer con una neuroprótesis que envía señales de comando a un decodificador de IA. Sin embargo, las técnicas invasivas de registro cerebral, como la electroencefalografía estereotáctica y la electrocorticografía, requieren intervenciones neuroquirúrgicas y son difíciles de escalar. Hasta ahora, el uso de métodos no invasivos se ha visto limitado por la complejidad del ruido de las señales que registran.
Para nuestro primer estudio , utilizamos tanto MEG como EEG (dispositivos no invasivos que miden los campos magnéticos y eléctricos provocados por la actividad neuronal) para registrar a 35 voluntarios sanos del BCBL mientras teclean oraciones. Luego, entrenamos un nuevo modelo de IA para reconstruir la oración únicamente a partir de las señales cerebrales. En las oraciones nuevas, nuestro modelo de IA decodifica hasta el 80% de los caracteres escritos por los participantes registrados con MEG, al menos el doble de lo que se puede obtener con el sistema de EEG clásico.
Esta investigación podría crear una nueva vía para las interfaces cerebro-computadora no invasivas que ayuden a restablecer la comunicación a quienes han perdido la capacidad de hablar, pero aún quedan varios desafíos importantes antes de que este enfoque pueda aplicarse en entornos clínicos. El primero está relacionado con el rendimiento: el rendimiento de decodificación aún es imperfecto. El segundo es más práctico, porque la MEG requiere que los sujetos estén en una habitación protegida magnéticamente y permanezcan quietos. Por último, aunque esta investigación se realizó con voluntarios sanos, será necesario realizar trabajos futuros para explorar cómo podría beneficiar a las personas que sufren lesiones cerebrales.
Utilizando la IA para entender cómo el cerebro forma el lenguaje
También estamos compartiendo un avance hacia la comprensión de los mecanismos neuronales que coordinan la producción del lenguaje en el cerebro humano. Estudiar el cerebro durante el habla siempre ha resultado extremadamente difícil para la neurociencia, en parte debido a un simple problema técnico: mover la boca y la lengua corrompe en gran medida las señales de neuroimagen.
Para explorar cómo el cerebro transforma los pensamientos en complejas secuencias de acciones motoras, utilizamos inteligencia artificial para ayudar a interpretar las señales MEG mientras los participantes escribían oraciones. Al tomar 1000 instantáneas del cerebro por segundo, podemos identificar el momento preciso en el que los pensamientos se convierten en palabras, sílabas e incluso letras individuales. Nuestro estudio muestra que el cerebro genera una secuencia de representaciones que comienzan desde el nivel más abstracto de representaciones (el significado de una oración) y las transforman progresivamente en una miríada de acciones, como el movimiento real de los dedos sobre el teclado.
Es importante destacar que el estudio también revela cómo el cerebro representa de manera coherente y simultánea palabras y acciones sucesivas. Nuestros resultados muestran que el cerebro utiliza un “código neuronal dinámico”, un mecanismo neuronal especial que encadena representaciones sucesivas y mantiene cada una de ellas durante largos períodos de tiempo.

Descifrar el código neuronal del lenguaje sigue siendo uno de los principales retos de la IA y la neurociencia . La capacidad de lenguaje, propia de los humanos, ha dotado a nuestra especie de una capacidad de razonar, aprender y acumular conocimientos como ningún otro animal del planeta. Comprender su arquitectura neuronal y sus principios computacionales es, por tanto, un camino importante para el desarrollo de la IA .
Habilitando avances en salud con IA de código abierto
En Meta, estamos en una posición única para ayudar a resolver algunos de los mayores desafíos del mundo mediante IA. Nuestro compromiso con el código abierto ha permitido a la comunidad de IA aprovechar nuestros modelos para lograr sus propios avances. El mes pasado, compartimos cómo BrightHeart , una empresa con sede en Francia, está utilizando DINOv2 como parte de su software de IA para ayudar a los médicos a identificar o descartar signos sugestivos de defectos cardíacos congénitos en ecografías cardíacas fetales. El año pasado, BrightHeart logró la autorización 510(k) de la FDA para su software, que atribuyen en parte a las contribuciones de código abierto de Meta. También compartimos cómo Virgo , una empresa con sede en los Estados Unidos, está utilizando DINOv2 para analizar videos de endoscopia, logrando un rendimiento de vanguardia en una amplia gama de puntos de referencia de IA para endoscopia, como la clasificación de puntos de referencia anatómicos, la puntuación de la gravedad de la enfermedad para la colitis ulcerosa y la segmentación de pólipos.
Al mirar hacia los próximos 10 años, es emocionante pensar en cómo los avances que compartimos hoy podrían beneficiar al bien común. Esperamos continuar las importantes conversaciones que estamos teniendo con la comunidad a medida que avanzamos, juntos, para abordar algunos de los mayores desafíos de la sociedad.