Meta AI, la división de inteligencia artificial (IA) de Meta, anunció el 31 de agosto que ha encontró una manera de decodificar la actividad cerebral relacionada con el habla sin utilizar tecnologías invasivas. Este descubrimiento podría hacer la vida más fácil a las personas con problemas de comunicación. El objetivo de Meta es poder descifrar el habla que se forma en el cerebro para desarrollar una interfaz cerebro-computadora (BCI), o una interfaz cerebro-máquina en francés.
La búsqueda para entender la actividad cerebral
Durante años, los investigadores se han centrado en decodificar la actividad cerebral relacionada con el habla. Sin embargo, la gran mayoría de los avances se han logrado con la ayuda de tecnologías intrusivas como la electroencefalografía intracraneal y la electrocorticografía. Ambos métodos requieren cirugía para para implantar electrodos o incluso chips al igual que Neuralink, la empresa de neurotecnología cofundada por Elon Musk.
Reliance invierte $ 25 mil millones para implementar 5G en India
Los miembros de la división Meta AI han tenido usando un procedimiento menos invasivo mediante electroencefalografía (EEG) y magnetoencefalografía (MEG). Sin embargo, se sabe que estas dos tecnologías son imprecisas. La empresa californiana explica que son ” notoriamente ruidoso y [leurs résultats] puede variar ampliamente de una sesión de grabación a otra y de un individuo a otro por una variedad de razones, incluidas las diferencias entre el cerebro de cada persona y el lugar donde se colocan los sensores “.
Para compensar la inexactitud de las grabaciones, los investigadores del Meta operaron dos redes neuronales en paralelo. El “modelo de habla” que analiza las palabras escuchadas y el “modelo cerebral” que disecciona la actividad cerebral. Estas dos redes estaban alimentadas por 150 horas de registros de EEG y MEG de 169 participantes en perfecto estado de salud habiendo escuchado audiolibros y frases sueltas en inglés y alemán.
Equipo de la División de IA de Meta muy satisfecho con los resultados obtenidos. ” A partir de tres segundos de actividad cerebral, nuestros resultados muestran que nuestro modelo es capaz de decodificar segmentos vocales con una precisión máxima del 73% a partir de un vocabulario de 793 palabras, es decir, gran parte de las palabras que solemos utilizar a diario. », especifica el comunicado de prensa.
Meta ya tiene experiencia en este tipo de investigaciones
Esta no es la primera vez que Meta busca comprender qué sucede en el cerebro humano. En febrero de 2020, equipos de Reality Labs, el departamento especializado en el desarrollo de tecnologías de realidad virtual y aumentada, ya estaban trabajando en la detección de signos mentales en el origen del habla. Su objetivo era diseñar una interfaz cerebro-máquina para escribir con el pensamiento a 100 palabras por minuto.
Sin embargo, este tipo de proyecto ha planteado muchas cuestiones éticas, en particular sobre el uso que Meta pudiera hacer de los pensamientos a los que tiene acceso. Por eso, el gigante de las redes sociales decidió, en julio de 2021, abandonar su trabajo sobre tecnologías capaces de leer la mente. En cambio, el grupo se está enfocando en el desarrollo de un brazalete conectado capaz de identificar señales motoras y transformarlas en una acción.
En cuanto a su última investigación, los investigadores de Meta AI tranquilizan al especificar que no están relacionados con el trabajo anterior de la empresa y que ellos no se utilizará para futuros productos Meta.