Investigadores de la Universidad de Texas han desarrollado una interfaz cerebro-computadora basada en inteligencia artificial (IA) que puede convertir los pensamientos de una persona en palabras. Se trata de una …
Investigadores de la Universidad de Texas han desarrollado una interfaz cerebro-computadora de inteligencia artificial (IA) capaz de convertir los pensamientos de una persona en palabras. Esta es una tecnología prometedora para permitir que los pacientes que han perdido la capacidad de hablar se comuniquen nuevamente.
Una solución no invasiva
Si estos sistemas ya existen, son menos avanzados porque solo son capaces de detectar palabras concretas y, sobre todo, son invasivos porque requieren la implantación de un implante. « Para un método no invasivo, este es un verdadero avance en comparación con lo que se ha hecho hasta ahora, es decir, palabras sueltas u oraciones cortas. Obtenemos un modelo que permite decodificar un lenguaje continuo durante largos periodos con ideas complicadas dice Alex Huth, profesor asistente de neurociencia e informática en la Universidad de Texas.
En un estudio publicado en la revista Neurociencia de la naturalezalos científicos explican cómo entrenaron un modelo de lenguaje similar a Google GPT-4 y LaMDA para lograr este resultado. Así, tres participantes escucharon cada uno 16 horas de diferentes episodios de los mismos podcasts mientras estaban en un escáner fMRI (Imágenes por Resonancia Magnética Funcional).
A diferencia de la resonancia magnética tradicional, que crea imágenes de la estructura del cuerpo, la resonancia magnética funcional mide los cambios en el flujo sanguíneo y los niveles de oxígeno en el cerebro, que se cree que están asociados con la actividad neuronal. Al detectar estos cambios, la fMRI se puede utilizar para mapear la función y la actividad del cerebro en tiempo real. De esta manera, los investigadores pudieron recopilar una gran cantidad de datos y enseñaron a la IA a predecir la actividad cerebral que desencadenaba la lectura de ciertas palabras. Para probarlo, hicieron que los participantes escucharan nuevos episodios de podcasts y el modelo tenía que adivinar lo que se decía estudiando la actividad cerebral del oyente mientras escuchaba.
» El resultado no es una transcripción palabra por palabra. Por el contrario, los investigadores lo diseñaron para capturar la esencia de lo que se dice o piensaaunque sea imperfectamente “, especifican los investigadores en Comunicado de prensa. En lugar de transcribir perfectamente el pensamiento de una persona, el modelo es capaz de capturar la idea de la misma. Por ejemplo, cuando un participante escuchó las palabras « todavía no tengo mi licencia de conducir durante un experimento, sus pensamientos se tradujeron como » Ni siquiera ha empezado a aprender a conducir todavía. «.
La IA es prometedora pero todavía muy limitada
El modelo logró producir texto que coincide de cerca o remotamente con el significado previsto de las palabras originales. en aproximadamente la mitad de los casos. Los sujetos también vieron un cortometraje de animación mudo, aún sometido a una resonancia magnética funcional. Al analizar su actividad cerebral, el modelo de lenguaje pudo decodificar un resumen aproximado de lo que estaban viendo.
Si bien estos resultados iniciales son alentadores, la tecnología es todavía muy limitada. Los escáneres fMRI son voluminosos y costosos, mientras que el entrenamiento de IA debe realizarse de forma distinta en cada individuo para que sea efectivo. Cuando los investigadores intentaron usar un decodificador entrenado en una persona para leer la actividad cerebral de otra, fallaron, lo que sugiere que cada cerebro tiene formas únicas de representar los sentidos.
» Eventualmente, esperamos que esta tecnología pueda ayudar a las personas que han perdido el uso del habla después de traumatismos como accidentes cerebrovasculares o enfermedades como la esclerosis lateral amiotrófica (Nota del editor: enfermedad de Charcot) explicó Jerry Tang, estudiante graduado de informática en la Universidad de Texas y líder del estudio.
Junto con sus colegas, espera que las iteraciones futuras del dispositivo puedan ser adaptado a plataformas más convenientescomo sensores de espectroscopia de infrarrojo cercano que se pueden llevar en la cabeza del paciente.