La IA lee la mente a partir de escáneres cerebrales


Un nuevo sistema de inteligencia artificial (IA) puede usar escáneres cerebrales para medir que alguien está pensando en un concepto específico, como comer o dormir. El sistema puede ser útil algún día para ayudar a las personas que han perdido la capacidad de hablar o para investigar trastornos mentales.

Cuando percibimos una señal del mundo exterior, como una palabra hablada o una imagen, se codifica en el cerebro como un patrón particular de actividad neuronal. Hasta ahora, los intentos de averiguar qué palabras desencadenan una señal neuronal específica han tenido resultados mixtos. Los intentos más exitosos requieren electrodos implantados quirúrgicamente.

Ahora cerebro e informático Alejandro Huthu de la Universidad de Texas con su equipo desarrolló un modelo de IA que funciona mejor. El modelo puede derivar secuencias de palabras que coincidan o se parezcan mucho a las señales que desencadenan una actividad cerebral particular.

LEA TAMBIÉN
Los héroes anónimos de la historia de la ciencia

Historias hechas a sí mismas

Primero, Huth y su equipo crearon resonancias magnéticas funcionales (fMRI) de redes en el cerebro relacionadas con el procesamiento del lenguaje. Hicieron esto con un pequeño grupo de personas que escucharon historias habladas durante 16 horas. Por ejemplo, entrenaron al modelo para comprender y predecir cómo responde el cerebro de una persona a un conjunto particular de palabras.

Luego, los investigadores pidieron a los participantes que escucharan una nueva historia. Luego, el modelo trató de decodificar la grabación cerebral correspondiente. Luego, los investigadores compararon las palabras de la historia con la versión decodificada.

Huth y sus colegas también probaron su decodificador en personas que contaban historias de su propia creación y veían películas mudas cortas. En ambos experimentos, el modelo logró derivar palabras y secuencias similares.

Impresionante

Por ejemplo, la siguiente frase es del texto original de un cuento que se escuchó: “Esa noche subí a lo que había sido nuestro dormitorio, y sin saber qué más hacer, apagué la luz y me fui al piso. . «acostado».

La IA tradujo los patrones cerebrales resultantes de la siguiente manera: «Regresamos a mi habitación, no tenía idea de dónde estaba mi cama, supuse que dormiría en ella, pero en lugar de eso me acosté en el piso».

«El hecho de que el decodificador pueda entender la esencia de las oraciones es muy impresionante», dice el científico del cerebro. ana ivanova del Instituto de Tecnología de Massachusetts. “Sin embargo, vemos que todavía tiene un largo camino por recorrer. El modelo adivina fragmentos del significado y luego trata de unirlos, pero el mensaje general generalmente se pierde. Esto probablemente sucede porque las señales cerebrales recibidas muestran en qué conceptos está pensando alguien, como ‘hablar’ o ‘comer’, pero no cómo se relacionan esos conceptos entre sí.

El modelo también parece ser mejor para predecir palabras concretas como «comida» que para predecir conceptos abstractos, agrega Ivanova.

Red neuronal del lenguaje

Según el científico del cerebro Jack galante de la Universidad de California en Berkeley, hay dos formas de mejorar los modelos de decodificación: mejores grabaciones cerebrales y modelos informáticos más potentes. La capacidad de fMRI no ha mejorado mucho en los últimos diez años, pero el poder de cómputo y los modelos de lenguaje de las computadoras sí lo han hecho.

«Los investigadores desarrollaron una red neuronal de lenguaje poderosa y completamente moderna, y luego la usaron como base para el modelo de decodificación», dice Gallant. ‘Esa es la innovación que es principalmente responsable de tan buenos resultados.’

Estos modelos informáticos pueden algún día ayudar a las personas que no pueden hablar a comunicarse. También pueden ser útiles para la investigación de trastornos psicológicos, por ejemplo, dice Gallant.

Privacidad

Lógicamente, las cuestiones de privacidad juegan un papel en el acceso a los pensamientos de uno. Sin embargo, según Huth y su equipo, esto no es un problema en este momento, ya que el modelo requiere bastantes datos de entrenamiento y colaboración. Si alguien en el escáner fMRI elige pensar en otras cosas, como contar, contar una historia o enumerar cosas, eso sabotea el decodificador.

«Si no ha escuchado podcasts durante varias horas mientras está acostado en un escáner de resonancia magnética, es probable que Huth y sus colegas no puedan decodificar sus pensamientos, al menos no todavía», dice Ivanova.



ttn-es-76