La inteligencia artificial ayuda a leer tu cerebro


Escultura Eline van Strien

Mire, allí, una fotografía de una locomotora de vapor negra contra un cielo ligeramente nublado. O ver ese oso de peluche con su lazo morado. Todo sucede desde el momento en que nuestro ojo ve la locomotora o el oso. La percepción visual va primero a la parte del cerebro que se encarga de la primera interpretación aproximada: las líneas, los contrastes. Luego pasa a otras secciones, que tratan de información más compleja, con significado. Así es como nuestro cerebro construye en términos generales la información presentada para, en última instancia, generar una imagen significativa.

Todo tiene lugar en nuestras cabezas, y hoy en día los científicos pueden echar un vistazo al interior. Sus esfuerzos pueden proporcionar más información sobre cómo funciona el cerebro humano y pueden allanar el camino para nuevas técnicas. Los pacientes paralíticos que ya no pueden hablar podrían comunicarse con sus seres queridos a través de sus pensamientos.

Pero primero volvamos a esa locomotora y ese osito de peluche, dos de las muchas imágenes que se les presentaron a los sujetos en un experimento reciente de la Universidad de Osaka en Japón. Utilizan mediciones de fMRI, que pueden registrar la ubicación exacta de la actividad cerebral. Los sujetos de prueba yacen en un túnel de escaneo mientras tienen que mirar una gran cantidad de imágenes. Estos provienen de un conjunto de datos bien conocido de diez mil imágenes de personas, paisajes y objetos, incluidas sus descripciones.

Sobre el Autor

Laurens Verhagen prescribe de Volkskrant sobre tecnología, internet e inteligencia artificial.

En comparación con la medición de EEG más accesible (una especie de gorro de baño con electrodos), una señal de fMRI de este tipo localiza con mayor precisión dónde tiene lugar cierta actividad. En este caso, hay dos áreas en el cerebro: la que procesa las señales visuales y la región responsable de dar sentido. Los investigadores vincularon estas medidas a un modelo de IA ya entrenado, que consta de diez mil imágenes más descripciones.

De esta manera, los investigadores pudieron establecer conexiones entre los datos de fMRI de la región del cerebro orientada visualmente y las imágenes originales que las personas estaban viendo. Hicieron lo mismo con los datos de fMRI de la región del cerebro que procesa el significado de las imágenes y las descripciones de texto existentes de las imágenes.

Arriba de las imágenes originales, debajo de las reconstrucciones de los datos de fMRI.  Imagen Universidad de Osaka

Arriba de las imágenes originales, debajo de las reconstrucciones de los datos de fMRI.Imagen Universidad de Osaka

En investigaciones anteriores, solo se utilizó el primer tipo de información (visual), pero al incluir y combinar también los datos de las otras regiones cerebrales (textuales), los investigadores obtienen reconstrucciones mejores y más detalladas: sin puntos vagos, sino como un verdadero peluche. oso con un arco. También investigadores de la Universidad de Toulouse descrito recientemente avances similares con imágenes aún más nítidas.

Izquierda: la imagen original, 'imagen de prueba'.  Además, se presentan las reconstrucciones de los datos cerebrales de los sujetos, con 'Sub Promedio' como interpretación media.  Imagen Universidad de Toulouse

Izquierda: la imagen original, ‘imagen de prueba’. Además, se presentan las reconstrucciones de los datos cerebrales de los sujetos, con ‘Sub Promedio’ como interpretación media.Imagen Universidad de Toulouse

El uso de mediciones de fMRI no es nuevo, pero vincular los llamados modelos de difusión a las mediciones sí lo es. Esta es una rama de la inteligencia artificial que se ha dado a conocer al público en los últimos meses bajo nombres como DALL-E, Stable Diffusion y Midjourney. Estos programas de IA pueden generar imágenes basadas en la entrada de texto.

Marcel van Gerven, profesor de IA en la Universidad de Radboud y que no participó en estos dos estudios, está impresionado con los últimos resultados: «Este es un buen paso hacia reconstrucciones cada vez mejores». El mismo Van Gerven hizo esto en el Donders Institute for Brain, Cognition and Behavior en la Universidad de Radboud. investigaciones similarespero sin los modelos de difusión que ahora están en boga.

Iris Groen, profesora asistente de neurociencia computacional en la Universidad de Amsterdam, también elogia la combinación de las mediciones de fMRI existentes con los últimos modelos poderosos de IA. Ella llama impresionantes a las imágenes reconstruidas a partir de las señales cerebrales. Pero también advierte: «El hecho de que las imágenes presentadas y las reconstruidas se correspondan en gran medida no significa que de repente sepamos exactamente cómo funciona el procesamiento de imágenes en nuestro cerebro». La otra cara de la moneda es igual de interesante, dice Van Gerven: «¿Cómo se pueden diseñar sistemas de IA que se comporten como los humanos, que sean tan eficientes como nuestro cerebro, tan robustos?»

El siguiente paso es obvio: la lectura de la mente real. Entra en el escáner y piensa en algo, simplemente sin ningún estímulo visual. O: duérmete y empieza a soñar. ¿Puede la computadora traducir las señales cerebrales en algo significativo? ¿Puede un modelo generativo de IA convertir eso en una hermosa película surrealista? ‘Es cierto que se está investigando al respecto, pero todavía estamos lejos de eso’, Groen modera las expectativas que son demasiado altas.

Van Gerven también es cauteloso, pero al mismo tiempo señala que los desarrollos avanzan rápidamente, no solo en el lado de la IA, sino también en el campo de las mediciones. El Instituto Donders recibió recientemente una subvención de 19 millones de euros para construir el escáner de resonancia magnética más fuerte del mundo para obtener datos cerebrales aún más detallados.

Discurso

Los llamados equipos de medición invasivos van un paso más allá. No hay gorro de baño EEG ni escáner de resonancia magnética, sino un implante dentro del cráneo para hacer mediciones cerebrales aún más precisas. Julia Berezutskaya, investigadora del Donders Institute y UMC Utrecht en las llamadas interfaces cerebro-computadora, utiliza este tipo de implantes en otro intento de reconstruir la actividad cerebral: no imágenes, sino habla.

En una investigación reciente de Berezutskaya y su equipo, se sumaron a otros tipos de investigación en los que los pacientes con epilepsia grave ya recibieron implantes. Berezutskaya también pudo tomar medidas durante su estadía de siete días en la unidad de cuidados intensivos de UMC Utrecht. La gran ventaja: una ‘calidad de señal excelente’ y, por lo tanto, también ‘resultados de decodificación precisos’.

El punto de partida es más o menos el mismo que en la investigación en la que se muestran imágenes, pero con discurso. Los sujetos leyeron en voz alta un total de doce palabras holandesas, procedente de Jip y Janneke, como ‘abuela’, ‘pick’, ‘all’, ‘yip’, ‘me’ y ‘hat’. Y aquí también, el truco consiste en decodificar las mismas palabras de la señal cerebral recibida.

Eso funciona bien ahora. «Pero predecir palabras sueltas a partir de señales cerebrales es, por supuesto, bastante diferente de oraciones completas», dice Berezutskaya. ‘Ese sigue siendo un gran paso, pero no imposible. La IA también puede hacer una contribución importante a este tipo de investigación”. Ella señala los modelos de lenguaje que el público en general conoce de ChatGPT. Lo que hacen esencialmente es predecir la siguiente palabra cada vez. Al usar este tipo de IA en combinación con mediciones cerebrales detalladas, debería ser posible reconstruir oraciones.

Por impresionante que sea el progreso realizado por este tipo de modelos de lenguaje, Berezutskaya todavía ve algunos obstáculos en el camino. Después de todo, siguen siendo modelos probabilísticos, modelos que hacen predicciones basadas en la probabilidad. ‘Tenemos que encontrar un equilibrio entre la velocidad y la practicidad por un lado y la precisión por el otro. ¿Cuántas veces se le permite a una computadora reconstruir una oración que en realidad no quisiste decir?

Las aplicaciones prácticas de la reconstrucción del habla son más fáciles de imaginar que las de las imágenes. Piense en los pacientes que ya no pueden controlar su parte del habla porque están completamente paralizados. Una investigación similar en los Estados Unidos ya produjo una computadora del habla para un paciente estadounidense que ya no podía hablar después de una hemorragia cerebral. La diferencia con el estudio holandés es que el paciente tiene que deletrear letra por letra en esta aplicación.

nulo Escultura Eline van Strien

Escultura Eline van Strien

Jorge Orwell

El camino al infierno está pavimentado con buenas intenciones. Con este dicho en mente, Pim Haselager, profesor de IA en la Universidad de Radboud, sigue de cerca este tipo de desarrollos. Fantástico, por supuesto, si se puede ayudar a los pacientes paralizados con neurotecnología, pero Haselager también teme el abuso (comercial) y una nueva categoría de problemas de privacidad.

«Nada es tuyo excepto los pocos centímetros cúbicos en tu cráneo». la cita de 1984 de George Orwell es significativo para Haselager. El interior de su cráneo es el único lugar para el personaje principal Winston Smith que todavía está a salvo de la interferencia de la Policía del Pensamiento y el Partido. Pero incluso este lugar que se consideraba seguro hace 75 años ahora está filtrando información.

‘No se puede detener la tecnología, pero lo que sí se puede hacer es pensar detenidamente en las consecuencias de la neurotecnología y promulgar leyes cuando sea necesario’. Es un papel difícil el que asume con esto, según el propio filósofo: ‘identifico problemas que aún no existen’.

Al mismo tiempo, el futuro en el que este tipo de tecnología esté ampliamente disponible no está tan lejano. Haselager señala los auriculares EEG que los consumidores ya tienen desde hace mucho tiempo puede comprar unos pocos cientos de euros para leer sus propios cerebros. Parecen unos auriculares extraños y aún no es posible mucho más que dar simples comandos, pero Haselager espera que eso cambie. También porque Silicon Valley ha estado observando las conexiones cerebro-computadora desde hace algún tiempo, por ejemplo, para operar equipos directamente con pensamientos a la velocidad del rayo. “Si se involucran tipos como Elon Musk y Mark Zuckerberg, entonces sabes que puede llegar a ser a gran escala”, predice Haselager.

Un auricular EEG comercial de Emotiv.  Imagen Emotiva

Un auricular EEG comercial de Emotiv.Imagen Emotiva

‘No debemos cometer el mismo error que en los primeros días de la Internet comercial. Luego regalamos nuestra privacidad a las grandes empresas tecnológicas”, dice el profesor. Aboga por la llegada de los neuroderechos, como una extensión de los derechos humanos. ‘¿Qué sucede con los datos de nuestro cerebro cuando nos ponemos un auricular EEG de este tipo? ¿Quién tiene acceso a esos datos? ¿Se puede utilizar este tipo de tecnología para la detección de mentiras? Creo que debería formular explícitamente lo que está permitido y dentro de qué contexto.’ Él lo llama libertad cognitiva: el derecho a guardar nuestros pensamientos para nosotros mismos.

Van Gerven está de acuerdo: ‘Gracias a la IA, los avances tecnológicos avanzan a la velocidad de la luz. El gobierno tendrá que vigilar las fronteras.



ttn-es-23