La inteligencia artificial superará las capacidades del cerebro humano, pero estos avances tienen un coste.
Un analista de tecnología de IA dice que simplemente estamos… pasos lejos de descifrar el “código neuronal” que permite a las máquinas aprender conscientemente como los humanos.
Eitan Michael Azoff cree que estamos en el camino de crear una inteligencia superior que cuenta con mayor capacidad y velocidad.
El especialista en IA lo defiende en su nuevo libro, Hacia una inteligencia artificial de nivel humano: cómo la neurociencia puede orientar la búsqueda de la inteligencia artificial general.
Según Azoff, una de las claves pasos Para desbloquear la “IA a nivel humano” hay que comprender el “código neuronal”.
El término describe la forma en que nuestros cerebros codifican la información sensorial y realizan tareas cognitivas como pensar y resolver problemas.
Azoff dice que uno de los puntos críticos pasos El objetivo de construir una “IA a nivel humano” es emular la conciencia en las computadoras, probablemente sin autoconciencia, similar a lo que experimentan los humanos cuando se concentran en una tarea.
La conciencia sin autoconciencia ayuda a los animales a planificar acciones y recordar recuerdos, y podría hacer lo mismo con la IA.
La IA actual no “piensa” visualmente. Lenguaje de gran tamaño modelos Al igual que GPT-4, puede procesar y generar texto similar al humano.
Como el pensamiento visual precedió al lenguaje humano, Azoff cree que comprender este proceso y luego modelar el procesamiento visual será un paso crucial.
“Una vez que descifremos el código neuronal, diseñaremos cerebros más rápidos y superiores, con mayor capacidad, velocidad y tecnología de apoyo que superará al cerebro humano”, explicó Azoff.
“Lo haremos primero modelando el procesamiento visual, lo que nos permitirá emular el pensamiento visual”.
Sin embargo, el analista no cree que un sistema necesite estar vivo para tener conciencia.
Su lógica pone en tela de juicio el modo en que funciona la inteligencia artificial.
Aprendizaje automático actual modelos no pueden existir sin cierto grado de participación humana, ya que deben recibir constantemente datos nuevos y precisos.
IA de autoaprendizaje, que consume su propia producción o la de otros modelosdisminuye constantemente en la calidad de sus respuestas.
Esta “endogamia” se detecta cada vez con más frecuencia a medida que el contenido generado por IA inunda Internet y encuentra su camino de regreso a los conjuntos de datos.
Más allá de estos escollos, Azoff reconoce fácilmente el posible mal uso de la tecnología.
“Hasta que tengamos más confianza en las máquinas que construimos, debemos asegurarnos de que siempre se cumplan los dos puntos siguientes”, dijo Azoff.
“En primer lugar, debemos asegurarnos de que los humanos tengan el control exclusivo del botón de apagado. En segundo lugar, debemos construir sistemas de IA con reglas de seguridad de comportamiento implantadas”.
Pero queda una pregunta: ¿es este un desafío que debemos asumir?
La inteligencia artificial ya está demostrando ser impopular entre los consumidores, a medida que grandes empresas como Google y Meta continúan incorporando funciones de IA a sus servicios existentes.
Metapor su parte, ha admitido haber alimentado su inteligencia artificial con información extraída de los perfiles públicos de millones de usuarios de Facebook e Instagram.
Los usuarios dan su consentimiento de forma predeterminada cuando se registran para utilizar los servicios, y un formulario de exclusión voluntaria bien oculto solo se aplica a aquellos que pueden presentar un argumento legal convincente a favor de la protección de datos.
Y las empresas tecnológicas no tienen intención de bajar el ritmo en el futuro próximo. Ante las reacciones negativas, Microsoft ha reanudado el lanzamiento de su asistente virtual equipado con inteligencia artificial, Recall.
El lanzamiento se retrasó indefinidamente hasta la semana pasada, cuando Microsoft anunció que la herramienta estaría disponible para pruebas beta en octubre.
El programa toma capturas de pantalla cada pocos segundos para crear una biblioteca de contenido que se puede buscar y que luego la IA analiza.
Y las preocupaciones sólo continúan primavera En medio de una demanda en curso, OpenAI defendió el robo de material con derechos de autor, alegando que su modelos Lo necesito para funcionar.
Se espera que estos riesgos se intensifiquen a medida que la IA se desarrolle y, a medida que avance hacia una inteligencia sobrehumana, esto sin duda dará lugar a nuevos problemas.