Desarrollando completamente la IA y advirtiendo al respecto. ¿Qué tan sinceras son las advertencias de los jefes tecnológicos?


Eran sólo 22 palabras, pero palabras muy grandes. Nada menos que la supervivencia de la humanidad estaría en juego.

Tres de los principales desarrolladores de inteligencia artificial (IA) emitieron una advertencia el martes una declaración por el peligro de su propio producto. En un poco más de palabras en holandés: “Reducir el riesgo de extinción de la IA debería ser una prioridad global, junto con otros riesgos que afectan a la sociedad en su conjunto, como las pandemias y las guerras nucleares”.

Más de 350 personas, muchas de las cuales trabajan ellas mismas en IA, ya han firmado la declaración. Una carta abierta preocupada del mismo trimestre ya apareció en marzo, pidiendo una pausa de al menos seis meses en el desarrollo de IA. Las empresas que desarrollan IA estarían “enredadas en un salirse de control para desarrollar y desplegar cerebros digitales cada vez más poderosos que nadie puede entender, predecir o controlar de manera confiable”.

Una diferencia importante con esa carta abierta es que la declaración del martes fue firmada nada menos que por los altos ejecutivos de tres empresas que están a la vanguardia del desarrollo de IA. Además de Sam Altman de OpenAI, la compañía detrás del bot de lenguaje ChatGPT, están Demis Hassabis de Google DeepMind y Dario Amodei de Anthropic, la única compañía de inteligencia artificial de dos años.

Parece una extraña contradicción. Como si los jefes de la IA dijeran: “¡Cuidado con nosotros, estamos jugando con fuego!” Dos de los llamados “padrinos de la IA”, Geoffrey Hinton y Yoshua Bengio, también pusieron sus nombres debajo de la declaración.

Lo más destacable de la última advertencia de posible desastre es que, aunque suena como una alarma muy grande, consta de una sola oración. No dice exactamente cuáles son esos grandes peligros, ni cómo podemos evitarlos.

Cerebros no humanos

La carta abierta en marzo sí lo hizo. Advirtió que la IA podría hacer que los medios se inundaran con propaganda y desinformación. Que los “cerebros no humanos” eventualmente podrían hacernos superfluos a los humanos. Que todos los trabajos, “incluso los que satisfacen”, podrían automatizarse y que “perderíamos el control de nuestra civilización”. Se abogó por seguir investigando los peligros, así como por la regulación, para llegar a una inteligencia artificial que sea segura, fiable, transparente e incluso, como si fuera un ser humano, “leal”.

En los últimos meses, los críticos de la IA también han otros escenarios sombríos esbozado. La IA conduciría a un tsunami de hackeos de casi todas las formas de seguridad digital que conocemos hoy. Los sistemas de armas autónomos podrían conducir a una revolución en la guerra con IA. Fabricar armas químicas y biológicas estaría repentinamente al alcance de todos. Y en el fondo siempre está el vago espectro de los sistemas informáticos con características humanas que eclipsan al ser humano real.

Los críticos plantean la cuestión de cuán genuinas son las preocupaciones de los líderes de las empresas de IA, si al mismo tiempo continúan trabajando a toda velocidad y a un ritmo acelerado en el desarrollo ulterior de la inteligencia artificial y sus aplicaciones, como el chatbot ChatGPT. Después de todo, estos se ponen a disposición del público en masa sin restricciones y sin revisión externa.

Una de esas críticas es Emily Bender, lingüista y experta en los llamados modelos de lenguaje grande (LLM), los enormes conjuntos de datos utilizados para el desarrollo de IA. ella y ella partidarios han estado señalando los peligros de la IA durante años. Pero no advirtiendo de la desaparición de la humanidad en un número desconocido de años, sino llamando la atención sobre los efectos negativos que las empresas de IA ya están causando. Ella ve la difusión de escenarios apocalípticos por parte del sector como una distracción calculada.

¡Cuidado, un monstruo!

Martes escribió Bender en la red social Mastodon: „Cuando los chicos de AI gritan ‘¡Cuidado, un monstruo!’ – para distraer a todos de sus prácticas (robo de datos, derroche de energía, refuerzo de prejuicios, contaminación del ecosistema de la información) – entonces deberíamos arrancarles la máscara”. Bender también denuncia la concentración del conocimiento, el dinero y el poder en manos de un número reducido de empresas y sus altos ejecutivos y la desigualdad social que esto refuerza. Y la presentación de la IA como un sistema con características humanas ignoraría el hecho de que la IA consiste en sistemas que reconocen patrones y “hablan” como loros.

A su vez, los líderes del desarrollo de la IA argumentan que, a pesar de los riesgos, se puede esperar mucho bien de la IA, desde el desarrollo de medicamentos contra el cáncer hasta bacterias que comen plástico y una solución al problema climático. Si solo discutimos cómo hacerlo de manera segura, argumentan, la IA en realidad puede ayudar a la humanidad a avanzar.

Que reconozcan los riesgos de su tecnología, aunque a más largo plazo, parece ser bien recibido por los políticos. Altman y Amodei, acompañados por altos ejecutivos de Google y Microsoft, pudieron ingresar a la Casa Blanca con el presidente Biden a principios de mayo. Ven a hablar de IA. Biden les recordó su responsabilidad de “mitigar los riesgos”, la misma redacción que respaldaron en la declaración del martes.

Lea también: AI: El nuevo oro en San Francisco

Hace dos semanas, Altman en el senado preguntó sobre los riesgos de la IA. A diferencia de los interrogatorios de Mark Zuckerberg de Meta y otros jefes de Big Tech que han sido interrogados con dureza y, a veces, con hostilidad en Capitol Hill, los senadores recibieron a Altman con respeto y asombro. Al reconocer los peligros potenciales de la IA y estar generalmente abierto a la regulación, les quitó el aliento a los interrogadores críticos.

Pero el Congreso de EE. UU. ha estado demasiado dividido durante años para ponerse de acuerdo sobre la regulación del sector tecnológico. En Europa es diferente. El Parlamento Europeo está muy avanzado con un proyecto de ley con reglas para la IA (como análisis de riesgo obligatorio y transparencia sobre los datos utilizados).

Molestia

Altman de OpenAI no pudo ocultar su molestia por esto la semana pasada, durante un viaje por Europa donde buscó una buena ubicación para una sede europea (y donde habló con los jefes de gobierno y estado de Reino Unido, Francia, Alemania, España y Polonia). En el Senado acababa de declarar lo importante que cree que es la regulación de la IA, pero en una visita a Londres amenazó a Bruselas con que su empresa considerará dar la espalda a Europa si las reglas se vuelven demasiado estrictas. Parecía ser un impulso para los cabilderos estadounidenses, que intentan diluir el proyecto de ley en Bruselas.

Pero un día después en París, Altman ya se había dado cuenta de que la amenaza no había caído bien. Se apresuró a declarar que OpenAI realmente tiene la intención de cumplir con las nuevas reglas europeas. “Queremos ofrecer nuestros servicios en Europa”.



ttn-es-33