El año 2023 será el de la singularidad tecnológica, el momento en el que las inteligencias artificiales empezarán de repente a volverse autónomas, cambiando radicalmente la sociedad humana. Ya quedan pocas semanas…
El año 2023 será el de la singularidad tecnológica, el momento en el que las inteligencias artificiales empezarán de repente a volverse autónomas, cambiando radicalmente la sociedad humana. Sólo quedan unas pocas semanas para que este pronóstico establecido en un libro de 1993 de Vernor Vinge, un autor de ciencia ficción con formación científica, se haga realidad. De hecho y pese al rendimiento de ChatGPT, lanzado públicamente hace un año, estamos lejos de ello. Sin embargo, este miedo y sus diferentes variantes, como la inteligencia artificial general, salen a la luz periódicamente. A riesgo de oscurecer en ocasiones los peligros muy concretos de la IA.
De la ciencia a la ciencia ficción, a la ciencia
Los días 1 y 2 de noviembre, el Reino Unido organizó una importante cumbre sobre seguridad de la IA en Bletchley Park, donde Alan Turing descifró el código Enigma. El tono de la reunión lo marcó Rishi Sunak, Primer Ministro, poco antes del inicio de la reunión. A los periodistas expresó su preocupación: “ sin querer ser alarmista “, que la IA” podría plantear riesgos a una escala como pandemias o guerra nuclear “. Una formulación cercana a un texto sucinto del Centro para la Seguridad de la IA, publicado unos meses antes y firmado por grandes nombres de la tecnología, como Sam Altman, Bill Gates y otros líderes empresariales o investigadores en diversos campos, incluida la IA.
Sin referirse explícitamente a ello, estas observaciones apocalípticas se refieren a varios conceptos cuyo núcleo es la singularidad o la IA general. La idea de que la inteligencia artificial supera al ser humano en todos los sentidos y, en última instancia, lo destruye. Estos comentarios no son nuevos. Mientras Alan Turing hablaba precisamente de aprendizaje automático, a finales de los años 40, el célebre escritor Isaac Asimov ya exploraba en sus cuentos la posibilidad de la emancipación, o no, de los robots. La inteligencia artificial en sí no nació oficialmente hasta 1955. El cine está lleno de estas máquinas que tienden a la autonomía. Si ciertas películas, como Suimaginemos un empoderamiento pacífico de la IA, la imagen catastrófica de una terminador o un Matriz dominado.
Estas teorías han encontrado y siguen encontrando seguidores mucho más allá del mundo de la imaginación. En 2014, el eminente científico Stephen Hawking tomó su pluma para alertar a los humanos del peligroso camino que empezaba a tomar. Elon Musk, presente en la cumbre británica, es una de esas personalidades que se alarman periódicamente por el tema. Su miedo estaría incluso en el origen de varias de sus inversiones. Su biógrafo, Walter Isaacson, dice que los intentos del multimillonario de tener en sus manos la startup de IA DeepMind fueron motivados en parte por el deseo de quitarle a Larry Page de Google, cuyas ideas de IA le parecían peligrosas. Neuralink pretende explícitamente dar forma a un ser humano capaz de competir con la IA. Cofundó OpenAI contra DeepMind. La temprana mención de Asimov en la obra de Isaacson entre las referencias juveniles de Musk no es inocente.
Con las tecnologías actuales, la IA rebelde no está en la agenda
Estas teorías sobre el empoderamiento de la IA, temidas por los multimillonarios tecnológicos, ingenieros y científicos de renombre, despiertan tanto escepticismo e incluso desconfianza. Jean-Gabriel Ganascia, profesor emérito de la Universidad de la Sorbona, escribió un ensayo con un título evocador: El mito de la singularidad. Este investigador de inteligencia artificial y especialista en cuestiones éticas escribe que “ Nada en el estado actual de las técnicas de IA nos permite afirmar que los ordenadores pronto podrán mejorar indefinidamente sin la ayuda de los humanos, hasta el punto de correr, superarnos y adquirir su autonomía. “. El autor está molesto por un cambio de paradigma. En los años 50 y 80, la ciencia ficción se inspiraba en teorías científicas para alimentar sus historias, hoy estas historias alimentan las reflexiones de los investigadores.
Desde la publicación del trabajo de Jean-Gabriel Ganascia, una nueva tecnología ha cobrado protagonismo: la IA generativa. Un éxito popular que alimenta la ansiedad. Sin embargo, ” ChatGPT, para nosotros, los científicos, no es una revolución. La ciencia detrás de esto no es nueva. Durante 10 o 15 años, es más o menos el mismo marco de pensamiento que se ha utilizado » comentó a Siglo digital Sylvain Petitjean, responsable del proyecto del presidente del Instituto Nacional de Investigación en Ciencias y Tecnologías Digitales (Inria) para la creación de un organismo nacional de reflexión sobre la ética de la investigación en ciencias digitales. Comparte dudas sobre la hipótesis de que una IA generalizada lleve a la humanidad a la extinción con el nivel tecnológico actual. Expresidente del Comité Operativo de Evaluación de Riesgos Legales y Éticos del Inria, el investigador lamenta que “ Esta narrativa ha llegado a boca de los políticos, llevada por los grandes industriales tecnológicos. “. Él ve ” un error fundamental “trayendo” olvidar todo lo demás “.
¿El cinismo como fuerza impulsora detrás de un miedo fantaseado?
Los periodistas que cubrieron la Cumbre de Seguridad de AI dieron testimonio de las difíciles discusiones que culminaron en la Declaración de Bletchley, firmada por los 28 estados representados. Además del supuesto riesgo existencial de la IA, planteado por el gobierno británico, otros quisieron y lograron mencionar los peligros muy concretos y actuales de esta tecnología.
La vicepresidenta de Estados Unidos, Kamala Harris, no ocultó antes de la reunión su frustración por el marco inicial propuesto por Rishi Sunak, “ Seamos claros: hay otras amenazas que también exigen nuestra acción. Amenazas que actualmente causan daño y que, para muchas personas, también parecen existenciales “. El vicepresidente estadounidense citó la “pornografía de venganza” basada en fotografías manipuladas por IA, los sesgos discriminatorios y sus consecuencias en la sociedad, o la creación de información falsa que supera la realidad. Podríamos agregar la cuestión de la confidencialidad de los datos o los derechos de autor.
En opinión de Sylvain Petitjean, centrarse en el escenario abstracto de una IA que amenaza a la humanidad a través de su autonomía es una distracción para grandes grupos. Estos últimos también financian en gran medida la investigación en este ámbito. En primer lugar, les permite posicionarse como las únicas organizaciones con las habilidades técnicas para prevenir desastres. Para ello, deben tener las manos libres y autorregularse. Entonces, cuestionar las amenazas lejanas nos permite evitar cuestionar las actuales. Finalmente, ” en la forma en que estas tecnologías fueron liberadas en la naturaleza. Hay una forma de irresponsabilidad, de estos gigantes tecnológicos, porque es poderosa, porque no está controlada. “. El auge de la IA generativa en el espacio público, iniciado por OpenAI y seguido por aquellos que, como Google, hasta entonces habían sido más cautelosos, se llevó a cabo apresuradamente, sin las salvaguardias necesarias.
Por tanto, parece necesaria la supervisión estatal. Problema, como lo demuestra la AI Act de la Unión Europea, el texto sobre el tema más avanzado en su trámite legislativo, regular lleva tiempo. Fue presentado por la Comisión Europea en 2021 y su adopción aún encuentra dificultades. Por el contrario, con la IA, ” Estamos trabajando en tecnologías que tienen ciclos de desarrollo muy cortos, con innovaciones en ciclos extremadamente rápidos. » señala Sylvain Petitjean. “ Mientras tanto, ¿cómo acercamos las tecnologías y los valores a la sociedad? Aquí es donde entra en juego la ética, intentaremos confrontar los avances de la ciencia y la tecnología, con los valores de la sociedad, los valores fundamentales. “.