Cómo la ciencia ficción ayudó a escribir el primer libro de reglas de la IA


Manténgase informado con actualizaciones gratuitas

El escritor es vicepresidente de la Comisión Europea para los valores y la transparencia

Poco antes de que comenzara la cumbre internacional sobre inteligencia artificial en Bletchley Park el mes pasado, fui a tomar un bocado rápido a un pub cercano. Un hombre se sentó frente a mí y sacó un libro de bolsillo arrugado. En la portada aparecía Isaac Asimov, uno de los autores más famosos de la ciencia ficción. Seguramente esto no fue una coincidencia. Asimov se adelantó a su tiempo cuando, a mediados del siglo XX, anticipó el poderoso papel que la IA tendría en nuestras vidas. En sus libros, imaginó una serie de leyes que garantizarían que los robots no lastimaran ni dañaran a los humanos, sino que los obedecieran.

Ese hombre con su libro me recordó la importancia de que nosotros, los políticos, logremos un resultado similar mientras me dirigía a la cumbre para debatir el futuro de la IA segura. Durante mis viajes a Londres, Tokio, Washington, Beijing y, por supuesto, Bruselas el otoño pasado, reflexioné sobre el hecho de que estábamos escribiendo el primer libro de reglas del mundo para regular procesos informáticos que son mucho más rápidos y poderosos que los humanos.

Los negocios reales rápidamente superaron a la ciencia ficción. Con políticos chinos en Beijing, discutí su legislación modelo. No difiere tanto del nuestro en el aspecto técnico, sino más bien en lo que podría contribuir al control estatal sobre la sociedad. Los representantes en EE.UU., que anteriormente habían tenido un enfoque bastante desregulado, señalaron la orden ejecutiva de la administración Biden sobre IA a finales de octubre. Y más cerca de casa, en nombre de la UE, dirigí las negociaciones en el grupo de países del G7. Allí pudimos lograr una legislación previnculante a nivel global: un código voluntario para desarrolladores de IA que incorpora la responsabilidad por la seguridad y el intercambio de información.

Europa también ha respondido rápidamente a la demanda de una IA segura. El marco propuesto para 2021 se aceleró a medida que se hizo evidente la necesidad urgente de hacer que la tecnología fuera segura y beneficiosa. El llamado diálogo a tres bandas (el gran final entre la presidencia española, el parlamento y la comisión) duró 36 horas este mes pero finalmente terminó con un compromiso histórico.

Las necesidades de las personas guiaron todos y cada uno de los párrafos. La ley garantiza la seguridad y la protección de los derechos humanos básicos frente a sistemas superinteligentes, que a la larga podrían resultar mejores pensadores que nosotros. Hemos creado varias categorías de riesgo para la IA: las de bajo riesgo incluyen videojuegos y algoritmos para clasificar nuestros correos electrónicos (cosas de las que estoy seguro todos nos beneficiaríamos). Los de alto riesgo tendrán que cumplir requisitos más estrictos, ya sean dispositivos médicos o influir en el comportamiento de los votantes en las urnas.

La lista de lo inaceptable incluye aquello que amenaza nuestros derechos humanos fundamentales. Esto podría incluir sistemas de clasificación biométrica basados ​​en religión o raza, reconocimiento de emociones en el lugar de trabajo o la extracción no selectiva de rostros de cámaras en lugares públicos (se harán excepciones por cuestiones de seguridad nacional).

Pero también somos conscientes de las posibles recompensas de una IA segura y, de hecho, queremos hacer de la UE un centro para ella. Por eso hemos decidido poner nuestros superordenadores a disposición de las pymes y empresas emergentes europeas de IA. También invertiremos más de mil millones de euros al año en investigación sobre IA de Horizon y Digital Europe.

Nuestro acuerdo político aún debe ser confirmado por los estados miembros y el parlamento europeo. La ley entrará en vigor por fases y la legislación completa está prevista provisionalmente para 2026. Mientras tanto, la IA seguirá transformando todas nuestras vidas. Le confiaremos muchas actividades en las que podría reemplazar a los humanos, pero no aquellas en las que podría hacerse cargo de nuestros derechos fundamentales, como la libertad de expresión o la protección de la propiedad intelectual.

He creído desde el principio que el contenido creado por la IA debe etiquetarse, de modo que el pensamiento y la creatividad humanos queden con algo parecido al “derecho de autor humano”. Ya estamos aprendiendo cómo la tecnología puede cambiar nuestras percepciones de la realidad y la verdad. La inteligencia artificial trabaja con los datos que tiene a su disposición. No sabe lo que es verdad. Y en un mundo donde los deepfakes pueden surgir de la nada, siempre corremos el peligro de perder el control de la realidad.

En eso estaba pensando cuando el inglés que estaba al otro lado de la mesa me recordó las leyes de Asimov. Éstas se han transformado ahora, junto con otras medidas, en la primera norma jurídica europea, que bien podría convertirse en la base de todas las regulaciones similares en todo el mundo. Debemos mantener el control de los robots y la inteligencia artificial para garantizar que la verdad y los derechos humanos puedan prevalecer en el futuro en lugar de convertirse en ciencia ficción.



ttn-es-56