Regular la inteligencia artificial es un desafío 4D


El escritor es fundador de tamizadoun sitio respaldado por FT sobre nuevas empresas europeas

Los líderes de las naciones del G7 abordaron muchas preocupaciones globales sobre las ostras Nomi al vapor con sake en Hiroshima el fin de semana pasado: la guerra en Ucrania, la resiliencia económica, la energía limpia y la seguridad alimentaria, entre otras. Pero también arrojaron un elemento adicional a su bolsa de despedida de buenas intenciones: la promoción de una inteligencia artificial inclusiva y confiable.

Si bien reconocieron el potencial innovador de AI, los líderes se preocuparon por el daño que podría causar a la seguridad pública y los derechos humanos. Lanzamiento del proceso de IA de Hiroshima, el G7 encargó a un grupo de trabajo analizar el impacto de los modelos generativos de IA, como ChatGPT, y preparar las discusiones de los líderes para fines de este año.

Los desafíos iniciales serán cómo definir mejor la IA, categorizar sus peligros y enmarcar una respuesta adecuada. ¿Es mejor dejar la regulación a las agencias nacionales existentes? ¿O es la tecnología tan importante que exige nuevas instituciones internacionales? ¿Necesitamos el equivalente moderno de la Agencia Internacional de Energía Atómica, fundada en 1957 para promover el desarrollo pacífico de la tecnología nuclear y disuadir su uso militar?

Uno puede debatir cuán efectivamente el organismo de la ONU ha cumplido esa misión. Además, la tecnología nuclear involucra material radiactivo e infraestructura masiva que es físicamente fácil de detectar. La IA, por otro lado, es comparativamente barata, invisible, omnipresente y tiene infinitos casos de uso. Como mínimo, presenta un desafío de cuatro dimensiones que debe abordarse de manera más flexible.

La primera dimensión es la discriminación. Los sistemas de aprendizaje automático están diseñados para discriminar, para detectar valores atípicos en los patrones. Eso es bueno para detectar células cancerosas en exploraciones radiológicas. Pero es malo si los sistemas de caja negra entrenados en conjuntos de datos defectuosos se utilizan para contratar y despedir trabajadores o autorizar préstamos bancarios. Sesgo hacia adentro, sesgo hacia afuera, como dicen. Prohibir estos sistemas en áreas de alto riesgo inaceptable, como propone la próxima Ley de IA de la UE, es un enfoque estricto y precautorio. Crear auditores independientes y expertos podría ser una forma más adaptable de hacerlo.

En segundo lugar, la desinformación. Como advirtió el experto académico Gary Marcus al Congreso de EE. UU. la semana pasada, la IA generativa podría poner en peligro la democracia misma. Dichos modelos pueden generar mentiras plausibles y humanos falsificados a la velocidad del rayo y a escala industrial.

La responsabilidad debería recaer en las propias empresas de tecnología para marcar el contenido y minimizar la desinformación, al igual que suprimieron el correo no deseado. El no hacerlo solo amplificará los llamados a una intervención más drástica. Es posible que el precedente se haya sentado en China, donde un proyecto de ley atribuye la responsabilidad del mal uso de los modelos de IA al productor y no al usuario.

Tercero, dislocación. Nadie puede pronosticar con precisión qué impacto económico tendrá la IA en general. Pero parece bastante seguro que conducirá a la «desprofesionalización» de franjas de trabajos administrativos, como dijo la empresaria Vivienne Ming en el festival FT Weekend en DC.

Los programadores informáticos han adoptado ampliamente la IA generativa como una herramienta para mejorar la productividad. Por el contrario, los sorprendentes guionistas de Hollywood pueden ser los primeros de muchos oficios que temen que sus habilidades básicas sean automatizadas. Esta historia desordenada desafía las soluciones simples. Las naciones tendrán que adaptarse a los desafíos sociales a su manera.

Cuarto, devastación. La incorporación de la IA en los sistemas letales de armas autónomas (LAWS, por sus siglas en inglés), o robots asesinos, es una perspectiva aterradora. El principio de que los seres humanos siempre deben permanecer en el circuito de toma de decisiones solo puede establecerse y aplicarse a través de tratados internacionales. Lo mismo se aplica a la discusión sobre la inteligencia artificial general, el día (posiblemente ficticio) en que la IA supera a la inteligencia humana en todos los dominios. Algunos activistas descartan este escenario como una fantasía que distrae. Pero seguramente vale la pena prestar atención a los expertos que advierten sobre los posibles riesgos existenciales y piden una colaboración de investigación internacional.

Otros pueden argumentar que tratar de regular la IA es tan inútil como rezar para que el sol no se ponga. Las leyes solo evolucionan de forma incremental, mientras que la IA se desarrolla exponencialmente. Pero Marcus dice que se sintió alentado por el consenso bipartidista para la acción en el Congreso de los Estados Unidos. Tal vez temerosos de que los reguladores de la UE puedan establecer normas globales para la IA, como lo hicieron hace cinco años con la protección de datos, las empresas tecnológicas de EE. UU. también respaldan públicamente la regulación.

Los líderes del G7 deberían alentar una competencia por buenas ideas. Ahora necesitan desencadenar una carrera regulatoria hacia la cima, en lugar de presidir un deslizamiento aterrador hacia el fondo.



ttn-es-56