Mustafa Suleyman y Eric Schmidt: Necesitamos una IA equivalente al IPCC


Manténgase informado con actualizaciones gratuitas

Los escritores son cofundadores de Inflection & DeepMind y ex director ejecutivo de Google.

La IA está aquí. Ahora viene lo difícil: aprender a gestionarlo y gobernarlo. A medida que los grandes modelos lingüísticos se han disparado en popularidad y capacidad durante el año pasado, las preocupaciones por la seguridad se han vuelto dominantes en el debate político. Por primera vez, la inteligencia artificial ocupa el primer lugar en la bandeja de entrada de los responsables políticos de todo el mundo.

Incluso para aquellos de nosotros que trabajamos en este campo, el ritmo de progreso ha sido electrizante. Y, sin embargo, ha sido igualmente revelador ver cómo la extraordinaria respuesta pública, empresarial y ahora política está ganando ritmo. Existe un consenso cada vez mayor de que este es realmente un punto de inflexión tan trascendental como Internet.

Tener claridad sobre lo que se debe hacer con respecto a esta tecnología floreciente es un asunto diferente. Las sugerencias prácticas son escasas. Es más, las medidas nacionales sólo pueden llegar hasta cierto punto, dada su naturaleza inherentemente global. Los llamados a “simplemente regular” son tan ruidosos y tan simplistas como los llamados a simplemente seguir adelante.

Antes de lanzarnos de lleno a una regulación excesiva, primero debemos abordar la falta básica de comprensión de los legisladores sobre qué es la IA, qué tan rápido se está desarrollando y dónde residen los riesgos más importantes. Antes de poder gestionarlo adecuadamente, los políticos (y el público) necesitan saber qué están regulando y por qué. En estos momentos reina la confusión y la incertidumbre.

Lo que falta es un organismo independiente dirigido por expertos facultado para informar objetivamente a los gobiernos sobre el estado actual de las capacidades de la IA y hacer predicciones basadas en evidencia sobre lo que está por venir. Los formuladores de políticas buscan evaluaciones imparciales, técnicamente confiables y oportunas sobre su velocidad de progreso e impacto.

Creemos que el enfoque correcto aquí es inspirarse en el Panel Intergubernamental sobre Cambio Climático (IPCC). Su mandato es proporcionar a los responsables de políticas “evaluaciones periódicas de la base científica del cambio climático, sus impactos y riesgos futuros, y opciones de adaptación y mitigación”.

Un organismo que haga lo mismo con la IA, uno que se centre rigurosamente en una recopilación de datos basada en la ciencia, proporcionaría no sólo una función de seguimiento y alerta temprana a largo plazo, sino que daría forma a los protocolos y normas sobre la presentación de informes sobre la IA de manera coherente. , moda mundial. ¿Qué modelos hay? ¿Qué pueden hacer? ¿Cuáles son sus especificaciones técnicas? ¿Sus riesgos? ¿Dónde podrían estar dentro de tres años? ¿Qué se está implementando, dónde y quién? ¿Qué dice la última investigación y desarrollo sobre el futuro?

La próxima cumbre sobre seguridad de la IA en el Reino Unido será la primera reunión de este tipo de líderes mundiales que se reunirán para discutir la seguridad de la tecnología. Para apoyar los debates y avanzar hacia un resultado práctico, proponemos un Panel Internacional sobre Seguridad de la IA (IPAIS), un IPCC para la IA. Este próximo paso necesario, medido y, sobre todo, alcanzable proporcionará una estructura muy necesaria al debate actual sobre la seguridad de la IA.

El IPAIS evaluaría periódica e imparcialmente el estado de la IA, sus riesgos, posibles impactos y plazos estimados. Estaría al tanto de las soluciones técnicas y políticas para aliviar los riesgos y mejorar los resultados. Significativamente, el IPCC no realiza su propia investigación fundamental, sino que actúa como un centro que reúne la ciencia sobre el cambio climático, cristalizando lo que el mundo sabe y no sabe de forma autorizada e independiente. Un IPAIS funcionaría de la misma manera, dotado y dirigido por informáticos e investigadores en lugar de funcionarios políticos o diplomáticos.

Esto es lo que lo convierte en un modelo tan prometedor: al mantenerse al margen de la investigación primaria o de las propuestas de políticas, puede evitar los conflictos de intereses que inevitablemente conlleva un papel más activo. Con un alcance estrictamente centrado en establecer una comprensión técnica profunda de las capacidades actuales y sus trayectorias de mejora, su gestión sería barata, imparcial e independiente, y se basaría en una amplia membresía internacional.

Dado que gran parte del trabajo más avanzado en IA lo realizan las empresas, es esencial garantizar suficiente transparencia por parte de las empresas líderes. Un IPAIS ayudará aquí incluso antes de que entren en juego los mecanismos legales, estableciendo un organismo confiable al que informar, creando expectativas y estándares en torno al intercambio para brindar espacio para una máxima apertura en un mercado comercial restringido. Cuando no sea posible el acceso completo, aun así agregaría toda la información disponible públicamente en la forma más completa y confiable.

Confianza, conocimiento, experiencia, imparcialidad. Éstas son las bases sobre las que se basará la seguridad y la regulación eficaz y sensata de la IA. Actualmente faltan. Creemos que establecer un consenso científico independiente sobre las capacidades que se han desarrollado y las que están por venir es esencial para desarrollar una IA segura. Esta es una idea cuyo tiempo ha llegado.

*Esta propuesta ha sido desarrollada conjuntamente por Mustafa Suleyman, Eric Schmidt, Dario Amodei, Ian Bremmer, Tino Cuéllar, Reid Hoffman, Jason Matheny y Philip Zelikow



ttn-es-56