Cómo la cumbre de Sunak en Bletchley Park pretende dar forma a la seguridad global de la IA


Desde que Rishi Sunak anunció en junio que el Reino Unido sería el anfitrión de la “primera gran cumbre mundial sobre seguridad de la inteligencia artificial”, los funcionarios de Westminster se han apresurado a reunir una lista de invitados de jefes tecnológicos, formuladores de políticas e investigadores dentro de un plazo límite.

La promesa de Sunak de organizar un evento de tan alto perfil en tan sólo seis meses no fue sólo un intento de posicionar al Reino Unido como líder en un nuevo campo candente. Los organizadores estaban ansiosos por avanzar antes de que empresas como Google y OpenAI lancen la próxima generación de sistemas de inteligencia artificial, dando a los líderes globales la oportunidad de establecer principios para gobernar la nueva y poderosa tecnología antes de que supere los esfuerzos para controlarla.

«Lo ideal sería que hubiéramos tenido un año para prepararnos», dijo una persona involucrada en la organización de la cumbre. “Nos hemos apresurado para que esto suceda antes del próximo [AI] Vienen modelos”.

Al enfatizar lo mucho que está en juego antes de la cumbre de la próxima semana en Bletchley Park, Sunak advirtió en un discurso el jueves que “la humanidad podría perder completamente el control de la IA” si la tecnología no recibía la supervisión adecuada, incluso cuando creaba nuevas oportunidades.

Después de que ChatGPT sacó a la luz pública la IA generativa (tecnología capaz de crear rápidamente texto, imágenes o códigos informáticos similares a los humanos) a finales del año pasado, ha habido una creciente preocupación sobre cómo se podría abusar del software. Los críticos dicen que la IA se utilizará para crear y difundir información errónea, aumentar los prejuicios dentro de la sociedad o ser utilizada como arma en ciberataques y guerras.

Rishi Sunak en Bletchley Park
Rishi Sunak dijo en Bletchley Park el jueves que el Reino Unido no se «apresuraría a regular» la IA. © Tolga Akmen/Pool/EPA-EFE/Shutterstock

Se espera que la próxima semana se unan al esfuerzo por establecer reglas básicas para el desarrollo de la «IA de frontera» líderes políticos de alrededor de 28 países, incluidos EE. UU., Europa, Singapur, los estados del Golfo y China, junto con altos ejecutivos de las grandes empresas tecnológicas y líderes Desarrolladores de IA.

El Financial Times ha obtenido una lista de empresas, gobiernos y organizaciones que se espera que asistan a la cumbre, que se publica en su totalidad al final de este artículo. Un portavoz del gobierno del Reino Unido dijo: «Como es habitual, no especularemos sobre posibles invitados».

Se espera que una lista de invitados de alrededor de 100 personas incluya al presidente de Microsoft, Brad Smith, al director ejecutivo de OpenAI, Sam Altman, al jefe de Google DeepMind, Demis Hassabis, y al jefe de Meta AI, Yann LeCun, y al presidente de asuntos globales, Nick Clegg. Elon Musk, el multimillonario tecnológico que a principios de este año formó una nueva empresa de inteligencia artificial llamada x.ai, ha sido invitado pero no se ha comprometido a asistir, según personas familiarizadas con el asunto.

Los grupos tecnológicos chinos Alibaba y Tencent asistirán, al igual que la Academia de Ciencias de China, el principal grupo de expertos científicos financiado por el estado del país, según la lista obtenida por el Financial Times. Una delegación del gobierno chino representada por el Ministerio de Ciencia y Tecnología, según personas familiarizadas con sus planes, asistirá.

Sin embargo, la selecta lista de asistentes a la cumbre ha generado críticas por parte de algunas organizaciones y ejecutivos ajenos a la industria tecnológica, que se sienten excluidos de la reunión.

Los representantes del primer ministro en materia de inteligencia artificial (el inversor en tecnología Matt Clifford y el exdiplomático Jonathan Black) han pasado la mayor parte de un mes en aviones visitando países para conocer sus posiciones sobre la IA y encontrar puntos en común.

Las personas involucradas en la cumbre dijeron que su mandato se había ampliado considerablemente en los meses transcurridos desde que Sunak la anunció por primera vez. Inicialmente, se había centrado casi exclusivamente en los riesgos para la seguridad nacional, como los ciberataques y la capacidad de utilizar IA para diseñar armas biológicas; ahora se espera que cubra todo, desde deepfakes hasta atención médica.

Dentro del gobierno ha habido desacuerdo sobre el alcance del evento, dijeron estas personas. El Departamento de Ciencia, Innovación y Tecnología quería una lista más amplia de invitaciones y debates más amplios sobre los impactos sociales de la IA, mientras que el Número 10 prefirió mantenerlo en manos de un pequeño grupo de naciones y jefes tecnológicos para centrarse en el cometido más limitado de la seguridad nacional.

«Ha sido un caos absoluto y nadie ha tenido claro quién tiene la firma en todo esto», dijo una persona involucrada en la cumbre.

La agenda final, el primer día, incluirá mesas redondas sobre formas prácticas de abordar la seguridad y lo que pueden hacer los formuladores de políticas, la comunidad internacional, las empresas de tecnología y los científicos. Terminará con un estudio de caso sobre el uso de la IA para el bien público en la educación.

El segundo día, encabezado por Sunak, alrededor de 30 líderes políticos y ejecutivos tecnológicos se reunirán en un ambiente más privado. Los temas cubiertos incluirán medidas para hacer que la IA sea segura, así como conversaciones bilaterales y comentarios finales del primer ministro anfitrión.

Uno de los productos de la cumbre será un comunicado cuyo objetivo es establecer la posición compartida de los asistentes sobre la naturaleza exacta de la amenaza que plantea la IA.

Un borrador anterior sugirió que afirmaría que la llamada «IA de frontera», la forma más avanzada de la tecnología que sustenta productos como ChatGPT de OpenAI y el chatbot Bard de Google, podría causar «daños graves, incluso catastróficos».

El comunicado es uno de los cuatro resultados clave que los organizadores están planeando a partir de la cumbre, según una fuente del gobierno informada sobre los planes. Los otros son la creación de un Instituto de Seguridad de la IA, un panel internacional que investigará los riesgos cambiantes de la IA y el anuncio del próximo país anfitrión del evento.

En el discurso del jueves, Sunak dijo que el Reino Unido no se “apresuraría a regular” la IA. En cambio, es probable que la cumbre se centre en los estándares de “mejores prácticas” para las empresas, dijeron funcionarios involucrados en el evento.

Sin embargo, el gobierno todavía está interesado en evaluar de forma independiente los modelos que impulsan los productos de IA. Los funcionarios han estado negociando con las empresas de tecnología sobre un acceso más profundo a sus sistemas. El gobierno también ha estado intentando comprar chips de empresas como Nvidia, para construir sistemas informáticos sofisticados que ejecuten pruebas de seguridad independientes en modelos de IA.

Parque Bletchley
Bletchley Park, sede de la cumbre de IA y hogar histórico de los descifradores de códigos y pioneros informáticos de Gran Bretaña en tiempos de guerra ©Jack Taylor/Getty Images

Un documento del gobierno, que se publicará el viernes, expondrá recomendaciones para desarrollar la escala de la IA de manera responsable. Las empresas deberían contar con políticas para apagar sus productos si no se puede evitar el daño de otra manera, emplear consultores de seguridad para tratar de «piratear» sus sistemas para identificar vulnerabilidades y crear etiquetas para el contenido creado o modificado por IA, dice el documento.

Michelle Donelan, ministra de tecnología del Reino Unido que preside el primer día de la cumbre, aboga por que las empresas de IA se suscriban a estos procesos en el evento.

«No deberíamos ni soñar con tener una empresa en este espacio sin implementar este proceso de seguridad», dijo Donelan al Financial Times. “Todas las empresas están de acuerdo en que las cosas tienen que cambiar. Están incómodos con la situación actual, que básicamente es que están marcando sus propios deberes, y por eso aceptaron trabajar con nosotros”.

Información adicional de Hannah Murphy, George Parker y Qianer Liu



ttn-es-56