La cumbre de inteligencia artificial de Sunak logra un ‘golpe diplomático’ pero expone las tensiones globales


En la cumbre de Rishi Sunak sobre inteligencia artificial esta semana, un delegado dijo que el Primer Ministro británico había dado un “golpe diplomático” al lograr que funcionarios estadounidenses y chinos se unieran sobre la necesidad de controlar la IA.

En medio de las crecientes tensiones comerciales y tecnológicas entre Washington y Beijing, el delegado chino, el Dr. Wu Zhaohui, sorprendió a algunos en el evento de dos días en Bletchley Park, Inglaterra, al coincidir en que estaban unidos por los valores comunes de “democracia” y “libertad” en el mundo. luchar contra los usos maliciosos de la IA.

Los amplios compromisos de 28 naciones para trabajar juntos para abordar los riesgos existenciales derivados de la IA avanzada, además de atraer a figuras tecnológicas líderes desde Tesla y el jefe de X, Elon Musk, hasta Sam Altman de OpenAI, llevaron a muchos a decir que la cumbre de IA de Sunak había sido un éxito.

“Es un gran ejemplo del poder de convocatoria del Reino Unido, porque tiene a todas estas personas bajo un mismo techo”, dijo Jean Carberry, subsecretario de política digital del Departamento de Empresa, Comercio y Empleo de Irlanda. “Ha sido bastante catalizador”.

Pero la cumbre de Bletchley Park también ha expuesto tensiones subyacentes sobre el desarrollo de la IA. La vicepresidenta estadounidense, Kamala Harris, celebró una conferencia de prensa en Londres durante la cumbre, donde explicó en detalle la intención de su país de escribir sus propias reglas del juego.

“Seamos claros: cuando se trata de IA, Estados Unidos es un líder mundial. Son las empresas estadounidenses las que lideran el mundo en innovación en IA. Es Estados Unidos quien puede catalizar la acción global y construir un consenso global de una manera que ningún otro país puede hacerlo”, dijo Harris, intencionadamente.

A principios de semana, el presidente Joe Biden emitió una orden ejecutiva que obligaba a las empresas de inteligencia artificial cuyos modelos podrían amenazar la seguridad nacional de Estados Unidos a compartir cómo garantizan la seguridad de sus herramientas.

En Bletchley, EE.UU. también anunció un plan para crear su propio Instituto de Seguridad de la IA, dotado de expertos para monitorear los riesgos, que trabajaría en estrecha colaboración con un organismo similar creado por el Reino Unido que tiene ambiciones de desempeñar un mayor papel global en la investigación de los riesgos relacionados con la IA.

Un político presente dijo que la apropiación de tierras por parte de Estados Unidos era “inevitable”. “La IA es el próximo gran avance, y nadie va a darse la vuelta y hacerse el muerto y decir que tú te haces cargo”, dijeron. “China no va a permitir que eso suceda, y ciertamente Estados Unidos no lo hará”.

La persona agregó que una de las razones por las que los chinos habían sido tan dóciles en el desarrollo de una posición conjunta sobre la gobernanza global de la IA era que “jugar bien” y actuar como un “socio responsable” podría ayudar a fomentar conversaciones sobre la relajación de las barreras comerciales impuestas. por Estados Unidos más adelante.

Otra fuente de debate fue si se debe permitir que los modelos sofisticados de IA sean “abiertos” o “cerrados”. Algunas empresas como Meta y nuevas empresas como Hugging Face, Mistral y Stability AI están construyendo sistemas de inteligencia artificial de código abierto, lo que quieren decir que los detalles técnicos del nuevo modelo se harán públicos.

Esto contrasta con el enfoque de competidores como OpenAI y Google, respaldados por Microsoft, que crean la llamada caja negra en la que los datos y el código utilizados para construir modelos de IA no están disponibles para terceros.

Los defensores de los modelos cerrados dicen que pueden cumplir mejor con regulaciones estrictas, controlar quién tiene acceso a ellos y evitar que caigan en manos de actores maliciosos. Pero otros sostienen que los modelos abiertos ayudarán a garantizar que los países y grupos académicos con menos recursos puedan desarrollar sus propios sistemas de IA.

“En estas discusiones, hay objetivos contradictorios. Y veo países. . . que quieran asegurarse de poder ponerse al día con los últimos avances. . . diciendo cosas como ‘deberíamos compartir todo’”, dijo Yoshua Bengio, director científico del Instituto de Algoritmos de Aprendizaje de Montreal y pionero del aprendizaje profundo, la tecnología detrás de los sofisticados modelos de IA actuales.

Pero añadió: “El código abierto es el modelo más sólido. . . peligroso desde el punto de vista de la seguridad. Una vez que puedas tener acceso a los pesos en el sistema, puedes convertirlos fácilmente en algo malicioso”.

Emad Mostaque, fundador y director ejecutivo de la empresa de IA de imagen Stability AI, que funciona con tecnología de código abierto, dijo que Francia había sido particularmente vocal en su apoyo a un mayor acceso a modelos sofisticados de IA, en parte debido a su nueva empresa local de IA, Mistral. que está creando software de código abierto.

“Pero, en última instancia, casi todos los funcionarios gubernamentales con los que hablo se dan cuenta de que los gobiernos deben funcionar de forma abierta. En las industrias reguladas no se pueden tener cajas negras”, afirmó. “Existe una cuestión de seguridad nacional: ¿realmente se puede confiar en que alguien más haga esta tecnología?”

Musk, que creó su propia empresa X.AI y que anteriormente abogó por una moratoria sobre el desarrollo de sistemas de IA más avanzados, le dijo a Sunak que tenía “un ligero sesgo hacia el código abierto” porque tiende a retrasarse seis a seis respecto al código cerrado. 12 meses y “al menos se ve lo que está pasando”.

“Este enfoque en una pausa y en los riesgos catastróficos de la IA le conviene a Musk porque está atrasado [on developing AI]”, dijo una persona que asistió a una sesión en la cumbre con el multimillonario. Agregaron que cuando “algunas de las empresas líderes hacen hincapié en resultados catastróficos, existen riesgos de captura regulatoria”, donde los legisladores están influenciados por intereses comerciales por encima de las preocupaciones del público en general.

Las naciones en desarrollo, habiendo sido excluidas de las recompensas de revoluciones tecnológicas anteriores, buscaron compromisos de que esto no volvería a suceder.

“A muchos países, especialmente en el sur global, les resulta inasequible participar en la economía digital del mundo”, dijo Rajeev Chandrasekhar, ministro indio de Electrónica y TI. “Ese tiempo ya pasó. Los beneficios de la tecnología deberían estar disponibles para . . . todos los países del mundo”.

Vidushi Marda, cofundador de la organización sin fines de lucro REAL ML, que asistió, dijo que “fue alentador ver que centrarse primero en la regulación a nivel nacional era una prioridad clave emergente”, para evitar repetir errores históricos.

Las próximas ediciones de la cumbre se celebrarán en Corea del Sur dentro de seis meses, seguida de Francia dentro de un año. Si bien el evento de Bletchley se centró en la alineación en torno a lo que se debe hacer, los participantes dijeron que los dos próximos se centrarían en la acción: regulación concreta y propuestas de investigación sobre cómo se podrían evaluar los modelos de IA.

Marija Pejčinović Burić, secretaria general del Consejo de Europa, dijo: “El desafío de la IA es tan grande y su desarrollo es exponencial, lo que significa que no podemos darnos el lujo de dejarlo de lado y centrarnos en otra cosa”.



ttn-es-56