Las empresas de inteligencia artificial aceptan pruebas gubernamentales de su tecnología


Manténgase informado con actualizaciones gratuitas

Las principales empresas de inteligencia artificial han acordado permitir que gobiernos, incluidos el Reino Unido, Estados Unidos y Singapur, prueben sus últimos modelos en materia de seguridad nacional y otros riesgos antes de presentarlos a empresas y consumidores.

Empresas como OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft y Meta firmaron el jueves un documento “histórico” pero no legalmente vinculante, cerrando una cumbre de seguridad de IA de dos días en el Reino Unido.

El documento fue firmado por gobiernos que también incluían a Australia, Canadá, la UE, Francia, Alemania, Italia, Japón y Corea del Sur. China no fue signataria.

Un panel internacional de expertos también presentará un informe anual sobre la evolución de los riesgos de la IA, incluidos los prejuicios, la desinformación y riesgos “existenciales” más extremos, como la ayuda al desarrollo de armas químicas.

«Creo que los logros de esta cumbre inclinarán la balanza a favor de la humanidad», afirmó Rishi Sunak, primer ministro del Reino Unido y anfitrión del evento inaugural. «Trabajaremos juntos para probar la seguridad de los nuevos modelos de IA antes de su lanzamiento».

«Estamos por delante de cualquier otro país en el desarrollo de herramientas y capacidades para mantener a la gente segura», dijo Sunak desde Bletchley Park, el edificio que albergó a los descifradores de códigos de la Segunda Guerra Mundial.

La vicepresidenta estadounidense, Kamala Harris, y la presidenta de la Comisión Europea, Ursula von der Leyen, estuvieron en la cumbre, que también reunió a otras naciones aliadas para discutir temas delicados de seguridad nacional.

Cuando se le preguntó a Sunak si el Reino Unido necesitaba ir más allá estableciendo regulaciones vinculantes, dijo que redactar y promulgar legislación “lleva tiempo”.

«Es vital que establezcamos formas de evaluar y abordar los desafíos actuales que presenta la IA, así como los riesgos potenciales de la tecnología que aún no existe», dijo Nick Clegg, presidente de asuntos globales de Meta.

El gobierno de Estados Unidos emitió una orden ejecutiva el lunes en el paso más amplio de la administración para abordar las amenazas de la IA. Estados Unidos también dijo esta semana que planea crear su propio instituto para vigilar la IA. El Reino Unido acordó asociaciones con el Instituto de Seguridad de la IA de EE. UU. y con Singapur para colaborar en las pruebas de seguridad de la IA.

El informe de riesgos de la IA, acordado por 20 países, se inspirará en el Panel Intergubernamental sobre Cambio Climático, y el primero estará presidido por Yoshua Bengio, profesor de informática de la Universidad de Montreal.

Un grupo de trabajo de IA del gobierno del Reino Unido realizó una serie de pruebas de seguridad en los principales modelos de IA para evaluar posibles fallas o riesgos de abuso, según varias personas en una de las sesiones de la cumbre. Entre ellos se incluía cómo los modelos podrían presentar una mayor capacidad para difundir desinformación, coordinar ciberataques o planificar ataques con armas biológicas y químicas.

Jack Clark, cofundador de la startup de inteligencia artificial Anthropic, dijo al Financial Times que era necesario que hubiera un “árbitro” externo e independiente para probar la seguridad de los modelos en desarrollo.

«Seguiremos haciendo nuestras propias pruebas», dijo, «pero realmente quiero que haya una autoridad de pruebas legítima de terceros a la que podamos realizar pruebas y escuchar los resultados».

Regístrese para el Cumbre del FT sobre el futuro de la IA el 15 y 16 de noviembre

Vídeo: ¿Puede la IA generativa estar a la altura de las expectativas? | Tecnología FT



ttn-es-56