Biden toma medidas para obligar a los grupos tecnológicos a compartir los resultados de las pruebas de seguridad de la IA


Manténgase informado con actualizaciones gratuitas

Las empresas cuyos modelos de inteligencia artificial podrían amenazar la seguridad nacional de Estados Unidos tendrán que compartir cómo garantizan la seguridad de sus herramientas bajo una orden radical de Joe Biden destinada a frenar los riesgos que plantea la nueva tecnología.

La orden que el presidente de EE.UU. emitido del lunes, es el paso más amplio dado por la administración hasta ahora para abordar las amenazas de la IA, desde la seguridad nacional hasta la competencia y la privacidad del consumidor. La medida busca movilizar agencias en todo Washington, incluidos los departamentos de comercio, energía y seguridad nacional.

“El presidente Biden está implementando el conjunto de acciones más sólidas que cualquier gobierno del mundo haya tomado jamás en materia de seguridad y confianza en la IA”, dijo Bruce Reed, subjefe de gabinete de la Casa Blanca. «Es el siguiente paso en una estrategia agresiva para hacer todo lo posible en todos los frentes para aprovechar los beneficios de la IA y mitigar los riesgos».

La orden se produce en un momento en que países de todo el mundo luchan por determinar cómo regular las empresas y los modelos de IA que los organismos de control individuales no captan de forma natural. Gary Gensler, presidente de la Comisión de Bolsa y Valores de Estados Unidos, dijo recientemente al Financial Times que una crisis financiera era “casi inevitable” dentro de una década si los reguladores no lograban gestionar los riesgos de la IA.

Las medidas se producen dos días antes de que la vicepresidenta Kamala Harris, la zar de la IA de la administración Biden, dé un discurso en Londres sobre la política estadounidense, antes de asistir a la cumbre de Bletchley Park en el Reino Unido, donde líderes mundiales y ejecutivos de empresas de tecnología discutirán posibles reglas básicas. para el desarrollo de la “IA de frontera”.

La UE se ha movido rápidamente, redactando medidas duras sobre el uso de la tecnología en una ley innovadora que se aprobará en su totalidad a finales de año. Pero Estados Unidos aún está evaluando qué aspectos requieren nueva regulación y cuáles están sujetos a los estatutos existentes.

Cuando se le preguntó si la ley de la UE había influido en la orden de Biden, un alto funcionario de la administración dijo: “No creo que estemos en una carrera. No creo que estemos tratando de ponernos al día”. Estados Unidos se había puesto en contacto con la UE y una «amplia gama» de estados miembros del bloque sobre la regulación de la IA, añadió el funcionario.

Figuras líderes de la industria, incluido el cofundador de OpenAI, Sam Altman, han viajado por todo el mundo este año para discutir el impacto potencial de las herramientas que están desarrollando. Altman y otros han adoptado un tono conciliador con los reguladores, pero se resistieron a los llamamientos para detener o frenar el desarrollo de una IA cada vez más poderosa.

En mayo, Altman dijo que su empresa podría “dejar de operar” en Europa si los esfuerzos de Bruselas para regular la tecnología fueran demasiado estrictos. Más tarde retrocedió los comentarios.

La orden de Biden intensifica la política estadounidense de inteligencia artificial después de que 15 empresas, incluidas Amazon, Google, Meta, Microsoft y OpenAI, asumieron compromisos voluntarios a principios de este año para gestionar los riesgos de la tecnología.

La Casa Blanca utilizará la Ley de Producción de Defensa, una ley de la guerra fría utilizada en el pico de la pandemia de Covid-19, para obligar a las empresas que desarrollen modelos de IA que representen riesgos graves para la seguridad nacional, la seguridad económica o la salud pública a notificar al gobierno cuando entrenen. estos sistemas y compartir los resultados de sus pruebas de seguridad.

Hasta la fecha, las empresas que compiten por el dominio de la IA normalmente han preferido mantener privados los diseños de sus modelos.

«Si las organizaciones no cumplen con esa ley, podríamos iniciar acciones apropiadas ante el Departamento de Justicia para hacerla cumplir», dijo el alto funcionario. Pero enfatizó que estos requisitos capturarían «principalmente» la próxima generación de las herramientas de inteligencia artificial más poderosas del mundo y no «captarían ningún sistema actualmente en el mercado».

Según la orden, el departamento de comercio debe elaborar directrices sobre la adición de marcas de agua al contenido generado por IA en un intento por abordar el «fraude y el engaño», incluidos los deepfakes.

Las medidas también buscan promover la competencia en el sector de la IA y alentar a la Comisión Federal de Comercio a “ejercer sus autoridades” en un momento en que los reguladores antimonopolio estadounidenses han advertido contra posibles monopolios que surgen de la dependencia estructural de escala de la tecnología.

La orden aborda los riesgos de privacidad e insta al Congreso a aprobar una legislación sobre privacidad de datos mientras busca una evaluación de cómo las agencias recopilan y utilizan la “información disponible comercialmente”. También pide medidas para frenar los daños causados ​​por la IA a los trabajadores y pacientes médicos, así como abordar la “discriminación algorítmica” en vivienda, atención médica y justicia.

Aún no está claro hasta qué punto la orden se implementará según lo previsto. Si bien la Casa Blanca puede valerse de ciertas leyes para emprender acciones coercitivas o ordenar a los departamentos que desarrollen directrices, sólo puede alentar a otras agencias independientes, como la FTC, a implementar el plan de Biden.

El alto funcionario dijo que si bien las órdenes ejecutivas “tienen fuerza de ley”, Biden ha dicho “que íbamos a necesitar una legislación bipartidista para hacer más en inteligencia artificial”. Muchas de las prioridades del presidente “requieren acción legislativa para ejecutarse plenamente. . . No estamos sugiriendo en absoluto que este sea el final del camino hacia la gobernanza de la IA”.



ttn-es-56