OpenAI se suma a la oposición al proyecto de ley de seguridad de la IA en California


Manténgase informado con actualizaciones gratuitas

OpenAI criticó un proyecto de ley de California que busca garantizar que la inteligencia artificial poderosa se implemente de manera segura y sugirió que nuevos controles amenazarían su crecimiento en el estado, uniéndose a un frenesí de cabildeo de último momento por parte de inversores y grupos de IA para bloquear la legislación.

El proyecto de ley, SB 1047, amenaza “el estatus único de California como líder mundial en IA”, escribió el director de estrategia de la compañía, Jason Kwon, en una carta a Scott Wiener, el senador estatal de California que encabeza el proyecto de ley.

Podría “desacelerar el ritmo de la innovación y llevar a los ingenieros y empresarios de clase mundial de California a abandonar el estado en busca de mayores oportunidades en otro lugar”, añadió.

La SB 1047 ha dividido a Silicon Valley. Si bien existe una aceptación generalizada de la necesidad de limitar los riesgos de los nuevos modelos de IA superpoderosos, los críticos han argumentado que las propuestas de Wiener sofocarían las empresas emergentes, beneficiarían a los rivales de Estados Unidos y socavarían la posición de California en el epicentro de un auge de la IA.

OpenAI es la última startup que se opone a elementos del proyecto de ley, y la más destacada, en gran medida gracias a la popularidad de su chatbot ChatGPT y a un compromiso de 13 mil millones de dólares de su socio Microsoft.

OpenAI apoya las disposiciones para garantizar que los sistemas de IA se desarrollen e implementen de forma segura, pero argumenta en la carta, que fue reportada por primera vez por Bloomberg, que la legislación debería provenir del gobierno federal, no de los estados individuales.

En una respuesta el miércoles, Wiener dijo que estaba de acuerdo con que el gobierno federal debería tomar la iniciativa, pero que era “escéptico” de que el Congreso actuara. También criticó el “argumento trillado” de que las empresas tecnológicas emergentes se trasladarían si se aprobaba el proyecto de ley y dijo que las empresas con sede fuera del estado aún tendrían que cumplir con el proyecto de ley para hacer negocios localmente.

La Asamblea del Estado de California tiene previsto votar el proyecto de ley a finales de mes. Si se aprueba, el gobernador Gavin Newsom decidirá si lo firma o lo veta.

Los grupos tecnológicos e inversores de Silicon Valley, entre ellos Anthropic, Andreessen Horowitz y YCombinator, han intensificado una campaña de lobby contra las propuestas de Wiener de establecer un marco de seguridad estricto. Nancy Pelosi, expresidenta de la Cámara de Representantes y representante de California, también publicó una declaración en contra del proyecto de ley la semana pasada, calificándolo de “bien intencionado pero mal informado”.

Entre los elementos más polémicos de las propuestas originales del senador estaban las demandas de que las empresas de IA garanticen a un nuevo organismo estatal que no desarrollarán modelos con “una capacidad peligrosa” y que creen un “interruptor de apagado” para apagar sus potentes modelos.

Los opositores afirmaron que el proyecto de ley se centraba en riesgos hipotéticos y añadía un riesgo de responsabilidad “extremo” para los fundadores.

El proyecto de ley fue modificado para suavizar algunos de esos requisitos la semana pasada; por ejemplo, limitando las responsabilidades civiles que originalmente había impuesto a los desarrolladores de IA y estrechando el alcance de aquellos que tendrían que adherirse a las reglas.

Sin embargo, los críticos sostienen que el proyecto de ley sigue imponiendo a las empresas emergentes requisitos onerosos y a veces poco realistas. El lunes, las congresistas estadounidenses Anna Eshoo y Zoe Lofgren escribieron en una carta a Robert Rivas, presidente de la Asamblea de California, que “todavía hay problemas sustanciales con la estructura subyacente del proyecto de ley”, y que piden que se “centre en las normas federales para controlar las herramientas físicas necesarias para crear estas amenazas físicas”.

A pesar de las críticas de destacados académicos de IA, como Fei-Fei Li de Stanford y Andrew Ng, que dirigieron proyectos de IA en Google de Alphabet y Baidu de China, el proyecto de ley ha encontrado apoyo entre algunos de los “padrinos de la IA”, como Geoffrey Hinton de la Universidad de Toronto y Yoshua Bengio, profesor de informática en la Universidad de Montreal.

“En resumen: la SB 1047 es un proyecto de ley muy razonable que pide a los grandes laboratorios de inteligencia artificial que hagan lo que ya se han comprometido a hacer, es decir, probar sus grandes modelos para detectar riesgos de seguridad catastróficos”, escribió Wiener el miércoles.



ttn-es-56