La propuesta de California de regular la inteligencia artificial ha dividido a Silicon Valley, mientras los opositores advierten que el marco legal podría socavar la competencia y la posición de Estados Unidos como líder mundial en esta tecnología.
Tras librar una feroz batalla para modificar o suavizar el proyecto de ley a medida que pasaba por la legislatura de California, los ejecutivos de empresas como OpenAI y Meta esperan ansiosamente para ver si Gavin Newsom, el gobernador demócrata del estado, lo convertirá en ley. Tiene hasta el 30 de septiembre para decidir.
California es el corazón de la floreciente industria de la IA, y sin una ley federal que regule la tecnología en todo Estados Unidos (y mucho menos un estándar global uniforme), las ramificaciones se extenderían mucho más allá del estado.
“El resto del mundo ciertamente está prestando mucha atención a lo que está sucediendo en California y en Estados Unidos en general en este momento, y el resultado allí probablemente tendrá repercusiones en los esfuerzos regulatorios de otras naciones”, dijo al Financial Times Yoshua Bengio, profesor de la Universidad de Montreal y un “padrino” de la IA.
¿Por qué California quiere regular la IA?
El rápido desarrollo de herramientas de inteligencia artificial que pueden generar respuestas humanas a preguntas ha magnificado los riesgos percibidos en torno a esta tecnología, que van desde disputas legales (como la violación de derechos de autor) hasta desinformación y proliferación de deepfakes. Algunos incluso piensan que podría representar una amenaza para la humanidad.
El presidente estadounidense, Joe Biden, emitió una orden ejecutiva el año pasado con el objetivo de establecer estándares nacionales para la seguridad de la IA, pero el Congreso estadounidense no ha logrado ningún progreso en la aprobación de leyes nacionales.
El liberal estado de California ha intervenido a menudo para regular cuestiones en las que el gobierno federal se ha quedado atrás. La inteligencia artificial está ahora en el punto de mira con la Ley de Innovación Segura para Sistemas de Inteligencia Artificial de Fronteras de California, que fue presentada por el senador estatal Scott Wiener. De los diversos proyectos de ley presentados en diferentes estados, el de California es el que tiene más probabilidades de tener un impacto real, ya que el estado está en el centro del auge de la IA, sede de importantes empresas como OpenAI, Anthropic, Meta y Google.
“Las grandes empresas de inteligencia artificial que más se han expresado sobre este tema están actualmente atrapadas en su carrera por la participación de mercado y la maximización de las ganancias, lo que puede llevar a tomar atajos en materia de seguridad, y es por eso que necesitamos algunas reglas para quienes lideran esta carrera”, dijo Bengio.
¿Qué dice el proyecto de ley?
Wiener ha dicho que su proyecto de ley “requiere que sólo los mayores desarrolladores de IA hagan lo que todos y cada uno de ellos se han comprometido repetidamente a hacer: realizar pruebas de seguridad básicas en modelos de IA enormemente potentes”.
El proyecto de ley exigiría a los desarrolladores que construyan modelos de gran tamaño que evalúen si son “razonablemente capaces de causar o facilitar materialmente un daño crítico”, que puede ir desde el uso malintencionado o el robo hasta la creación de un arma biológica. A continuación, se esperaría que las empresas adopten medidas de seguridad razonables contra esos riesgos identificados.
Los desarrolladores tendrían que incorporar un “interruptor de seguridad” en todos los modelos nuevos que superen un cierto tamaño, en caso de que se utilicen incorrectamente o dejen de funcionar correctamente. También estarían obligados a redactar un informe de seguridad antes de entrenar a un nuevo modelo y, para ser más transparentes, tendrían que “informar de cada incidente de seguridad de inteligencia artificial” al fiscal general del estado y realizar una auditoría de terceros para garantizar el cumplimiento todos los años.
Está dirigido a modelos cuyo entrenamiento cuesta más de 100 millones de dólares, aproximadamente la cantidad necesaria para entrenar a los mejores modelos de la actualidad. Pero se trata de un objetivo que avanza rápidamente: el director ejecutivo de Anthropic, Dario Amodei, ha pronosticado que el próximo grupo de modelos de vanguardia costará 1.000 millones de dólares para entrenar y 10.000 millones de dólares para 2026.
El proyecto de ley se aplicaría a todas las empresas que hagan negocios en California, independientemente de dónde tengan su sede, lo que cubriría efectivamente a todas las empresas actualmente capaces de desarrollar modelos de IA de primer nivel, dijo Bengio.
Introduciría sanciones civiles de hasta el 10 por ciento del costo de entrenamiento de un modelo contra los desarrolladores cuyas herramientas causen muerte, robo o daño a la propiedad. También crearía responsabilidades para las empresas que ofrecen recursos informáticos para entrenar esos modelos y las firmas de auditoría, haciéndolas responsables de recopilar y conservar información detallada sobre las identidades e intenciones de los clientes. El incumplimiento de esta obligación podría dar lugar a multas de hasta 10 millones de dólares.
¿Quién está a favor del proyecto de ley y quién está en contra?
Wiener y sus colegas afirman que existe un fuerte apoyo público a las nuevas barreras de protección para la IA. También ha obtenido el apoyo cualificado de la importante start-up de IA Anthropic y de Elon Musk, así como de SAG-AFTRA, un sindicato de actores y dos grupos de mujeres. El lunes, 100 empleados de importantes empresas de IA, entre ellas OpenAI, xAI y Google DeepMind, firmaron una carta en la que pedían a Newsom que firmara el proyecto de ley.
“Es factible y apropiado que las empresas de IA de vanguardia prueben si los modelos de IA más potentes pueden causar daños graves, y que estas empresas implementen salvaguardas razonables contra tales riesgos”, escribieron.
Los críticos, entre ellos académicos como el profesor de inteligencia artificial de Stanford Fei-Fei Li, la firma de capital de riesgo Andreessen Horowitz y la aceleradora de empresas emergentes Y Combinator, argumentan que el proyecto de ley perjudicaría a las empresas en fase inicial y a los desarrolladores de código abierto que comparten públicamente el código subyacente a sus modelos.
La SB 1047 “ralentizaría el ritmo de la innovación y haría que los ingenieros y empresarios de clase mundial de California abandonaran el estado en busca de mayores oportunidades en otro lugar”, advirtió el director de estrategia de OpenAI, Jason Kwon, en una carta a Wiener el mes pasado. Se hizo eco de una de las quejas más comunes: que Wiener estaba entrometiéndose en un área que debería abordarse a nivel federal.
Los opositores también afirman que sofocaría la innovación al imponer requisitos onerosos a los desarrolladores y hacerlos responsables del uso de sus modelos de IA por parte de actores maliciosos. Legisla sobre riesgos que aún no existen, añaden.
“Desde un punto de vista filosófico, anticipar las consecuencias de cómo la gente va a utilizar tu código en un software es un problema muy difícil. ¿Cómo lo va a utilizar la gente? ¿Cómo vas a anticipar que alguien va a hacer daño? Es un gran inhibidor. Es una pendiente muy resbaladiza”, dijo Darío Gil, director de investigación de IBM.
Dan Hendrycks, director del Centro para la Seguridad de la IA, que desempeñó un papel fundamental en la formulación del proyecto de ley, dijo que los opositores “quieren que los gobiernos les den un cheque en blanco para construir e implementar cualquier tecnología que quieran, independientemente del riesgo o daño a la sociedad”.
Hendrycks, que también es asesor de xAI de Musk, ha sido criticado por críticos que describen al CAIS como un grupo marginal demasiado preocupado por los riesgos existenciales de la IA. Los opositores también expresaron su preocupación por el hecho de que el CAIS haya presionado para tener influencia sobre una «Junta de Modelos Fronterizos» que crearía el proyecto de ley, integrada por nueve directores provenientes de la industria y el mundo académico y encargada de actualizar las regulaciones en torno a los modelos de IA y garantizar el cumplimiento.
Wiener rechazó esos argumentos como “una teoría de la conspiración”.
“La oposición trató de pintar a cualquiera que apoyara el proyecto de ley como ‘catástrofes’”, dijo Wiener. “Dijeron que estos eran riesgos de ciencia ficción; que estábamos concentrados en Terminator. No es así, estamos concentrados en riesgos muy reales como el cierre de la red eléctrica o del sistema bancario, o la creación de un arma química o biológica”.
¿Cómo han intentado los autores del proyecto de ley abordar las preocupaciones?
Wiener dijo que él y su equipo han pasado los últimos 18 meses interactuando con “cualquiera que quisiera reunirse con nosotros” para discutir el proyecto de ley, incluidos Li y los socios de Andreessen y Y Combinator.
Una de sus preocupaciones era que exigir un interruptor de seguridad para los modelos de código abierto impediría que otros desarrolladores los modificaran o crearan a partir de ellos por temor a que los desactivaran en cualquier momento. Eso podría ser fatal para las empresas jóvenes y el mundo académico, que dependen de modelos de código abierto más baratos o de libre acceso.
El proyecto de ley de Wiener ha sido modificado para excluir los modelos de código abierto que hayan sido modificados por terceros más allá de un cierto nivel. Tampoco se les exigirá que tengan un interruptor de apagado.
También se han moderado algunas de las restricciones originales del proyecto de ley, incluyendo la reducción del alcance de las sanciones civiles y la limitación del número de modelos cubiertos por las nuevas normas.
¿Se convertirá el proyecto de ley en ley?
La SB 1047 fue aprobada fácilmente por la legislatura del estado. Ahora Newsom tiene que decidir si firma el proyecto de ley, permite que se convierta en ley sin su firma o lo veta. Si lo hace, la legislatura de California podría anularlo con una mayoría de dos tercios de los votos. Pero, según un portavoz de Wiener, prácticamente no hay posibilidades de que eso suceda. La última vez que se anuló el veto de un gobernador de California fue en 1980.
El gobernador se encuentra en una situación difícil, dada la importancia de la industria tecnológica para su estado. Pero permitir que la inteligencia artificial crezca sin control podría ser aún más problemático.
“Me encantaría que esto se convirtiera en una ley federal: si el Congreso actuara en este ámbito y aprobara un proyecto de ley sólido sobre seguridad de la IA, estaría encantado de hacer las maletas y volver a casa”, dijo Wiener. “Pero la triste realidad es que, si bien el Congreso ha tenido mucho, mucho éxito en materia de atención sanitaria, infraestructura y clima, ha tenido grandes dificultades con la regulación de la tecnología… Hasta que el Congreso actúe, California tiene la obligación de liderar porque somos el corazón de la industria tecnológica”.