Manténgase informado con actualizaciones gratuitas
Simplemente regístrate en Inteligencia artificial myFT Digest: entregado directamente a su bandeja de entrada.
El gobernador de California, Gavin Newsom, vetó un controvertido intento de regular la inteligencia artificial, citando preocupaciones de que el proyecto de ley pueda sofocar la innovación después de la intensa presión de las empresas de tecnología.
Newsom, un demócrata, esperó hasta el último momento para anunciar su decisión después de que el proyecto de ley fuera aprobado por la legislatura estatal a finales de agosto.
El proyecto de ley habría obligado a quienes desarrollan los modelos de IA más potentes a cumplir con reglas estrictas, incluida la implementación de un interruptor de apagado, para evitar daños catastróficos.
Las principales empresas de IA, incluidas Google, OpenAI y Meta, se opusieron al proyecto de ley y presionaron fuertemente en su contra, quejándose de que una legislación prematura podría sofocar el desarrollo de la IA y amenazar el papel de liderazgo de California en el desarrollo de la tecnología. Anthropic, respaldada por Amazon, y Elon Musk, propietario de la startup xAI, apoyaron la legislación.
En una carta al Senado estatal, Newsom defendió su veto a la Ley de Innovación Segura para Sistemas de Inteligencia Artificial Fronterizos, conocida como SB 1047, el domingo.
Dijo que el marco podría “restringir la innovación que impulsa el avance en favor del bien público”, y señaló que California albergaba a 32 de las principales empresas de inteligencia artificial del mundo.
En particular, dijo que centrarse en los modelos por tamaño (el proyecto de ley requeriría pruebas de seguridad y otras medidas de seguridad para los modelos cuyo desarrollo costó más de 100 millones de dólares) era una métrica equivocada. Podría dar “al público una falsa sensación de seguridad sobre el control de esta tecnología de rápido movimiento” cuando “modelos más pequeños y especializados pueden surgir como igual o incluso más peligrosos”.
El senador Scott Wiener, quien presentó el proyecto de ley, dijo que el “veto es un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta”.
Añadió que las empresas “que pretenden crear una tecnología extremadamente poderosa no enfrentan restricciones vinculantes por parte de los responsables políticos estadounidenses, particularmente dada la continua parálisis del Congreso en torno a la regulación de la industria tecnológica de manera significativa”.
Pero Newsom insistió en que el proyecto de ley no tenía en cuenta si un sistema de IA “se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales”.
“En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que lo implemente un sistema grande. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología”.
En los últimos 30 días, Newsom ha firmado proyectos de ley que cubren el despliegue y la regulación de la tecnología de IA generativa (el tipo que crea texto o imágenes), incluidos los deepfakes, las marcas de agua de IA y la desinformación.
Los expertos en tecnología también se han asociado con el estado para ayudar a desarrollar “barandillas viables” para implementar IA generativa respaldada por evidencia empírica y científica, dijo.
El Instituto de Políticas de Inteligencia Artificial, un grupo de expertos, calificó el veto del gobernador como “equivocado, imprudente y fuera de sintonía con las personas que tiene la tarea de gobernar”.
“Newsom tuvo la oportunidad de servir como líder en la regulación de la gobernanza democrática del desarrollo de la IA, un camino que ha tomado en otras industrias, pero decidió quitarnos las manos del volante, permitiendo potencialmente que el desarrollo de la IA se desvíe incontrolablemente del camino. ”, dijo el director ejecutivo Daniel Colson.
“Newsom y los legisladores deben regresar a Sacramento en la próxima sesión para llegar a un acuerdo sobre un conjunto de medidas que instalarán barreras sensatas para el desarrollo de la IA”.