Los legisladores europeos siguen considerando la regulación de la inteligencia artificial (IA). Ahora están considerando introducir medidas más restrictivas contra los principales modelos lingüísticos. …
Los legisladores europeos siguen considerando la regulación de la inteligencia artificial (IA). Ahora están considerando introducir medidas más restrictivas contra los principales modelos lingüísticos.
Como la Ley de Servicios Digitales
La Unión Europea (UE) aspira a ser pionera en la gestión de la IA. Su legislación tecnológica, recientemente adoptada por el Parlamento, debe servir como estándar para el resto del mundo, dicen quienes toman las decisiones. La llamada Ley de IA lleva varios años preparándose, pero la aparición de la IA generativa ha empujado a la UE a revisar sus planes.
Los proveedores de modelos de IA generativa deberán, por ejemplo, cumplir con las obligaciones de transparencia establecidas en el reglamento, garantizando que los usuarios estén informados de que el contenido fue generado por una máquina. También tendrán que postularse” garantías adecuadas » con respecto al contenido generado por sus sistemas, y proporcionar un resumen de cualquier material protegido por derechos de autor utilizado para entrenar sus IA.
El bloque también quiere regular a los actores establecidos de manera diferente con importantes cuotas de mercado sin debilitar a las jóvenes empresas emergentes que están ingresando al sector. Representantes de la Comisión Europea, el Parlamento Europeo y los países de la UE están discutiendo un enfoque que abordaría las preocupaciones planteadas por los principales modelos de lenguaje como GPT-4, informa Bloomberg.
Por ahora, han llegado a un acuerdo preliminar que aún no ha sido objeto de un borrador escrito. El enfoque es similar al de la Ley de Servicios Digitales; Si bien la ley exige que todas las plataformas tomen medidas para proteger los datos de los usuarios y monitorear las actividades ilegales, los controles más estrictos están reservados para gigantes como Google y Meta.
Un marco para que las tecnologías “ alto riesgo »
Los negociadores quieren finalizar la Ley de IA antes de fin de año, con el objetivo de alcanzar un acuerdo final el 25 de octubre. El texto también introducirá un régimen más estricto para las aplicaciones de IA para “ alto riesgo “, es decir, aquellos que representan peligros previsibles para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia o el Estado de Derecho.
Sin embargo, una serie de preguntas clave siguen sin respuesta, incluida exactamente cómo regular la IA generativa, que debería incluirse adecuadamente en el “ alto riesgo “. La prohibición total del escaneo facial en vivo en multitudes también es un punto de desacuerdo.