Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Los legisladores de todo el mundo están luchando con la inteligencia artificial. Los primeros esfuerzos son voluminosos, pero no rápidos. Ley de inteligencia artificial de la UEEl primer borrador, de 144 páginas, es un documento que va muy por detrás de la innovación en materia de regulación. La UE se vio obligada a añadir un capítulo sobre inteligencia artificial generativa en la mitad del proceso.
Es cierto que hay pocos problemas económicos, financieros y sociales que no se vean afectados por la tecnología itinerante, lo que exige muchas medidas de protección.
A diferencia del enfoque basado en principios adoptado por la UE en relación con los datos en el Reglamento General de Protección de Datos (RGPD), la Ley de Inteligencia Artificial adopta un enfoque de seguridad de los productos, similar a la regulación de los automóviles o los dispositivos médicos, por ejemplo. Busca cuantificar y abordar los riesgos, con estándares cumplidos y verificados antes del lanzamiento al mercado. Piense en probar un modelo de automóvil chocando antes de su lanzamiento.
La UE clasifica las capacidades y los requisitos subsiguientes según el perfil de riesgo. En la cima de la pirámide se encuentra el Espejo negro Cosas como la manipulación del comportamiento, la puntuación social, que están prohibidas. En la parte inferior están los filtros de spam comunes y corrientes y los juegos habilitados por IA, donde un código voluntario es suficiente.
Naturalmente, son las dos capas intermedias las que más afectarán a los desarrolladores de tecnología y a sus usuarios. Los servicios financieros y otras empresas que utilizan herramientas de IA para determinar la solvencia crediticia o para contratar personal, por ejemplo, caerán en esta categoría. Los usuarios también corren el riesgo de estar en categorías de mayor riesgo si modifican un modelo: una empresa puede, con el tiempo, cambiar el uso de la IA, por ejemplo, de examinar currículos a tomar decisiones sobre quién recibe un ascenso.
Un posible resultado será el uso intensivo de contratos entre quienes implementan IA y los grandes proveedores de tecnología, afirma la profesora de la Universidad de Newcastle Lilian Edwards.
Definir qué constituye un riesgo sistémico en la IA generativa es complicado. La UE (y EE. UU. en su conjunto) Orden ejecutiva sobre el uso de IA — han recurrido a métricas de potencia de procesamiento. La UE establece su umbral en 10²⁵ operaciones de punto flotante por segundo, una medida del rendimiento de procesamiento, mientras que EE. UU. lo ha establecido en 10²⁶. Ir más allá de este límite genera obligaciones adicionales.
El problema es que esto se relaciona con la potencia utilizada para el entrenamiento, que podría aumentar o incluso disminuir una vez que se implemente. También es un número un tanto espurio: hay muchos otros determinantes, incluida la calidad de los datos y el razonamiento en cadena de pensamiento, que pueden mejorar el rendimiento sin requerir potencia computacional adicional para el entrenamiento. Además, pasará de moda rápidamente: el gran número de hoy podría convertirse en algo común el año que viene.
La legislación de la UE, que entró en vigor formalmente en agosto, se está aplicando gradualmente. A medida que se vayan ampliando las capacidades, surgirán más obstáculos. Incluso aunque las normas evolucionen, el riesgo es que se queden rezagadas respecto de la curva tecnológica.