Cuatro de los mayores actores de la inteligencia artificial (IA), Anthropic, Google, Microsoft y OpenAI, están avanzando con su proyecto de regulación autónoma de la IA. Acaban de nombrar al director de…
Cuatro de los mayores actores de la inteligencia artificial (IA), Anthropic, Google, Microsoft y OpenAI, están avanzando con su proyecto de regulación autónoma de la IA. Acaban de nombrar al director del Frontier Model Forum, que crearon este verano.
El Foro Modelo Frontera celebra a su director
La alianza entre estas empresas pretende llenar “ una falta » en la regulación global de la inteligencia artificial, se centra en “ modelos de IA de última generación », equipado con capacidades muy avanzadas. Si los gobiernos de todo el mundo desean regular el uso de la tecnología democratizada hace un año por ChatGPT, estas regulaciones aún no han visto la luz.
Se espera que la ley de IA de la UE, que promete ser particularmente estricta, esté finalizada a principios del próximo año, mientras que Estados Unidos simplemente ha pedido a las empresas que aseguren la tecnología. Sin embargo, varios actores de la industria han advertido sobre los peligros potenciales de la IA, en particular su impacto en el empleo o la difusión de información falsa. A largo plazo, a algunos les preocupa que supere la inteligencia humana.
Los miembros del Frontier Model Forum acaban de nombrar director a Chris Meserole. Recientemente se desempeñó como director de la Iniciativa de Inteligencia Artificial y Tecnologías Emergentes en la Brookings Institution, un grupo de expertos con sede en Washington. “ Probablemente todavía estemos lejos de una verdadera regulación. Mientras tanto, queremos asegurarnos de que estos sistemas se construyan de la manera más segura posible. “, indicó. El foro también anunció el establecimiento, “ en los próximos meses », de un consejo asesor.
Un fondo para la investigación
El foro funcionará de la misma manera que una iniciativa sin fines de lucro, financiada por miembros de la industria a través de cuotas de membresía. La organización también dedicará 10 millones de dólares a un fondo de seguridad de IA. Aprovechará los laboratorios existentes y los equipos de las empresas que participan en el proyecto para investigar técnicas de “ equipo rojo ”, el método utilizado por los investigadores para probar los sistemas en busca de fallas o peligros y desarrollar estándares para la evaluación de riesgos.
Los anuncios se producen cuando la primera Cumbre de Seguridad de IA se llevará a cabo la próxima semana en el Reino Unido. Líderes políticos y altos ejecutivos de tecnología discutirán la cooperación global en temas como la seguridad nacional.