OpenAI amplía su equipo de lobby para influir en la regulación


OpenAI está formando un equipo internacional de cabilderos mientras busca influir en los políticos y reguladores que están aumentando su escrutinio sobre la poderosa inteligencia artificial.

La nueva empresa con sede en San Francisco dijo al Financial Times que ha ampliado el número de personal en su equipo de asuntos globales de tres a principios de 2023 a 35. La compañía pretende aumentar esa cifra hasta 50 para finales de 2024.

El impulso se produce mientras los gobiernos exploran y debaten leyes sobre la seguridad de la IA que corren el riesgo de limitar el crecimiento de la nueva empresa y el desarrollo de sus modelos de vanguardia, que sustentan productos como ChatGPT.

“No estamos abordando esto desde la perspectiva de que simplemente necesitamos entrar y anular las regulaciones. . . porque no tenemos como objetivo maximizar las ganancias; tenemos el objetivo de asegurarnos de que la AGI beneficie a toda la humanidad”, dijo Anna Makanju, vicepresidenta de asuntos gubernamentales de OpenAI, refiriéndose a la inteligencia artificial general, o al hecho de que las máquinas tienen capacidades cognitivas equivalentes a las de los humanos.

Si bien forma una pequeña parte de los 1200 empleados de OpenAI, el departamento de asuntos globales es la unidad más internacional de la compañía, estratégicamente ubicada en lugares donde la legislación sobre IA es avanzada. Esto incluye personal estacionado en Bélgica, el Reino Unido, Irlanda, Francia, Singapur, India, Brasil y Estados Unidos.

Sin embargo, OpenAI se mantiene por detrás de sus rivales de las grandes tecnologías en este ámbito. Según documentos públicos en Estados Unidos, Meta gastó una cifra récord de 7,6 millones de dólares en relaciones con el gobierno estadounidense en el primer trimestre de este año, mientras que Google gastó 3,1 millones de dólares y OpenAI 340.000 dólares. En cuanto a la defensa específica de la IA, Meta ha nombrado a 15 cabilderos, Google tiene cinco y OpenAI sólo dos.

«Caminando por la puerta, [ChatGPT had] 100 millones de usuarios [but the company had] tres personas para hacer políticas públicas”, dijo David Robinson, jefe de planificación de políticas de OpenAI, quien se unió a la compañía en mayo del año pasado después de una carrera en el mundo académico y de consultoría para la Casa Blanca sobre su política de IA.

“Llegaba literalmente al punto en el que había alguien de alto nivel que quería conversar y no había nadie que pudiera contestar el teléfono”, añadió.

Sin embargo, la unidad de asuntos globales de OpenAI no se ocupa de algunos de los casos regulatorios más complicados. Esa tarea recae en su equipo legal, que maneja cuestiones relacionadas con la revisión por parte de los reguladores del Reino Unido y Estados Unidos de su alianza de 18.000 millones de dólares con Microsoft; la investigación de la Comisión de Bolsa y Valores de Estados Unidos sobre si el director ejecutivo Sam Altman engañó a los inversores durante su breve destitución por parte de la junta directiva en noviembre; y la investigación de protección al consumidor de la Comisión Federal de Comercio de EE. UU. sobre la empresa.

En cambio, los cabilderos de OpenAI se centran en la difusión de la legislación sobre IA. El Reino Unido, Estados Unidos y Singapur se encuentran entre los muchos países que se ocupan de cómo gobernar la IA y consultan estrechamente con OpenAI y otras empresas de tecnología sobre las regulaciones propuestas.

La empresa participó en los debates en torno a la Ley de IA de la UE, aprobada este año, una de las leyes más avanzadas para regular modelos potentes de IA.

OpenAI fue una de las empresas de inteligencia artificial que argumentó que algunos de sus modelos no deberían considerarse entre los que presentan un “alto riesgo” en los primeros borradores de la ley y, por lo tanto, estarían sujetos a reglas más estrictas, según tres personas involucradas en las negociaciones. A pesar de este impulso, los modelos más capaces de la compañía quedarán bajo el ámbito de aplicación de la ley.

OpenAI también se opuso a la presión de la UE para examinar todos los datos proporcionados a sus modelos básicos, según personas familiarizadas con las negociaciones.

La compañía le dijo al Financial Times que los datos previos al entrenamiento (los conjuntos de datos utilizados para brindar a los modelos de lenguaje grandes una comprensión amplia del lenguaje o los patrones) deberían estar fuera del alcance de la regulación, ya que era una forma deficiente de comprender los resultados de un sistema de IA. En cambio, propuso que la atención debería centrarse en los datos posteriores al entrenamiento utilizados para ajustar los modelos para una tarea particular.

La UE decidió que, para los sistemas de IA de alto riesgo, los reguladores aún pueden solicitar acceso a los datos de entrenamiento para garantizar que estén libres de errores y sesgos.

Desde que se aprobó la ley de la UE, OpenAI contrató a Chris Lehane, quien trabajó para el presidente Bill Clinton, la campaña presidencial de Al Gore y fue jefe de políticas de Airbnb como vicepresidente de obras públicas. Lehane trabajará en estrecha colaboración con Makanju y su equipo.

OpenAI también atrapó recientemente a Jakob Kucharczyk, ex líder de competencia en Meta. Sandro Gianella, jefe de políticas y asociaciones europeas, se unió en junio del año pasado después de trabajar en Google y Stripe, mientras que James Hairston, jefe de políticas y asociaciones internacionales, llegó procedente de Meta en mayo del año pasado.

La compañía participó recientemente en una serie de discusiones con formuladores de políticas en los EE. UU. y otros mercados sobre el modelo Voice Engine de OpenAI, que puede clonar y crear voces personalizadas, lo que llevó a la compañía a reducir sus planes de lanzamiento después de preocupaciones sobre los riesgos de cómo podría usarse. en el contexto de las elecciones mundiales de este año.

El equipo ha estado impartiendo talleres en países que enfrentan elecciones este año, como México e India, y publicando orientación sobre desinformación. En países autocráticos, OpenAI otorga acceso individualizado a sus modelos a “individuos de confianza” en áreas donde considera que no es seguro lanzar los productos.

Un funcionario del gobierno que trabajó en estrecha colaboración con OpenAI dijo que una preocupación diferente para la compañía era garantizar que las reglas fueran flexibles en el futuro y quedaran obsoletas con los nuevos avances científicos o tecnológicos.

OpenAI espera abordar algunas resacas de la era de las redes sociales, que según Makanju ha llevado a una «desconfianza general hacia las empresas de Silicon Valley».

«Desafortunadamente, la gente suele ver la IA con la misma lente», añadió. «Dedicamos mucho tiempo a asegurarnos de que la gente comprenda que esta tecnología es bastante diferente y que las intervenciones regulatorias que tengan sentido serán muy diferentes».

Sin embargo, algunas figuras de la industria critican la expansión del lobby de OpenAI.

«Inicialmente, OpenAI reclutó a personas profundamente involucradas en políticas y especialistas en IA, mientras que ahora simplemente están contratando cabilderos tecnológicos comunes y corrientes, lo cual es una estrategia muy diferente», dijo una persona que ha colaborado directamente con OpenAI en la creación de legislación. .

«Simplemente quieren influir en los legisladores como lo han hecho las grandes empresas tecnológicas durante más de una década».

Robinson, jefe de planificación de OpenAI, dijo que el equipo de asuntos globales tiene objetivos más ambiciosos. “La misión es segura y ampliamente beneficiosa, entonces, ¿qué significa eso? Significa crear leyes que no sólo nos permitan innovar y llevar tecnología beneficiosa a las personas, sino que también terminen en un mundo donde la tecnología sea segura”.

Información adicional de Madhumita Murgia en Londres

Vídeo: IA: ¿bendición o maldición para la humanidad? | Tecnología FT



ttn-es-56