Necesitamos mantener a los directores ejecutivos alejados de la regulación de la IA


El escritor es director de política internacional en el Centro de Política Cibernética de la Universidad de Stanford y se desempeña como asesor especial de Margrethe Vestager.

Las empresas tecnológicas reconocen que la carrera por el dominio de la IA se decide no solo en el mercado, sino también en Washington y Bruselas. Las reglas que rigen el desarrollo y la integración de sus productos de IA tendrán un impacto existencial en ellos, pero actualmente permanecen en el aire. Por lo tanto, los ejecutivos están tratando de adelantarse y marcar la pauta, argumentando que están en mejores condiciones para regular las mismas tecnologías que producen. La IA puede ser novedosa, pero los puntos de conversación se reciclan: son los mismos que Mark Zuckerberg usó sobre las redes sociales y Sam Bankman-Fried ofreció con respecto a las criptomonedas. Tales declaraciones no deberían volver a distraer a los legisladores demócratas.

Imagine al director ejecutivo de JPMorgan explicando al Congreso que debido a que los productos financieros son demasiado complejos para que los legisladores los entiendan, los bancos deben decidir por sí mismos cómo prevenir el lavado de dinero, permitir la detección de fraudes y establecer índices de liquidez a préstamo. Se reiría de la habitación. Los electores enojados señalarían lo bien que funcionó la autorregulación en la crisis financiera mundial. Desde las grandes tabacaleras hasta las grandes petroleras, hemos aprendido por las malas que las empresas no pueden establecer regulaciones desinteresadas. No son independientes ni capaces de crear poderes compensatorios a los suyos.

De alguna manera, esa verdad básica se ha perdido cuando se trata de IA. Los legisladores están ansiosos por deferir a las empresas y quieren su orientación sobre la regulación; Senadores incluso preguntó El director ejecutivo de OpenAI, Sam Altman, nombrará a posibles líderes de la industria para supervisar un supuesto regulador nacional de IA.

Dentro de los círculos de la industria, los llamados a la regulación de la IA han bordeado lo apocalíptico. Los científicos advierten que sus creaciones son demasiado poderosas y podrían volverse deshonestas. Una carta reciente, firmado por Altman y otros, advirtió que la IA representaba una amenaza para la supervivencia de la humanidad similar a una guerra nuclear. Uno pensaría que estos temores incitarían a los ejecutivos a actuar pero, a pesar de firmar, prácticamente ninguno ha modificado su propio comportamiento. Tal vez su encuadre de cómo pensamos en las barandillas alrededor de la IA es el objetivo real. Nuestra capacidad para navegar preguntas sobre el tipo de regulación necesaria también está fuertemente influenciada por nuestra comprensión de la tecnología en sí. Las declaraciones han centrado la atención en AI riesgo existencial. Pero los críticos argumentan que priorizar la prevención de esto en el futuro eclipsa el trabajo tan necesario contra la discriminación y el sesgo que debería estar ocurriendo hoy.

Las advertencias sobre los riesgos catastróficos de la IA, respaldadas por las mismas personas que podrían dejar de impulsar sus productos en la sociedad, son desorientadoras. Las cartas abiertas hacen que los signatarios parezcan impotentes en sus llamamientos desesperados. Pero aquellos que hacen sonar la alarma ya tienen el poder de desacelerar o detener la progresión potencialmente peligrosa de la inteligencia artificial.

El ex director ejecutivo de Google, Eric Schmidt, sostiene que las empresas son las únicas equipadas para desarrollar barandillas, mientras que los gobiernos carecen de experiencia. Pero los legisladores y los ejecutivos tampoco son expertos en agricultura, lucha contra el crimen o prescripción de medicamentos, pero regulan todas esas actividades. Ciertamente, no deberían desanimarse por la complejidad de la IA; en todo caso, debería alentarlos a asumir la responsabilidad. Y Schmidt nos ha recordado sin querer el primer reto: romper los monopolios de acceso a la información propietaria. Con una investigación independiente, evaluaciones de riesgos realistas y directrices sobre la aplicación de las reglamentaciones existentes, un debate sobre la necesidad de nuevas medidas se basaría en hechos.

Las acciones ejecutivas hablan más que las palabras. Solo unos días después de que Sam Altman dio la bienvenida a la regulación de la IA en su testimonio ante el Congreso, amenazó con desconectar las operaciones de OpenAI en Europa debido a ello. Cuando se dio cuenta de que los reguladores de la UE no se tomaban bien las amenazas, volvió a una ofensiva de simpatía y se comprometió a abrir una oficina en Europa.

Los legisladores deben recordar que a los empresarios les preocupan principalmente las ganancias y no los impactos sociales. Ya es hora de ir más allá de las bromas y definir objetivos y métodos específicos para la regulación de la IA. Los formuladores de políticas no deben permitir que los directores ejecutivos de tecnología den forma y controlen la narrativa, y mucho menos el proceso.

Una década de disrupción tecnológica ha resaltado la importancia de la supervisión independiente. Ese principio es aún más importante cuando el poder sobre tecnologías como la IA se concentra en un puñado de empresas. Deberíamos escuchar a las personas poderosas que los dirigen, pero nunca tomar sus palabras al pie de la letra. En cambio, sus grandes reclamos y ambiciones deberían impulsar a los reguladores y legisladores a actuar en función de su propia experiencia: la del proceso democrático.



ttn-es-56