En Washington DC, este miércoles 13 de septiembre, la élite de Silicon Valley habló con senadores estadounidenses sobre inteligencia artificial (IA). A la sombra de los ojos de…
En Washington DC, este miércoles 13 de septiembre, la élite de Silicon Valley habló con senadores estadounidenses sobre inteligencia artificial (IA). Detrás de la mirada de los periodistas, Elon Musk, Mark Zuckerberg y Sam Altman hablaron sobre los peligros de la tecnología y las medidas a tomar para evitarlos.
Un doble desafío para los grandes líderes tecnológicos
Este ha sido el tema candente en la industria tecnológica durante casi un año. La IA está en el centro del trabajo de muchos gigantes tecnológicos, que poco a poco la están implementando en sus productos. El senador demócrata Chuck Schumer, consciente del desconocimiento de sus pares al respecto, invitó a varios gigantes del sector a conocer más.
Es consciente de que debe actuar con rapidez. Si bien la Unión Europea ya ha avanzado en su normativa con la Ley de IA, Estados Unidos se está quedando atrás. Aunque la semana pasada se presentó un marco legislativo y quince empresas se comprometieron a proteger la tecnología, todavía no existe nada para regular la IA. Sin embargo, dentro de un año deberá firmarse un decreto presidencial para regularlo. Aun así, los legisladores necesitan comprender la tecnología para que esto suceda.
Bill Gates, fundador de Microsoft, Sam Altman de OpenAI, Satya Nadella de Microsoft, Jensen Huang de Nvidia, Sundar Pichai de Google, Mark Zuckerberg de Meta y Elon Musk de X, Tesla y SpaceX, todos respondieron. Para estos líderes, había mucho en juego: mostrar su voluntad de supervisar la IA y, al mismo tiempo, influir en los tomadores de decisiones en su beneficio.
Los desacuerdos persisten
La mayoría coincidió en la necesidad de regular la inteligencia artificial. Sin embargo, persisten desacuerdos, especialmente en relación con el código abierto defendido por Meta. Empresas como Anthropic u OpenAI aseguran que esta práctica es peligrosa, ya que la tecnología puede ser explotada con fines maliciosos. Por el contrario, Zuckerberg cree que “ El código abierto democratiza el acceso a estas herramientas, lo que ayuda a estandarizar las reglas y promover la innovación para las personas y las empresas. “.
Musk, quien fue uno de los firmantes de una carta advirtiendo sobre los muchos peligros de la IA, ha sido el más expresivo sobre la tecnología y sus riesgos. Por su parte, el CEO de Google calificó el evento como “ productivo ” y subrayó la necesidad de que el gobierno encuentre un equilibrio entre “ innovación y la implementación de medidas de protección adecuadas “. El senador Schumer promete que las próximas reuniones similares serán públicas, siendo la sesión a puerta cerrada fuertemente criticada por los periodistas que asistieron.
Los demócratas responsabilizan a las empresas de IA por su trabajo » fantasma »
Al mismo tiempo, los legisladores demócratas están presionando a las grandes empresas tecnológicas para que se abran sobre las condiciones de sus trabajadores invisibles en el campo de la IA.
Para desarrollar productos de IA, las empresas estadounidenses dependen en gran medida de personal subcontratado, ubicado en el país o en el extranjero. Lo contratan a través de empresas de contratación externas y, a menudo, no recibe los beneficios que se otorgan a los empleados directos. Las empresas suelen utilizar este tipo de trabajo para tareas tediosas, como moderación de contenidos y control de calidad del producto.
“ Se espera que eliminen las respuestas inseguras de los chatbots, pero no siempre tienen tiempo para evaluar la seguridad de una respuesta. Los trabajadores de datos a menudo tienen poca capacitación o supervisión, lo que puede llevar a la introducción de sesgos. », escriben en una carta que, por el momento, queda sin respuesta.