Un grupo de directores ejecutivos y científicos de empresas como OpenAI y Google DeepMind ha advertido que la amenaza para la humanidad de la tecnología de rápido desarrollo rivaliza con la del conflicto nuclear y la enfermedad.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, dijo un comunicado publicado por el Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco.
Más de 350 ejecutivos, investigadores e ingenieros de IA, incluidos Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Dario Amodei de Anthropic, fueron signatarios del declaración de una oración.
Geoffrey Hinton y Yoshua Bengio, quienes ganaron un Premio Turing por su trabajo en redes neuronales y a menudo se los describe como “padrinos” de la IA, también firmaron el documento. Hinton dejó su puesto en Google a principios de mes para hablar libremente sobre los daños potenciales de la tecnología.
La declaración sigue a los llamados a la regulación en todo el sector después de que una serie de lanzamientos de IA de las grandes empresas tecnológicas aumentaron la conciencia de sus posibles fallas, incluida la difusión de información errónea, la perpetuación de los prejuicios sociales y el reemplazo de trabajadores.
Los legisladores de la UE están impulsando la Ley de Inteligencia Artificial de Europa, mientras que EE. UU. también está explorando la regulación.
Se considera que ChatGPT de OpenAI respaldado por Microsoft, lanzado en noviembre, lidera el camino en la adopción generalizada de inteligencia artificial. Altman este mes dio testimonio por primera vez en el Congreso de los EE. UU., pidiendo una regulación en forma de licencias.
En marzo, Elon Musk y más de 1000 investigadores y ejecutivos tecnológicos pidieron una pausa de seis meses en el desarrollo de sistemas avanzados de inteligencia artificial para detener lo que llamaron una “carrera armamentista”.
La carta fue criticada por su enfoque, incluso por algunos investigadores citados en su razonamiento, mientras que otros no estuvieron de acuerdo con la pausa recomendada en la tecnología.
Con la declaración de una línea, el Centro para la Seguridad de la IA le dijo al New York Times que esperaba evitar desacuerdos.
“No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo el director ejecutivo Dan Hendrycks. “Cuando eso sucede, diluye el mensaje”.
Kevin Scott, director de tecnología de Microsoft, y Eric Horvitz, su director científico, también firmaron la declaración el martes, al igual que Mustafa Suleyman, ex cofundador de Deepmind que ahora dirige la empresa emergente Inflection AI.