“La inteligencia artificial podría significar el fin de la humanidad”: expertos comparan sus peligros con pandemias y guerras nucleares

Un grupo de líderes empresariales y científicos hizo un llamado el martes para hacer del “riesgo de extinción de la inteligencia artificial” una prioridad global, “junto con otros riesgos sociales como pandemias y guerras nucleares”. Un profesor de KU Leuven también firmó la declaración.

“Reducir el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos para la sociedad, como pandemias y guerras nucleares”. El Centro Estadounidense para la Seguridad de la IA distribuyó esa breve declaración el martes, que incluye docenas de nombres de científicos y altos ejecutivos de empresas de tecnología. Sam Altman, el fundador de AI chatbot ChatGPT, y altos ejecutivos de Microsoft y Google, entre otros, firmaron la advertencia.

También se incluye el nombre del profesor belga Yves Moreau, afiliado a KU Leuven. Es especialista en inteligencia artificial en genética. Moreau cree que el desarrollo de la IA debería ralentizarse por un tiempo porque no está claro qué consecuencias tendrá el progreso tecnológico para los humanos.

MIRA TAMBIÉN. Por ejemplo, Google predecirá inundaciones usando inteligencia artificial

“Hemos visto un gran avance tecnológico en los últimos meses, cuyos riesgos y consecuencias aún no podemos evaluar”, explica Moreau. “Ha sido un shock, incluso para los especialistas en IA”. Los modelos de IA resultaron tener una capacidad mucho mayor de lo esperado. Todavía no está claro cuáles podrían ser las consecuencias, enfatiza Moreau, por ejemplo en términos de difusión de desinformación o para el contenido de los trabajos.

Moreau aboga por frenar y tomar medidas. “La regulación es un proceso importante, pero quizás insuficiente. Existe la necesidad de un cambio de cultura entre las personas que desarrollan tecnología. Ahora la gente lo hace porque mola o porque se puede ganar dinero. Sin embargo, deberíamos pensar más en quién y cómo hacemos tecnología. Los investigadores deben asumir más responsabilidad”.



ttn-es-34