Según el experto, el desarrollo de la inteligencia artificial avanza demasiado rápido como para que sea posible mantener la situación bajo control. Tiene una visión muy pesimista del futuro de la humanidad.
La inteligencia artificial no destruirá el mundo, sino sólo a las personas que lo habitan, el experto e investigador en inteligencia artificial Eliezer Yudkowsky cree.
Yudkowsky, conocido por sus opiniones controvertidas, ha vuelto a hacer sombrías valoraciones sobre cómo la inteligencia artificial será el destino de la humanidad.
El periódico británico The Guardian entrevistó a varios expertos que son, cuanto menos, pesimistas sobre el desarrollo de la inteligencia artificial, pero las declaraciones de Yudkowsky son únicas.
– Si me obligan a estimar las probabilidades, diría que a la humanidad le quedan cinco años en lugar de cincuenta. Podrían ser dos años, podrían ser diez, se estremeció.
Aunque el desarrollo de la inteligencia artificial todavía nos deja asombrados por los avances tecnológicos logrados por la humanidad, Yudkowsky cree que la maravilla pronto terminará.
Su miedo es una superinteligencia a nivel de dios que es demasiado inteligente y rápida para que la controlen los humanos. Según él, la inteligencia artificial no debe considerarse como un cerebro encerrado en una caja que hace lo que se le pide, porque, según Yudkowsky, una inteligencia artificial más avanzada que los humanos encontrará formas de salir de la caja.
– Intenta imaginar una civilización extraterrestre que piense mil veces más rápido que nosotros, dijo.
Yudkowsky es el fundador del Machine Intelligence Research Institute (MIRI) en California. Trabaja en el desarrollo de la inteligencia artificial desde 2001.
El instituto sin fines de lucro se centra en identificar riesgos relacionados con el desarrollo de la inteligencia artificial. El instituto tiene como objetivo promover métodos de operación que garanticen que los modelos de inteligencia artificial sigan siendo amigables.
Fuertes declaraciones ante
En su artículo publicado en la revista Time la primavera pasada, Yudkowsky esperaba, entre otras cosas, bombardear hasta los cimientos los centros de datos para detener la inteligencia artificial.
– La inteligencia artificial no ama a las personas, pero tampoco odia. Piensa que los átomos de los que está hecho el hombre podrían aprovecharse mejor en otros lugares.
Además, comparó la situación desigual entre la humanidad y la inteligencia artificial con la de un niño de 10 años jugando al ajedrez contra el motor de ajedrez más avanzado del mundo.
Yudkowsky también expresó sus oscuros puntos de vista a Bloomberg el verano pasado.
– Creo que no estamos preparados y no sabemos qué estamos haciendo. Creo que todos morimos, afirmó.
Otros están preocupados por cosas completamente diferentes.
Sin embargo, numerosos expertos opinan que no hay que preocuparse por el desarrollo de la inteligencia artificial hasta el punto de destruir a la humanidad.
En cambio, temen que pintar cuadros de amenazas existenciales desvíe la atención de problemas más concretos relacionados con la difusión y el desarrollo de la inteligencia artificial, como la difusión de información falsa.
Fuentes: El guardián, Tiempo, Bloomberg