¿Qué tal no seguir adelante con una tecnología que podría matar a todos los humanos?


Así que aquí hay un pensamiento. En lugar de seguir adelante con una tecnología que, según sus principales inventores, pronto podría tener el poder de matar humanos, ¿qué tal no seguir adelante con ella?

Esta noción radical es impulsada por una advertencia del hombre que creó el grupo de trabajo de inteligencia artificial del primer ministro. Matt Clifford observó que, «Puede haber amenazas realmente muy peligrosas para los humanos que podrían matar a muchos humanos, no a todos los humanos, simplemente desde donde esperaríamos que estuvieran los modelos dentro de dos años». Pensándolo bien, tal vez estoy exagerando. Sus comentarios completos fueron más matizados y, de todos modos, no todos son humanos. Solo muchos de ellos.

Pero advertencias apocalípticas similares provienen de figuras destacadas en su desarrollo, que escriben bajo la égida del Centro para la Seguridad de la IA. En una advertencia admirablemente sucinta, un quién es quién de la industria de la IA enfatizó que: «Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear». Los jefes de Google DeepMind, OpenAI y muchos otros se tomaron un tiempo para inventar la tecnología que podría acabar con toda la vida humana para advertirnos al resto de nosotros que, realmente, se debe hacer algo para evitar que esto suceda.

¿Y se supone que estos tipos son los genios? En los cobertizos de macetas de Inglaterra, hay una cantidad de tipos un poco chiflados que han inventado una nueva máquina que podría ser brillante pero que también podría incendiar su casa, y la mayoría de ellos se las arreglaron para darse cuenta por sí mismos de que tal vez el dispositivo no es tan bueno. una gran idea después de todo.

Aquí es donde los pequeños inventores se han equivocado. Tal vez en lugar de averiguar los riesgos por sí mismos, lo que realmente tenían que hacer era obtener varios miles de millones de libras de fondos de capital de riesgo y luego escribir una carta al consejo local advirtiendo que realmente deberían ser controlados.

Reconozco, para ser serio, que se esperan grandes cosas de la inteligencia artificial, muchas de las cuales no implican la aniquilación de la raza humana. Muchos argumentan que la IA podría desempeñar un papel fundamental en la entrega de un futuro libre de carbono, aunque tal vez eso sea solo un eufemismo para acabar con la humanidad.

Igual de importante es que los avances ya realizados no se pueden desinventar. Pero los chatbots de IA ya están falsificando información, o «alucinando», como prefieren llamarlo sus desarrolladores, y sus inventores no están muy seguros de por qué. Así que parece haber un argumento para reducir la velocidad y arreglar esa pequeña arruga antes de pasar, ya sabes, a la tecnología de nivel de extinción.

Una visión generosa de los líderes tecnológicos que piden ser atados es que están siendo responsables y que son los otros actores irresponsables los que les preocupan. Les gustaría hacer más, pero, ya ves, los muchachos de Google no pueden dejarse vencer por los muchachos de Microsoft.

Por lo tanto, estas advertencias son un intento de hacer que los políticos y los reguladores entren en acción, lo cual es muy deportivo de su parte dado que los líderes mundiales tienen un historial tan estelar de responder de manera cooperativa e inteligente a las amenazas de nivel de extinción. Ya pues. Lo han mencionado al Congreso de los Estados Unidos. No creo que podamos pedir mucho más. Y el gobierno británico ahora está en el caso, lo que sería más tranquilizador si no estuviera todavía luchando por procesar a los solicitantes de asilo en menos de 18 meses.

Con suerte, las advertencias impactarán a los gobiernos para que tomen medidas útiles. Tal vez esto conduzca a estándares globales, acuerdos internacionales y una moratoria sobre desarrollos devastadores.

De cualquier manera, las conciencias de los gurús de la IA ahora están tranquilas. Han hecho todo lo que han podido. Y si algún día, alrededor de 2025, las máquinas realmente obtienen el poder de aniquilarnos (lo siento, a muchos de nosotros), me gusta pensar que en los últimos segundos la IA enviará una última pregunta a las mentes brillantes que a sabiendas cometieron un error. con una tecnología que podría destruirnos sin que en ese momento descubramos cómo, ya sabes, evitar que lo haga.

«¿Por qué continuaste, sabiendo los riesgos?» pregunta SkyNet. Y en sus últimos segundos los genios responden: “¿Qué quieres decir? Firmamos una declaración”.

Sigue a Roberto en Twitter @robertshrimsley y envíele un correo electrónico a [email protected]

Seguir @FTMag en Twitter para enterarte primero de nuestras últimas historias





ttn-es-56