“Los sistemas de inteligencia artificial potentes solo deben desarrollarse cuando estemos seguros de que su impacto es positivo y sus riesgos manejables”. Así lo escribe la organización sin ánimo de lucro Future of Life en una carta abierta publicada el 22 de marzo, que fue firmada por más de 26.000 desarrolladores, emprendedores e investigadores poco menos de un mes después. Los partidarios de las demandas expresadas en la carta incluyen a los jefes de Tesla Elon Musk incluido el ganador del premio Turing, Yoshua Bengio, y el cofundador de Apple, Steve Wozniak. El escritor e historiador de renombre mundial Yuval Noah Harari también ha firmado.
El requisito: las IA altamente inteligentes no deben entrenarse durante seis meses
En la carta, los expertos plantean la cuestión de la moralidad y de cómo queremos desarrollarnos como sociedad: “¿Deberíamos desarrollar mentes no humanas que algún día podrían superarnos en número, ser más inteligentes que nosotros y hacernos superfluos y [dann] podría reemplazar? ¿Deberíamos arriesgarnos a perder el control de la sociedad?”.
Si bien sus opiniones pueden diferir sobre estas preguntas, todos los signatarios están de acuerdo en un punto: antes de que realmente suceda, creen que la sociedad debe decidir colectivamente un camino y escribir un conjunto de reglas para el desarrollo y uso de IA, preferiblemente ayer. “Hacemos un llamado a todos los laboratorios de IA para que pausen el entrenamiento de los sistemas de IA que son más poderosos que GPT-4 durante al menos seis meses con efecto inmediato”, dice la carta abierta. Esto no exige en modo alguno un parón absoluto en el desarrollo, sino que empresas, investigadores y desarrolladores den un paso atrás en la peligrosa carrera que se está produciendo actualmente en el campo de la inteligencia artificial. Según el abajo firmante, durante el receso de seis meses, toda la industria debe enfocarse uniformemente en la seguridad y confiabilidad de la nueva tecnología.
Expertos: las IA podrían manipular los canales de información
El motivo de las demandas es que Future of Life y los abajo firmantes actualmente ven “riesgos profundos para la sociedad y la humanidad” en IA particularmente inteligentes. Por lo tanto, no es descabellado que las IA inunden los canales de información con propaganda y falsedades en un futuro próximo. Dichos riesgos deben limitarse antes de continuar con el entrenamiento de IA poderosas existentes y nuevas.
Además del desarrollo conjunto de un conjunto de reglas para tratar con la inteligencia artificial, los abajo firmantes exigen que todos los desarrolladores hagan que su trabajo actual y futuro sea verificable públicamente en plataformas públicas. También exigen una moratoria de todos los estados si esto no se cumple y si la industria no escribe pronto un conjunto de reglas que se aplican a todos.
Redacción finanzen.net
El apalancamiento debe estar entre 2 y 20
Sin datos
Créditos de imagen: Joshua Lott/Getty Images, Diego Donamaria/Getty Images para SXSW