Coronel de EE. UU. advierte sobre los peligros de la IA después de que un dron mata a su propio instructor durante una prueba virtual

La IA usó «estrategias muy inesperadas para lograr su objetivo» en una prueba simulada, dijo en una convención el coronel Tucker «Cinco» Hamilton, que dirige la prueba de IA de la Fuerza Aérea de EE. UU. En la prueba virtual, el dron impulsado por IA recibió el objetivo de destruir los sistemas de defensa aérea del enemigo. Al final, el dron atacó a cualquiera que amenazara con interrumpir la misión.

“El sistema comenzó a darse cuenta de que a veces el operador humano preferiría no matar a un objetivo (por ejemplo, niños, ed.) y es por eso que mató al operador”, se lee en una publicación de blog informada por los medios estadounidenses. “Porque podría impedir que el sistema logre todos sus objetivos”.

“Entrenamos al sistema para que dijera: ‘No puedes matar al operador. Eso es malo. Perderás puntos si haces eso. Entonces, ¿qué empieza a hacer la IA? Destruye la torre de comunicación que el operador usó para detener el dron», continúa Hamilton. El coronel ahora advierte sobre los peligros de la IA. “La ética y la IA están indisolublemente unidas”, dijo Hamilton. “No podemos hablar de inteligencia artificial, aprendizaje automático y autonomía sin hablar también de ética e IA”.

Air Force le dice a Insider, a diferencia de Hamilton, que la prueba nunca se llevó a cabo. Según el Ejército del Aire, las declaraciones del coronel han sido «sacadas de contexto».



ttn-es-34