Los términos de servicio de ChatGPT han prohibido su uso con fines militares. La mención fue eliminada a principios de enero con la menor cantidad de votos.
Adobe Stock
En enero, OpenAI eliminó silenciosamente de sus términos de uso la mención de que ChatGPT no puede usarse con fines militares. La prohibición se mencionó en los términos de uso hasta el 10 de enero.
de la intercepción Anteriormente, los términos establecían directamente que los productos de OpenAI no debían utilizarse para “actividades con un alto riesgo de daño físico”, incluido el “desarrollo de armas” y “operaciones militares y fuerzas armadas”.
Desde entonces, las hostilidades y las fuerzas armadas han desaparecido del texto. Sin embargo, los términos renovados mencionan la prohibición de utilizar el servicio “para dañarse a sí mismo o a otros” y también incluyen como ejemplo “el uso y desarrollo de armas”.
Ahora una agencia de noticias Bloomberg Dice que OpenAI trabaja en proyectos de software del Departamento de Defensa de Estados Unidos, que están relacionados con la ciberseguridad, entre otras cosas. La compañía lo anunció el martes.
En el Foro Económico Mundial, OpenAI también dijo que está desarrollando herramientas para la administración estadounidense que podrían reducir los suicidios de veteranos. Los veteranos de guerra se suicidan significativamente más que otras personas debido, entre otras cosas, al estrés traumático, la depresión y los sentimientos de culpa.
Según The Intercept, el cambio en las condiciones de uso ha generado preocupación entre los defensores de la seguridad de la IA. Los nuevos términos parecen enfatizar el cumplimiento de la ley más que la seguridad integral.
Empresa de ciberseguridad Trail of Bits Heidy Khlaaf ha sido previamente coautor con investigadores de OpenAI Artículo de investigaciónque destacó los peligros de patrones lingüísticos extensos en el uso militar.
Khlaaf comentó a Intercept que las implicaciones de la participación de OpenAI en el desarrollo de armas y operaciones militares son importantes para la seguridad de la IA.
Según él, la inexactitud de los modelos lingüísticos y la tendencia a las alucinaciones y a la parcialidad sólo pueden conducir a operaciones imprecisas y sesgadas, lo que aumenta el número de víctimas y daños civiles.