Le 10 janvier, un changement s’est opéré dans un silence complet, que le monde entier devrait entendre.


Les conditions d’utilisation de ChatGPT interdisent son utilisation à des fins militaires. La mention a été supprimée plus tôt en janvier avec le moins de voix.

Les conditions d’utilisation de ChatGPT interdisaient son utilisation à des fins militaires – cette mention a désormais été supprimée. Le contexte doit être la coopération entre OpenAI et le Pentagone. Adobe Stock

En janvier, OpenAI a discrètement supprimé de ses conditions d’utilisation la mention selon laquelle ChatGPT ne peut pas être utilisé à des fins militaires. L’interdiction était mentionnée dans les conditions d’utilisation jusqu’au 10 janvier.

de L’Interception Auparavant, les termes indiquaient directement que les produits d’OpenAI ne devaient pas être utilisés pour des « activités présentant un risque élevé de dommages physiques », y compris le « développement d’armes » et les « opérations militaires et forces armées ».

Depuis, les hostilités et les forces armées ont disparu du texte. Cependant, les conditions renouvelées mentionnent l’interdiction d’utiliser le service « pour faire du mal à vous-même ou à autrui » et incluent également « l’utilisation et le développement d’armes » à titre d’exemple.

Maintenant une agence de presse Bloomberg dit qu’OpenAI travaille sur des projets logiciels du ministère de la Défense des États-Unis, qui sont liés, entre autres, à la cybersécurité. La société l’a annoncé mardi.

Lors du Forum économique mondial, OpenAI a également déclaré qu’elle développait des outils pour l’administration américaine qui pourraient réduire les suicides d’anciens combattants. Les anciens combattants se suicident beaucoup plus que les autres personnes, notamment à cause du stress traumatique, de la dépression et du sentiment de culpabilité.

Selon The Intercept, le changement dans les conditions d’utilisation a suscité des inquiétudes parmi les défenseurs de la sécurité de l’IA. Les nouveaux termes semblent mettre l’accent sur le respect de la loi plutôt que sur une sécurité globale.

Société de cybersécurité Trail of Bits Heidy Khlaaf a déjà co-écrit avec des chercheurs d’OpenAI article de recherchequi a mis en évidence les dangers de modèles linguistiques extensifs dans l’usage militaire.

Khlaaf a déclaré à Intercept que les implications de l’implication d’OpenAI dans le développement d’armes et les opérations militaires sont importantes pour la sécurité de l’IA.

Selon lui, l’imprécision des modèles de langage et la tendance aux hallucinations et aux préjugés ne peuvent que conduire à des opérations imprécises et biaisées, ce qui augmente le nombre de victimes civiles et les dégâts.



ttn-fr-54