Des photos de nus générées par l’IA suscitent la discussion

Des photos nues ont été vendues sur le forum Reddit – mais pas de vraies photos de personnes déshabillées. Ce sont des images générées par une IA. Cela fait maintenant débat.

Sous la rubrique « F19 Feeling jolie aujourd’hui » (Eng. « Feel jolie aujourd’hui »), vous pouvez trouver l’image supposée d’une femme sur Reddit. Apparemment, « Claudia » est une jeune brune aux grands yeux gris-vert, aux cheveux noirs mi-longs et à la peau très impeccable, qui pose pour le selfie dans ce qui pourrait être un salon. Seulement : Claudia n’est pas une vraie personne. L’image a été générée par une intelligence artificielle (IA) puis, comme beaucoup d’autres, vendue sur la plateforme Reddit. En attendant, le compte correspondant a été signalé – mais les photos sont toujours disponibles. Et il y a aussi beaucoup de choses à dire.

Photos nues de KI sur Reddit

La première pierre de cette histoire a en fait été posée par un projet de deux étudiants en informatique. Ils avaient lancé ensemble un programme d’IA appelé « Stable Diffusion ». L’objectif était de générer des images qui semblaient aussi réalistes que possible à l’aide d’une IA et sur la base de la saisie de texte – apparemment avec succès.

Parce que comme les deux dem Le magazine Rolling Stone a rapporté, ils ont en fait gagné un peu plus de 100 $ grâce aux photos nues de « Claudia ». Le Compte Reddit était probablement signifié « comme une blague ». « Honnêtement, nous ne pensions pas que ce serait si populaire », a déclaré le duo. En plus de « l’appel », la critique de la procédure est également forte.

Discussion sur les photos nues AI

Une partie de la discussion ravivée dans le débat sur les images générées par l’IA est que l’IA a besoin d’images de personnes réelles pour former des personnes qui n’ont probablement pas explicitement consenti à cette utilisation. De plus, l’IA peut également être utilisée pour modifier des images de personnes réelles de manière encore plus réaliste qu’avec des programmes tels que Photoshop. Megastar Keanu Reeves, par exemple, a un compte Instagram fictif où l’acteur semble faire toutes sortes de choses amusantes. Ce contenu n’est pas non plus réel.

C’est ici que vous trouverez le contenu d’Instagram

Afin d’interagir avec ou d’afficher le contenu des réseaux sociaux, nous avons besoin de votre consentement.

Un autre exemple actuel est fourni par les soi-disant influenceurs virtuels. La fictive « Imma » est suivie par 400 000 comptes sur Instagram. De leur description de profil et surtout de leurs vidéos, on peut voir qu’il s’agit d’une personne générée par l’IA. Cependant, cela est moins clair sur les photos. De plus, ils présentent souvent de vraies personnes qui semblent interagir avec la personne générée par l’IA.

C’est ici que vous trouverez le contenu d’Instagram

Afin d’interagir avec ou d’afficher le contenu des réseaux sociaux, nous avons besoin de votre consentement.

« Imma » fait de la publicité, partageant apparemment ses pensées et ses sentiments avec ses abonnés. Un post dit : « N’est-ce pas difficile pour quelqu’un de connaître le vrai moi ? Est-ce que mes sentiments sincères atteignent quelqu’un ? Je veux que vous compreniez le vrai moi… » La société derrière le compte crée une histoire complète autour de la jeune femme virtuelle au bob rose. Elle va à des événements, se dispute avec son frère, a un travail.

Selon l’expert des médias Oliver Zöllner de l’Institut d’éthique numérique de Stuttgart, un problème avec ce type de représentation et d’émotivité est souvent le manque de transparence. Le fonctionnement des programmes sous-jacents n’est pas toujours clair. Il n’est pas non plus immédiatement évident pour tout le monde que ce ne sont pas de vraies personnes, a déclaré Zöllner à l’agence de presse dpa. Selon l’expert, le « business model d’acquisition et d’exploitation de données » plutôt opaque ne doit pas non plus être négligé. Dans le cas des photos nues AI sur Reddit, les acheteurs ignoraient apparemment que les images n’étaient pas de vraies personnes.

L’IA pourrait changer l’industrie du porno

Un autre problème avec les nus AI est souvent lié à l’industrie du porno, où les « deepfakes » sont plus répandus. Il utilise l’IA pour insérer le visage d’une personne dans un contenu pornographique sans son consentement. Les victimes sont majoritairement des femmes. Mais des photos nues de personnes entièrement générées par l’IA pourraient également déclencher un changement. Les deux étudiants qui ont créé la fictive « Claudia » le voient aussi de cette façon. « La personne qui achète les photos est contente du résultat puisqu’elle a cherché du porno (…). Nous n’avons jamais dit qu’il s’agissait de photos d’une personne réelle et les acheteurs ne les ont jamais vraiment demandées. Ils l’ont simplement accepté.

C’est différent maintenant. Depuis que les messages de Claudia ont été signalés, ses messages ont été signalés en conséquence. Un modérateur du forum souligne également explicitement qu’un tel contenu généré par l’IA ne violerait pas les règles de la plateforme. Et tout le monde n’est pas dérangé par les photos nues de l’IA.

En fait, il existe même maintenant des communautés explicitement pour le contenu pornographique des IA. Cela offre l’avantage, entre autres, que les préférences personnelles de l’utilisateur peuvent être servies différemment. Cela peut être vu dans l’exemple de « Claudia ». Le texte entré ici était : « Sans maquillage, cheveux noirs, cheveux mi-longs, fond uni, cheveux raides, frange ». Plus n’était pas nécessaire pour la création d’une image correspondante.



ttn-fr-35