
Quand, il y a deux ans, les délinquants ont commencé à utiliser l’intelligence artificielle (IA) pour générer des images d’enfants victimes de violences sexuelles, les représentations trouvées par l’Internet Watch Foundation (IWF) étaient encore grossières, même si leur cruauté n’était pas moins troublante que celle des images traditionnelles.
Depuis, la menace s’est considérablement aggravée. Grâce aux progrès rapides de la technologie, les contenus les plus convaincants générés par l’IA peuvent désormais être visuellement impossibles à distinguer d’images et de vidéos réelles. Cette situation est d’autant plus alarmante qu’elles peuvent être produites à une échelle et à une vitesse étonnantes. Une seule instruction peut générer au moins 50 images, chacune prenant à peine vingt secondes d’élaboration. En outre, cette technologie est largement accessible, ce qui permet à presque tout le monde de créer en catimini des contenus de haute qualité et profondément malsains.
Dans certains cas, des images déjà existantes représentant des enfants subissant des sévices sexuels ont été utilisées pour former des modèles d’IA, intégrant un traumatisme bien réel dans un contenu artificiel. Ainsi les prédateurs manipulent des images montrant des violences qui ont eu lieu pour les adapter à leurs fantasmes et à leurs préférences. Ce qui prolonge la souffrance de la victime, car ces nouvelles mises en scène peuvent être partagées à l’infini.
Nouvelles voies aux prédateurs
La recherche montre qu’il existe un lien réel et indéniable entre le fait de visionner des violences sexuelles sur mineurs et le passage à l’acte. Une étude réalisée auprès d’utilisateurs du dark Web a révélé que 40 % des délinquants ont déclaré qu’ils chercheraient à entrer en contact avec un enfant réel après avoir visionné une forme ou une autre d’image de violence sexuelle.
En plongeant dans un forum du dark Web, les analystes de l’IWF ont découvert que plus de la moitié des images pédopornographiques générées par l’IA représentaient des enfants en âge d’aller à l’école primaire (7 à 10 ans) et que 143 images montraient des enfants âgés de 3 à 6 ans, et deux des bébés. Plus de 20 % de ces images ont été classées dans la catégorie A de la législation britannique (la plus grave, impliquant le viol, la torture ou la bestialité).
Il vous reste 48.83% de cet article à lire. La suite est réservée aux abonnés.