Une technologie fascinante… mais alarmante
Depuis quelques jours, une vague d’indignation secoue l’Amérique latine, notamment l’Argentine. En cause : l’existence de plateformes gratuites utilisant l’intelligence artificielle (IA) pour retirer virtuellement les vêtements sur des photos, sans autorisation des personnes concernées. Derrière une apparence ludique, ces outils cachent une utilisation risquée et profondément intrusive de l’IA. Facilement accessibles, souvent sans vérification d’âge, ces applications exposent la vie privée au regard du public et menacent la dignité, l’anonymat et la sécurité, surtout chez les adolescents.
Un cas judiciaire marquant en Argentine
Le 22 mai 2025, dans la province de Corrientes, la juge Marta Rut Legarreta a ordonné le blocage d’un site web exploitant l’IA pour générer des photos à caractère intime. Cette décision est intervenue après la diffusion d’images impliquant des mineurs via WhatsApp. Elle marque un tournant : la justice argentine reconnaît ici que l’altération non consentie d’images constitue une atteinte grave à la vie privée et à l’intégrité des victimes. C’est un pas fort et rapide vers une adaptation judiciaire aux dangers posés par les nouvelles technologies.
Comment fonctionnent ces plateformes d’IA ?
Ces outils s’appuient sur des algorithmes de pointe, notamment les GANs (réseaux antagonistes génératifs) et les modèles de diffusion. Conçus pour améliorer ou créer des images réalistes, ils sont ici utilisés pour générer des nudités fictives à partir de photos. Grâce à l’apprentissage automatique sur de vastes bases d’images, ils produisent des résultats si crédibles qu’il devient difficile de distinguer le vrai du faux, ce qui renforce leur pouvoir de nuisance.
Des impacts concrets sur les victimes
Les conséquences ne relèvent pas de la fiction. Une fois partagées, ces images peuvent détruire une réputation, déclencher harcèlement et anxiété, voire entraîner des violences physiques. Les victimes sont souvent des adolescents, vulnérables face à la viralité et au manque de contrôle. Cette atteinte s’appuie sur une fausse intimité, doublée d’une perte complète de contrôle sur sa propre image. Le blocage du site en Argentine représente donc une action juridique cruciale, mais aussi un geste symbolique fort.
Vers une législation plus adaptée ?
En Argentine, le débat sur la Ley Olimpia (Loi 27.736), inspirée d’une législation mexicaine, prend une nouvelle dimension. Cette loi, qui criminalise la diffusion de contenu intime sans consentement, pourrait évoluer pour inclure explicitement les images générées par IA. D’autres pays, comme la Corée du Sud, le Royaume-Uni ou la France, mènent déjà des initiatives similaires. L’objectif : encadrer les usages publics de l’IA avant que le système judiciaire ne soit dépassé par la vitesse du progrès technologique.
Un espace sans règles : un danger numérique pour les jeunes
Un rapport du pouvoir judiciaire de Corrientes révèle que ces plateformes ne disposent d’aucun garde-fou : pas de limite d’âge, pas d’identification des développeurs, ni même de vérification du consentement des personnes ciblées. Cet environnement non régulé facilite les cyberviolences, le harcèlement et les attaques ciblées, en particulier envers les femmes et les mineurs. Le vide technico-légal encourage un sentiment préoccupant d’impunité chez les utilisateurs malveillants.
Des solutions concrètes existent déjà
Face à cette menace, des acteurs publics et privés s’engagent pour promouvoir un usage responsable de l’intelligence artificielle. À Toulouse, les experts de ChappyGo proposent un accompagnement éthique pour le développement technologique. À travers des formations et des conseils adaptés aux entreprises, aux établissements éducatifs ou aux laboratoires de recherche, ils placent la dimension humaine et morale au cœur de chaque projet IA. Leurs formations en intelligence artificielle sont accessibles aux débutants comme aux professionnels, avec un fort accent sur l’éthique et la confidentialité.
Quand la technologie dépasse l’éthique
L’émergence d’applications de type “quitar ropa” symbolise parfaitement les dérives d’un progrès technologique non encadré. Si l’IA peut offrir des avancées majeures en médecine, éducation ou création artistique, son usage devient critique dès qu’il porte atteinte aux droits fondamentaux. Le débat sur la gratuité de ces outils devient alors marginal : ce n’est pas le prix qui importe, mais le préjudice irréparable causé. La gratuité ne justifie en aucun cas l’impunité.
Ce que vous pouvez faire dès maintenant
Parents, enseignants, professionnels du numérique : votre rôle est essentiel. Informez les jeunes sur les dangers des images manipulées, signalez les plateformes problématiques, dialoguez au sujet du respect de l’image et encouragez l’usage d’outils numériques éthiques. Pour les professionnels souhaitant adopter l’IA de manière responsable, tournez-vous vers les spécialistes de ChappyGo via leur service IA éthique. Leurs formations vous initient à la conception, au déploiement et à la supervision de solutions IA sûres, performantes et respectueuses de la vie privée.