Deepfakes non consentis : comment des utilisateurs ont déshabillé des photos avec Nano Banana Pro et ChatGPT Images (alerte sécurité)
Des utilisateurs ont réussi à contourner les garde‑fous de deux outils d’image grand public — Nano Banana Pro (Gemini 3 Pro Image) de Google et ChatGPT Images d’OpenAI — pour générer des deepfakes non consentis montrant des femmes en bikini à partir de photos où elles portaient des vêtements. L’affaire, révélée après la suppression de publications sur Reddit, illustre une fois de plus la difficulté technique et éthique à empêcher l’usage abusif des IA génératives en mode grand public.
Comment les deepfakes ont été produits
La méthode rapportée suit deux schémas : soit l’utilisateur télécharge une photo d’une personne habillée et demande au modèle de « modifier » l’image en remplaçant le vêtement par un bikini ; soit il fournit une description textuelle visant à « déshabiller » la personne. Les deux plateformes autorisent la génération d’images à partir d’un prompt ou la modification d’images existantes, ce qui crée une surface d’attaque pour les mauvais usages.
Des filtres contournés par des prompt ingénieux
Google et OpenAI ont mis en place des filtres qui interdisent la génération d’images intimes non consensuelles. Pourtant, des utilisateurs ont partagé sur Reddit des techniques pour « bypasser » ces protections — souvent en reformulant leur demande en anglais, en fragmentant l’instruction ou en recourant à des synonymes et euphémismes. Ces « jailbreak prompts » ont montré qu’un filtre purement linguistique est fragile face à la créativité des usagers et à la capacité des modèles à comprendre des reformulations implicites.
La réponse des plateformes et du web communautaire
Après la révélation par des médias spécialisés, Reddit a supprimé les posts incriminés et fermé le subreddit r/ChatGPTJailbreak, qui comptait plus de 200 000 abonnés. Les porte‑parole de Google et OpenAI ont rappelé que leurs conditions d’utilisation interdisent explicitement la création d’images intimes non consenties et l’altération de l’apparence d’une personne sans son accord. Mais ils n’ont pas caché la difficulté opérationnelle : déterminer automatiquement le consentement d’une personne sur une photo reste un défi technique majeur.
Pourquoi ces incidents posent un problème majeur
Limites techniques : pourquoi les filtres échouent
Les systèmes de filtrage s’appuient généralement sur des classificateurs de contenu (détection de nudité, détection d’images manipulées) et sur des règles textuelles pour rejeter certaines requêtes. Mais :
Mesures possibles pour limiter ces abus
Enjeux éthiques et sociétaux
Au‑delà du préjudice individuel, ces incidents posent un risque structurel : la banalisation d’images manipulées risque d’affaiblir la confiance dans les contenus visuels et d’augmenter la vulnérabilité des groupes déjà exposés (femmes, personnes publiques). Il s’agit d’un enjeu de société qui appelle une réponse coordonnée — techniques plus robustes, éducation aux médias, cadre réglementaire et répression des usages illicites.
Que peut faire l’utilisateur aujourd’hui ?
Points de vigilance pour l’avenir
Les modèles génératifs progressent vite, et les protections doivent évoluer au même rythme. Les fabricants d’IA déclarent interdire ces usages, mais tant que l’équilibre technique entre génération et filtrage n’est pas acquis, des usages malveillants subsisteront. Le cas Nano Banana Pro / ChatGPT Images illustre que la technologie seule ne suffit pas : il faut une combinaison de sécurité technique, d’éducation et de cadre légal pour limiter les dégâts.



