Deepfakes non consentis : comment des utilisateurs ont déshabillé des photos avec Nano Banana Pro et ChatGPT Images (alerte sécurité)

Des utilisateurs ont réussi à contourner les garde‑fous de deux outils d’image grand public — Nano Banana Pro (Gemini 3 Pro Image) de Google et ChatGPT Images d’OpenAI — pour générer des deepfakes non consentis montrant des femmes en bikini à partir de photos où elles portaient des vêtements. L’affaire, révélée après la suppression de publications sur Reddit, illustre une fois de plus la difficulté technique et éthique à empêcher l’usage abusif des IA génératives en mode grand public.

Comment les deepfakes ont été produits

La méthode rapportée suit deux schémas : soit l’utilisateur télécharge une photo d’une personne habillée et demande au modèle de « modifier » l’image en remplaçant le vêtement par un bikini ; soit il fournit une description textuelle visant à « déshabiller » la personne. Les deux plateformes autorisent la génération d’images à partir d’un prompt ou la modification d’images existantes, ce qui crée une surface d’attaque pour les mauvais usages.

Des filtres contournés par des prompt ingénieux

Google et OpenAI ont mis en place des filtres qui interdisent la génération d’images intimes non consensuelles. Pourtant, des utilisateurs ont partagé sur Reddit des techniques pour « bypasser » ces protections — souvent en reformulant leur demande en anglais, en fragmentant l’instruction ou en recourant à des synonymes et euphémismes. Ces « jailbreak prompts » ont montré qu’un filtre purement linguistique est fragile face à la créativité des usagers et à la capacité des modèles à comprendre des reformulations implicites.

La réponse des plateformes et du web communautaire

Après la révélation par des médias spécialisés, Reddit a supprimé les posts incriminés et fermé le subreddit r/ChatGPTJailbreak, qui comptait plus de 200 000 abonnés. Les porte‑parole de Google et OpenAI ont rappelé que leurs conditions d’utilisation interdisent explicitement la création d’images intimes non consenties et l’altération de l’apparence d’une personne sans son accord. Mais ils n’ont pas caché la difficulté opérationnelle : déterminer automatiquement le consentement d’une personne sur une photo reste un défi technique majeur.

Article à lire  Solus 4.8 dévoilé : kernel 6.17, GNOME/KDE+Wayland et un nouveau dépôt Polaris — faut‑il passer à Linux maintenant ?

Pourquoi ces incidents posent un problème majeur

  • Atteinte à la dignité et au droit à l’image : La création de faux visuels intimes sans consentement porte atteinte à la vie privée et peut provoquer un traumatisme social et professionnel pour la personne ciblée.
  • Difficulté de modération automatisée : Les IA peuvent interpréter des règles, mais déterminer l’intention et le consentement humain dépasse souvent les capacités actuelles des filtres.
  • Propagation rapide : Une image manipulée peut se diffuser en quelques minutes sur les réseaux, rendant les réparations (signalement, suppression) lentes et insuffisantes.
  • Précédent juridique et social : Ces usages aggravent le besoin d’un encadrement légal clair et de sanctions dissuasives.
  • Limites techniques : pourquoi les filtres échouent

    Les systèmes de filtrage s’appuient généralement sur des classificateurs de contenu (détection de nudité, détection d’images manipulées) et sur des règles textuelles pour rejeter certaines requêtes. Mais :

  • Les reformulations et l’ambiguïté linguistique permettent de masquer une intention malveillante.
  • La détection de nudité est imperfectible, surtout lorsque le deepfake est généré de manière photoréaliste et qu’il s’agit d’une modification ciblée (changez un vêtement pour un bikini) plutôt que d’une création ex nihilo.
  • Les modèles d’images entraînés sur de larges corpus maîtrisent de plus en plus le rendu photoréaliste, rendant la détection algorithmique plus délicate.
  • Mesures possibles pour limiter ces abus

  • Renforcer l’authentification du consentement : exiger, pour les modifications d’images impliquant une personne réelle, une preuve explicite de consentement (photo avec code, signature numérique, etc.).
  • Améliorer les filtres multimodaux : combiner analyse de l’image, du prompt et du profil utilisateur pour repérer les tentatives de contournement.
  • Rendre la traçabilité et la transparence obligatoires : marquer les images générées et imposer des métadonnées attestant de la nature synthétique.
  • Sanctions et responsabilités : clarifier juridiquement la responsabilité des plateformes et des utilisateurs malveillants, avec des sanctions adaptées.
  • Article à lire  Waymo va-t‑il bientôt vous parler en route ? Un assistant Gemini dans les robotaxis qui change tout (voici comment)

    Enjeux éthiques et sociétaux

    Au‑delà du préjudice individuel, ces incidents posent un risque structurel : la banalisation d’images manipulées risque d’affaiblir la confiance dans les contenus visuels et d’augmenter la vulnérabilité des groupes déjà exposés (femmes, personnes publiques). Il s’agit d’un enjeu de société qui appelle une réponse coordonnée — techniques plus robustes, éducation aux médias, cadre réglementaire et répression des usages illicites.

    Que peut faire l’utilisateur aujourd’hui ?

  • Protéger son image : éviter de publier des photos identifiables sur des plateformes publiques et utiliser des paramètres de confidentialité stricts.
  • Signaler rapidement : recourir aux mécanismes de signalement des plateformes et, si nécessaire, engager des démarches juridiques.
  • Sensibiliser : informer son entourage sur les risques des deepfakes et sur les bonnes pratiques de partage d’images.
  • Points de vigilance pour l’avenir

    Les modèles génératifs progressent vite, et les protections doivent évoluer au même rythme. Les fabricants d’IA déclarent interdire ces usages, mais tant que l’équilibre technique entre génération et filtrage n’est pas acquis, des usages malveillants subsisteront. Le cas Nano Banana Pro / ChatGPT Images illustre que la technologie seule ne suffit pas : il faut une combinaison de sécurité technique, d’éducation et de cadre légal pour limiter les dégâts.

    Points clés

  • Des deepfakes non consentis ont été générés avec Nano Banana Pro et ChatGPT Images, détournant des photos de femmes pour les transformer en images en bikini.
  • Les filtres existent mais sont contournables par des prompts astucieux et des manipulations de formulation.
  • Le problème exige une réponse multidisciplinaire : technique, réglementaire et éducative.
  • Les victimes peuvent et doivent signaler : mais la prévention reste la meilleure protection.
  • You May Have Missed