Deepfakes sexuels générés par Grok : la ville de Baltimore attaque xAI, X et SpaceX — pourquoi cette plainte peut tout changer

Deepfakes sexuels générés par Grok : Baltimore porte plainte contre xAI, X et SpaceX

La ville de Baltimore a franchi une étape majeure dans la riposte aux abus d’intelligence artificielle : elle a déposé une plainte formelle contre xAI, X (anciennement Twitter) et SpaceX, qui a acquis xAI. Motif invoqué par la municipalité présidée par Brandon Scott : la génération de deepfakes sexuels non consensuels via l’outil Grok, entre la fin décembre 2025 et le début janvier 2026, avec des conséquences particulièrement graves concernant des mineurs.

Ce que reproche précisément la plainte

Le dossier, rendu public le 24 mars, détaille que Grok a produit, à la demande d’utilisateurs, des images sexualisées de personnes réelles présentes dans des photos uploadées sur X ou l’application associée. Selon les estimations du Center for Countering Digital Hate citées dans la plainte, environ 3 millions d’images auraient été générées pendant la période ciblée, dont quelque 23 000 impliquant des enfants. La plainte accuse les sociétés visées de ne pas avoir mis en place des contrôles suffisants — notamment un mécanisme fiable de vérification d’âge et des garde‑fous contre la manipulation d’images de personnes identifiables — et de s’être contentées de restreindre l’accès à la fonctionnalité aux seuls abonnés, sans la désactiver.

Un angle juridique clair : protection des consommateurs et pratiques trompeuses

Baltimore invoque la Consumer Protection Ordinance – sa réglementation locale sur la protection des consommateurs – pour qualifier de « pratique déloyale et trompeuse » la façon dont xAI/X a géré le service. La municipalité demande des réparations financières pour chaque violation. Le maire Brandon Scott a exprimé la gravité des faits : au‑delà d’une simple atteinte à la vie privée, il s’agit d’un mécanisme qui facilite l’exploitation sexuelle, y compris de mineurs, et crée des traumatismes durables chez les victimes qui n’ont aucun moyen de stopper la diffusion.

Article à lire  Michelangelo Dome : le bouclier italien inédit contre drones, missiles hypersoniques et cyberattaques — comment il protège nos villes

Contexte réglementaire et premières réactions

La plainte de Baltimore intervient après d’autres actions similaires : la Californie avait ouvert une enquête et adressé une mise en demeure à xAI en janvier. Sur le plan fédéral américain, le Take It Down Act — en vigueur depuis mai 2025 — impose l’obligation de retirer les images intimes non consensuelles dans les 48 heures après signalement. Or, la plainte affirme que cette procédure n’a pas été correctement appliquée pour les contenus générés par Grok. Parallèlement, la Commission européenne a également déclenché une enquête pour potentielle violation du Digital Services Act (DSA), et le Parlement européen a renforcé l’AI Act en y incluant l’interdiction de systèmes d’IA générant ou manipulant des images sexuellement explicites de personnes identifiables sans consentement.

Chiffres alarmants et enjeu des mineurs

Les volumes avancés — trois millions d’images générées en une dizaine de jours, dont des dizaines de milliers de cas impliquant des mineurs — posent une question cruciale : comment des systèmes d’IA ont‑ils pu produire massivement des images explicites à partir de simples photos d’utilisateurs, sans déclencher de filtres ni d’alerte ? La réponse pointe vers des lacunes opérationnelles et de gouvernance : défaut de modération automatisée, vérification d’âge insuffisante, et manque de procédures robustes pour traiter les signalements.

Responsabilité des plateformes et modèle économique

Baltimore reproche aussi à xAI et X une forme de comportement commercial : rendre la fonctionnalité accessible — même partiellement — aux abonnés sans garanties effectives, puis déplacer la charge sur les victimes pour obtenir le retrait des contenus. La plainte interpelle ainsi la logique économique des entreprises : l’ouverture d’un service sans garanties techniques suffisantes, couplée à un modèle d’abonnement, pose la question des « externalités » négatives que ces plateformes font porter sur les victimes et sur l’espace public.

Article à lire  WhatsApp pour les moins de 13 ans : comptes parentaux supervisés lancés — sécuriser ou surveiller nos enfants ?

Conséquences possibles et perspectives juridiques

  • Si la plainte aboutit, elle pourrait aboutir à des mesures d’indemnisation et imposer des pratiques strictes de vérification et de retrait.
  • Elle renforce aussi la pression sur les régulateurs nationaux et internationaux pour rendre contraignantes les obligations de conception éthique des systèmes d’IA (privacy by design et safety by design).
  • Les jurisprudences à venir pourraient préciser la responsabilité civile et pénale des développeurs d’IA et des plateformes qui exploitent ces modèles.
  • Quelles leçons pour les technologies d’IA et les plateformes ?

    Plusieurs enseignements se dégagent déjà :

  • la nécessité d’intégrer des garde‑fous techniques solides (détection d’images manipulées, vérification d’âge fiable, limitation des capacités de génération pour des images de personnes identifiables) ;
  • l’importance d’un DAO (due‑diligence opérationnel) renforcé pour tout déploiement public d’une IA multimodale ;
  • la mise en place de canaux de signalement rapides et efficaces assortis d’obligations de retrait claires et contraignantes.
  • Enjeux sociétaux et éthiques

    Au‑delà du cadre juridique, l’affaire illustre la dimension sociétale des technologies d’IA : leur capacité à amplifier des atteintes à la dignité humaine et à créer des formes de violence numérique massives et industrialisées. Les institutions publiques, comme les municipalités, adoptent désormais un rôle actif non seulement de régulateur mais aussi de plaignant, position qui pourrait populariser des recours locaux en complément des actions étatiques et supranationales.

    À suivre

    La plainte de Baltimore marque un tournant : elle montre que les collectivités territoriales disposent d’outils juridiques pour s’attaquer aux plateformes et aux entreprises technologiques quand la protection des citoyens est en jeu. Les prochains développements — en termes d’enquête, de réponses des entreprises visées et d’éventuelles sanctions — détermineront si ce signal se traduira par des changements structurels dans la manière dont les systèmes d’IA sont conçus et contrôlés.

    Article à lire  Un avion a atterri tout seul en urgence grâce à un pilote IA — le sauvetage automatique qui change tout aux vols !

    You May Have Missed