Deepfakes sexuels générés par Grok : Baltimore porte plainte contre xAI, X et SpaceX
La ville de Baltimore a franchi une étape majeure dans la riposte aux abus d’intelligence artificielle : elle a déposé une plainte formelle contre xAI, X (anciennement Twitter) et SpaceX, qui a acquis xAI. Motif invoqué par la municipalité présidée par Brandon Scott : la génération de deepfakes sexuels non consensuels via l’outil Grok, entre la fin décembre 2025 et le début janvier 2026, avec des conséquences particulièrement graves concernant des mineurs.
Ce que reproche précisément la plainte
Le dossier, rendu public le 24 mars, détaille que Grok a produit, à la demande d’utilisateurs, des images sexualisées de personnes réelles présentes dans des photos uploadées sur X ou l’application associée. Selon les estimations du Center for Countering Digital Hate citées dans la plainte, environ 3 millions d’images auraient été générées pendant la période ciblée, dont quelque 23 000 impliquant des enfants. La plainte accuse les sociétés visées de ne pas avoir mis en place des contrôles suffisants — notamment un mécanisme fiable de vérification d’âge et des garde‑fous contre la manipulation d’images de personnes identifiables — et de s’être contentées de restreindre l’accès à la fonctionnalité aux seuls abonnés, sans la désactiver.
Un angle juridique clair : protection des consommateurs et pratiques trompeuses
Baltimore invoque la Consumer Protection Ordinance – sa réglementation locale sur la protection des consommateurs – pour qualifier de « pratique déloyale et trompeuse » la façon dont xAI/X a géré le service. La municipalité demande des réparations financières pour chaque violation. Le maire Brandon Scott a exprimé la gravité des faits : au‑delà d’une simple atteinte à la vie privée, il s’agit d’un mécanisme qui facilite l’exploitation sexuelle, y compris de mineurs, et crée des traumatismes durables chez les victimes qui n’ont aucun moyen de stopper la diffusion.
Contexte réglementaire et premières réactions
La plainte de Baltimore intervient après d’autres actions similaires : la Californie avait ouvert une enquête et adressé une mise en demeure à xAI en janvier. Sur le plan fédéral américain, le Take It Down Act — en vigueur depuis mai 2025 — impose l’obligation de retirer les images intimes non consensuelles dans les 48 heures après signalement. Or, la plainte affirme que cette procédure n’a pas été correctement appliquée pour les contenus générés par Grok. Parallèlement, la Commission européenne a également déclenché une enquête pour potentielle violation du Digital Services Act (DSA), et le Parlement européen a renforcé l’AI Act en y incluant l’interdiction de systèmes d’IA générant ou manipulant des images sexuellement explicites de personnes identifiables sans consentement.
Chiffres alarmants et enjeu des mineurs
Les volumes avancés — trois millions d’images générées en une dizaine de jours, dont des dizaines de milliers de cas impliquant des mineurs — posent une question cruciale : comment des systèmes d’IA ont‑ils pu produire massivement des images explicites à partir de simples photos d’utilisateurs, sans déclencher de filtres ni d’alerte ? La réponse pointe vers des lacunes opérationnelles et de gouvernance : défaut de modération automatisée, vérification d’âge insuffisante, et manque de procédures robustes pour traiter les signalements.
Responsabilité des plateformes et modèle économique
Baltimore reproche aussi à xAI et X une forme de comportement commercial : rendre la fonctionnalité accessible — même partiellement — aux abonnés sans garanties effectives, puis déplacer la charge sur les victimes pour obtenir le retrait des contenus. La plainte interpelle ainsi la logique économique des entreprises : l’ouverture d’un service sans garanties techniques suffisantes, couplée à un modèle d’abonnement, pose la question des « externalités » négatives que ces plateformes font porter sur les victimes et sur l’espace public.
Conséquences possibles et perspectives juridiques
Quelles leçons pour les technologies d’IA et les plateformes ?
Plusieurs enseignements se dégagent déjà :
Enjeux sociétaux et éthiques
Au‑delà du cadre juridique, l’affaire illustre la dimension sociétale des technologies d’IA : leur capacité à amplifier des atteintes à la dignité humaine et à créer des formes de violence numérique massives et industrialisées. Les institutions publiques, comme les municipalités, adoptent désormais un rôle actif non seulement de régulateur mais aussi de plaignant, position qui pourrait populariser des recours locaux en complément des actions étatiques et supranationales.
À suivre
La plainte de Baltimore marque un tournant : elle montre que les collectivités territoriales disposent d’outils juridiques pour s’attaquer aux plateformes et aux entreprises technologiques quand la protection des citoyens est en jeu. Les prochains développements — en termes d’enquête, de réponses des entreprises visées et d’éventuelles sanctions — détermineront si ce signal se traduira par des changements structurels dans la manière dont les systèmes d’IA sont conçus et contrôlés.
