OpenAI refuse de transmettre 20 millions de conversations au New York Times : le scandale qui secoue la justice !
L’affaire opposant OpenAI au New York Times franchit une nouvelle étape juridique : la magistrate Ona Wang a sommé OpenAI de remettre 20 millions de conversations entre utilisateurs et ChatGPT d’ici le 14 novembre. S’appuyant sur la volonté de préserver la vie privée, OpenAI refuse de transmettre la quasi-totalité de ces échanges, provoquant un bras de fer entre géant de l’IA et grand quotidien américain.
Origines du litige et premières demandes du New York Times
Tout remonte à la plainte déposée par le New York Times il y a près de deux ans, accusant OpenAI et Microsoft d’avoir exploité sans autorisation ses articles, y compris ceux protégés par le paywall, pour entraîner les modèles de ChatGPT. Dans un premier temps, le quotidien demandait à ce qu’OpenAI conserve les « outputs » générés, afin de démontrer d’éventuelles utilisations non autorisées de ses contenus.
Face à ce refus initial, le New York Times a élargi sa requête pour réclamer l’accès à plus de 1,4 milliard de conversations, afin d’y repérer d’éventuelles reproductions de passages de ses articles. L’objectif : prouver la violation de droits d’auteur et établir la responsabilité d’OpenAI.
L’ordre de la juge Ona Wang et le refus d’OpenAI
Le 14 novembre, la juge fédérale Ona Wang a ordonné à OpenAI de fournir 20 millions de conversations, à condition que toutes soient anonymisées pour éviter toute identification des utilisateurs. Mais OpenAI n’a rien transmis, arguant que 99,99 % des échanges ne présentent aucun lien avec la plainte et que leur remise en masse violerait la confidentialité de millions d’utilisateurs.
Dans un mémoire déposé auprès du tribunal, l’entreprise californienne a sollicité la révision de cet ordre, soulignant le caractère disproportionné de la demande et proposant de limiter la divulgation aux seuls extraits susceptibles de contenir des textes litigieux issus du New York Times.
La riposte vigoureuse du New York Times
De son côté, le New York Times dénonce « des affirmations mensongères » de la part d’OpenAI. Dans un communiqué, l’éditeur affirme que le litige vise précisément « à tenir ces entreprises responsables du vol de millions d’œuvres protégées par le droit d’auteur ». Il accuse également OpenAI de manipuler l’opinion en présentant cette démarche comme un risque pour la vie privée, alors que ses propres conditions d’utilisation prévoient explicitement que les conversations peuvent servir à l’entraînement des modèles et être divulguées dans le cadre d’une procédure judiciaire.
Enjeux autour de la vie privée et de l’anonymisation
Au centre de ce conflit, la question de la protection des données personnelles. OpenAI met en avant la nécessité de sécuriser la confidentialité des utilisateurs, rappelant que la remise de millions de conversations, même anonymisées, pourrait être exploitée par des tiers (avocats, experts) pour reconstituer des profils d’échange. L’entreprise promet toutefois d’introduire des mécanismes de cryptage côté client pour renforcer la confidentialité future des échanges.
Pour le New York Times, cet argument est un écran de fumée : selon l’éditeur, les seules données pertinentes sont celles susceptibles de démontrer l’inclusion illicite de passages protégés. L’éditeur rappelle également que des cas antérieurs ont vu des conversations de ChatGPT apparaître dans les résultats de recherche Google, attestant que la vie privée des utilisateurs n’a pas toujours été respectée.
Conséquences juridiques et technologiques
Le tribunal a validé la demande de remise d’un échantillon de conversations, à condition qu’OpenAI procède lui-même à l’anonymisation sous supervision légale. Cette décision marque un précédent dans la régulation des modèles de langage : elle confirme le pouvoir des tribunaux de contraindre les géants de l’IA à dévoiler des données internes, même face à des enjeux de confidentialité importante.
Techniquement, OpenAI devra mettre en place des chaînes d’anonymisation automatisée, gage de transparence pour la justice, tout en respectant les exigences de protection des informations personnelles. De nouvelles fonctionnalités de confidentialité, telles que le chiffrement côté client, devraient être accélérées dans la roadmap de développement.
Perspectives et calendrier de la procédure
La prochaine audience est programmée pour évaluer la mise en œuvre des solutions d’anonymisation et la remise du premier lot de données. Si OpenAI ne respecte pas l’injonction, l’entreprise s’expose à des sanctions financières et à une atteinte à sa crédibilité en matière de respect des normes juridiques américaines.
Ce dossier illustre la montée en puissance du contrôle judiciaire sur les architectures d’IA et souligne l’équilibre délicat entre innovation technologique et protection des droits, tant ceux des créateurs de contenu que ceux des utilisateurs finaux.



