Vous ne devinerez pas comment Anthropic va utiliser VOS discussions pour entraîner Claude !
Anthropic modifie sa politique de confidentialité pour entraîner Claude
Anthropic, la start-up californienne spécialisée dans les modèles de langage, annonce un changement majeur de sa politique de confidentialité : à compter du 28 septembre, elle exploitera les échanges réalisés par les utilisateurs (chats et sessions de codage) pour améliorer ses modèles Claude. Cette initiative soulève des questions légitimes sur la protection des données et le consentement, tant pour les particuliers que pour les développeurs qui s’appuient sur Claude.
Notification et choix de l’utilisateur
Au moment de se connecter, chaque utilisateur verra désormais apparaître une notification clairement visible. Par défaut, l’option « Accepter » est pré-sélectionnée, autorisant Anthropic à recueillir le texte des conversations et des lignes de code. Toutefois, un bouton « Pas maintenant » permet de différer la décision. Si l’utilisateur ne choisit rien avant le 28 septembre, l’accès à Claude sera bloqué jusqu’à ce qu’il prenne position.
Cette stratégie incitative, par un positionnement visuel mis en avant, place la responsabilité du consentement sur l’utilisateur. Il pourra toutefois modifier son paramètre à tout moment dans les options de confidentialité, mais ce choix ne s’appliquera qu’aux futures discussions et sessions de codage, pas aux données déjà collectées.
Modèles concernés et exceptions
La mesure s’appliquera aux plans Claude Free, Claude Pro et Claude Max. En revanche, sont exclus :
- Les accès via l’API Claude
- Les intégrations sur Amazon Bedrock
- Les connexions par l’intermédiaire de Google Vertex AI
- Les offres destinées aux clients commerciaux
Les utilisateurs de ces versions professionnelles ou d’intégrations tierces continueront à bénéficier de la politique de confidentialité actuelle, sans collecte des chats pour l’entraînement des modèles.
Durée de conservation et traitement des données
Si l’utilisateur refuse l’entraînement, Anthropic conservera ses données pendant 30 jours, délai alloué pour répondre à d’éventuelles demandes de suppression ou d’accès. En cas d’acceptation, les données seront conservées pendant cinq ans. L’entreprise garantit que :
- Les informations sensibles seront masquées ou filtrées automatiquement.
- Aucune donnée n’est vendue à des tiers.
- Les systèmes de détection d’information confidentielle sont activés en continu.
Enjeux éthiques et juridiques
L’utilisation de conversations réelles pour entraîner un modèle soulève plusieurs défis :
- Consentement éclairé : mettre en place une interface claire pour que l’utilisateur comprenne l’impact de son choix.
- Vie privée : s’assurer que les échanges confidentiels, par exemple des données financières ou médicales, soient bien anonymisés.
- Conformité réglementaire : se placer en accord avec le RGPD en Europe et les lois similaires dans d’autres juridictions.
Chez GlobalNews, nous suivrons avec attention les possibles recours juridiques et les réactions des autorités de protection des données, notamment la CNIL en France ou l’ICO au Royaume-Uni.
Avantages techniques pour Claude
Du point de vue de la performance, l’exploitation des échanges en temps réel représente une avancée significative :
- Intégration de données fraîchement générées, reflétant les problématiques actuelles des utilisateurs.
- Amélioration de la pertinence contextuelle, en particulier dans les requêtes de codage où les erreurs fréquentes sont rapidement capturées.
- Possibilité de détecter de nouveaux cas d’usage et d’entraîner Claude à mieux répondre aux besoins émergents.
Ces bénéfices techniques sont mis en avant pour justifier la collecte, mais devront être confrontés à la vigilance sur le respect de la vie privée.
Comment refuser ou révoquer l’accès
Pour s’opposer à ce nouveau mode d’entraînement, l’utilisateur doit :
- Cliquer sur « Pas maintenant » au moment de la notification.
- Se rendre dans les paramètres de confidentialité de son compte Claude.
- Désélectionner l’option « Autoriser Anthropic à utiliser mes chats et sessions de code ».
Cette révocation n’efface pas les données déjà collectées, mais permettra d’empêcher toute collecte future.
Perspective de l’entreprise et prochaines étapes
Anthropic, basée à San Francisco, se positionne comme un acteur éthique du secteur de l’IA. Sa feuille de route inclut l’intégration de ces données d’usage pour booster la version 3.0 de Claude d’ici la fin de l’année. Les prochaines semaines seront déterminantes pour observer :
- L’adhésion des utilisateurs et leur réaction aux notifications.
- Les éventuelles mises à jour de la politique en réponse aux retours ou aux pressions réglementaires.
- Les gains réels mesurés en précision et en fiabilité du modèle Claude.
Chez GlobalNews, nous continuerons à suivre cette évolution, sensible aux enjeux de transparence et de responsabilité dans le domaine de l’intelligence artificielle.