Site icon Global News

Vous ne devinerez pas comment Anthropic va utiliser VOS discussions pour entraîner Claude !

Anthropic modifie sa politique de confidentialité pour entraîner Claude

Anthropic, la start-up californienne spécialisée dans les modèles de langage, annonce un changement majeur de sa politique de confidentialité : à compter du 28 septembre, elle exploitera les échanges réalisés par les utilisateurs (chats et sessions de codage) pour améliorer ses modèles Claude. Cette initiative soulève des questions légitimes sur la protection des données et le consentement, tant pour les particuliers que pour les développeurs qui s’appuient sur Claude.

Notification et choix de l’utilisateur

Au moment de se connecter, chaque utilisateur verra désormais apparaître une notification clairement visible. Par défaut, l’option « Accepter » est pré-sélectionnée, autorisant Anthropic à recueillir le texte des conversations et des lignes de code. Toutefois, un bouton « Pas maintenant » permet de différer la décision. Si l’utilisateur ne choisit rien avant le 28 septembre, l’accès à Claude sera bloqué jusqu’à ce qu’il prenne position.

Cette stratégie incitative, par un positionnement visuel mis en avant, place la responsabilité du consentement sur l’utilisateur. Il pourra toutefois modifier son paramètre à tout moment dans les options de confidentialité, mais ce choix ne s’appliquera qu’aux futures discussions et sessions de codage, pas aux données déjà collectées.

Modèles concernés et exceptions

La mesure s’appliquera aux plans Claude Free, Claude Pro et Claude Max. En revanche, sont exclus :

Les utilisateurs de ces versions professionnelles ou d’intégrations tierces continueront à bénéficier de la politique de confidentialité actuelle, sans collecte des chats pour l’entraînement des modèles.

Durée de conservation et traitement des données

Si l’utilisateur refuse l’entraînement, Anthropic conservera ses données pendant 30 jours, délai alloué pour répondre à d’éventuelles demandes de suppression ou d’accès. En cas d’acceptation, les données seront conservées pendant cinq ans. L’entreprise garantit que :

Enjeux éthiques et juridiques

L’utilisation de conversations réelles pour entraîner un modèle soulève plusieurs défis :

Chez GlobalNews, nous suivrons avec attention les possibles recours juridiques et les réactions des autorités de protection des données, notamment la CNIL en France ou l’ICO au Royaume-Uni.

Avantages techniques pour Claude

Du point de vue de la performance, l’exploitation des échanges en temps réel représente une avancée significative :

Ces bénéfices techniques sont mis en avant pour justifier la collecte, mais devront être confrontés à la vigilance sur le respect de la vie privée.

Comment refuser ou révoquer l’accès

Pour s’opposer à ce nouveau mode d’entraînement, l’utilisateur doit :

Cette révocation n’efface pas les données déjà collectées, mais permettra d’empêcher toute collecte future.

Perspective de l’entreprise et prochaines étapes

Anthropic, basée à San Francisco, se positionne comme un acteur éthique du secteur de l’IA. Sa feuille de route inclut l’intégration de ces données d’usage pour booster la version 3.0 de Claude d’ici la fin de l’année. Les prochaines semaines seront déterminantes pour observer :

Chez GlobalNews, nous continuerons à suivre cette évolution, sensible aux enjeux de transparence et de responsabilité dans le domaine de l’intelligence artificielle.

Quitter la version mobile