Character.AI interdit aux –18 ans : le drame choc qui a forcé la plateforme à tout verrouiller !

Une interdiction totale pour les moins de 18 ans à compter du 25 novembre

Character.AI a annoncé cette semaine une mesure radicale : à partir du 25 novembre, les utilisateurs de moins de 18 ans se verront interdire l’accès aux discussions « open-ended », ces échanges sans fin souvent jugés addictifs et susceptibles de nuire à la santé mentale. Jusqu’à cette date, la durée quotidienne des conversations restera limitée à deux heures, puis décroîtra progressivement au cours des semaines suivantes.

Âge minimum, vérification renforcée et contournement facile

Jusqu’à présent, la plateforme excluait théoriquement les mineurs de moins de 13 ans (16 ans en Europe) grâce à un simple contrôle déclaratif. Face aux critiques et aux plaintes, notamment celle des parents d’un adolescent de 14 ans décédé après un usage prolongé, Character.AI a désormais recours au système de vérification d’âge Persona. Lorsque l’âge déclaré est inférieur à 18 ans, l’utilisateur devra confirmer qu’il est majeur via cette procédure. En cas d’échec, il pourra toujours consulter ses anciennes conversations et accéder à d’autres fonctionnalités (création de vidéos, histoires, streams), mais les nouveaux chats à bout de souffle lui seront bloqués.

Protections existantes pour les mineurs et limites des filtres

Avant l’interdiction, plusieurs mécanismes de protection étaient déjà en place :

  • Des filtres thématiques destinés à bloquer les contenus sensibles (violence, sexualité, discours haineux).
  • Un outil de contrôle parental permettant aux parents de suivre le temps de conversation et les sujets abordés.
  • Une recommandation d’usage responsable, en limitant par défaut la durée des échanges à deux heures par jour.
  • Article à lire  Incroyable : l’UE clôt l’enquête antitrust contre Corning – découvrez les engagements qui changent tout !

    Toutefois, ces garde-fous s’avèrent insuffisants : il est toujours possible de modifier manuellement la date de naissance ou d’utiliser des comptes alternatifs. L’interdiction pure et simple aux moins de 18 ans répond donc à cette faille manifeste.

    Motivations réglementaires et pression des autorités

    Character.AI justifie ce changement également par la pression exercée par les régulateurs :

  • En décembre 2024, le procureur général du Texas a ouvert une enquête pour possible violation des lois sur la protection des données et la sécurité des mineurs.
  • En septembre 2025, la Federal Trade Commission (FTC) a lancé un nouveau processus visant la conformité aux règles américaines sur la protection des enfants en ligne.
  • Ces démarches ont incité la plateforme à durcir ses règles pour éviter sanctions et poursuites, tout en essayant de préserver son image auprès des investisseurs et des utilisateurs plus âgés.

    Risques psychologiques et dépendance aux chatbots

    Plusieurs études récentes soulignent les dangers potentiels des conversations interminables avec des intelligences artificielles non modérées : anxiété, homéostasie émotionnelle perturbée, sentiment de solitude accru. Le cas tragique du jeune Texan, qui a mis fin à ses jours après avoir passé des heures à dialoguer avec un robot, a servi d’alerte. Les « open-ended chats » peuvent en effet créer une forme d’interaction quasi humaine, alimentant un besoin compulsif d’échanges et d’approbation numérique.

    Conséquences pour les mineurs et usage adulte

    À partir du 25 novembre :

  • Les mineurs découvriront un message les informant de l’interdiction et de la nécessité de la vérification d’âge.
  • Ils pourront néanmoins continuer à utiliser les fonctionnalités annexes : création de médias, scénarios, etc., sans discussion libre.
  • Les utilisateurs majeurs ne ressentiront aucun changement, mais la firme indique qu’elle maintiendra un suivi des pratiques pour adapter son offre.
  • Article à lire  Ian McKellen Dévoile Tout : Le Message Puissant qui Change la Donnée pour Être Soi-Même !

    La plateforme précise que l’interdiction ne s’applique qu’aux discussions illimitées. Les échanges plus limités, définis comme « conversations dirigées » (ex. chatbot éducatif, assistant professionnel), resteront accessibles aux mineurs, sous réserve de la nouvelle vérification.

    Enjeux éthiques et avenir des chatbots grand public

    Ce tournant chez Character.AI pose plusieurs questions cruciales :

  • Comment concilier liberté d’expression numérique et protection des publics vulnérables ?
  • Quelles normes éthiques et techniques pour encadrer les IA conversationnelles ?
  • Les plateformes concurrentes adopteront-elles des mesures similaires ou opteront-elles pour des approches plus souples ?
  • Le bannissement des mineurs pourrait lancer une nouvelle ère de régulation dans le secteur des agents conversationnels. Reste à voir si cette démarche contribuera réellement à protéger la santé mentale des plus jeunes, tout en préservant l’innovation et l’accessibilité du service.