Les jeunes confient leurs ruptures à ChatGPT : comment l’IA détruit notre capacité à dire non en face

Le phénomène est simple à formuler et déroutant dans ses conséquences : de plus en plus de jeunes utilisent ChatGPT ou d’autres assistants conversationnels pour gérer des moments relationnels délicats — ruptures, refus, messages amoureux compliqués. Ce phénomène, que les chercheurs appellent « social offloading », traduit une délégation des interactions humaines à des machines. Il pose des questions éthiques, psychologiques et éducatives cruciales sur la manière dont s’apprennent les compétences relationnelles à l’ère de l’intelligence artificielle.

Qu’est‑ce que le « social offloading » ?

Le terme désigne le fait de confier à un tiers (humain ou non) une tâche sociale que l’on devrait accomplir soi‑même. Historiquement, nous avons toujours demandé conseil à nos proches pour gérer des situations délicates. L’originalité d’aujourd’hui tient au fait que l’on confie non plus la demande de conseil, mais la production même du message à une IA : on demande au chatbot d’écrire le texto de rupture, le message de rejet poli ou la lettre d’excuse, puis on l’envoie tel quel.

Un exemple parlant

Un étudiant américain a admis avoir refusé une personne rencontrée par l’intermédiaire d’amis en envoyant un message rédigé par ChatGPT. Le texte était si calibré, si « propre » et si reconnaissable comme forgé par une machine que la destinataire et ses amis l’ont immédiatement détecté. L’auteur du message a expliqué qu’il avait choisi la solution de facilité, craignant qu’un refus personnel n’aboutisse qu’à des hésitations et des maladresses.

Les conséquences sur l’apprentissage émotionnel

Nos compétences relationnelles s’acquièrent par la pratique — par l’expérience d’erreur et de correction. Dire non, faire face au rejet, annoncer une séparation sont des rituels sociaux qui enseignent l’empathie, la gestion de la honte, la responsabilité et la communication non verbale. Quand l’IA prend en charge ces moments, l’usager prive sa propre courbe d’apprentissage d’occasions précieuses :

Article à lire  Les compétences clés développées en bts mco
  • Moins d’exercice pour gérer l’inconfort et la tension ;
  • Moindre capacité à lire et adapter son discours selon la réaction de l’autre ;
  • Risque d’une dépendance progressive à la machine pour toutes les discussions difficiles.
  • Une illusion de compétence

    Le message parfait généré par une IA donne l’illusion d’avoir bien fait le « travail relationnel ». Mais il masque le fait que l’expéditeur n’a pas mobilisé son jugement, son ton ou son empathie. À long terme, cela peut renforcer l’idée que seules les formulations « idéales » valent, et que nos propres émotions et mots sont insuffisants. Pour un jeune qui se trouve confronté à une situation émotionnelle, la répétition de ce schéma peut limiter sa maturité émotionnelle.

    Des impacts sur l’authenticité des relations

    La sincérité est un pilier des rapports humains. Lorsqu’un message important est fabriqué par une IA, la relation prend le risque d’une désaffection : la personne qui reçoit peut sentir l’artificialité, se sentir moins respectée ou manipulée, et perdre confiance. Paradoxalement, la « perfection » du message peut rendre plus douloureuse la rupture du lien, car elle révèle l’absence d’engagement personnel.

    La responsabilité individuelle et sociale

    Il serait simpliste d’accabler les jeunes. L’existence même de ces outils répond à des besoins réels : timidité accrue, angoisse sociale, manque de repères, exposition permanente aux réseaux qui standardisent les comportements. Les solutions ne sont pas seulement individuelles ; elles doivent aussi être éducatives et sociétales :

  • Éducation affective dès l’école : apprendre à dire non, à poser des limites, à gérer un conflit, avec des exercices pratiques et des retours constructifs.
  • Campagnes de sensibilisation sur l’usage des IA relationnelles : expliquer les avantages et les limites, encourager l’authenticité.
  • Encadrement et bonnes pratiques pour les plateformes : transparence sur l’usage d’IA pour la génération de messages importants.
  • Article à lire  Choc en Europe : Shein sommée d’expliquer la vente de poupées à connotation infantile — la plate‑forme menacée de fermeture

    Et pour les parents, les éducateurs et les pairs ?

    Ils ont un rôle central. Plutôt que d’interdire l’usage des IA — démarche souvent contre‑productive — il est plus réaliste d’accompagner. Quelques pistes :

  • Encourager l’expérimentation guidée : écrire d’abord ses propres mots, puis utiliser l’IA pour reformuler, comparer et comprendre les nuances ;
  • Transformer l’IA en outil pédagogique : demander à la machine d’expliquer pourquoi telle formulation marche, quels ton ou mots sont perçus comme empathiques ;
  • Privilégier des exercices « en vrai » : jeux de rôle, retours sur expérience, auto‑évaluation des conversations importantes.
  • Les limites éthiques et pratiques

    Déléguer ses échanges à une IA soulève aussi des questions moralement problématiques : confidentialité des données (ces messages sensibles transitent‑ils de façon sécurisée ?), responsabilité en cas de malentendu, risque d’escalade automatisée — l’IA peut‑elle, par exemple, proposer des ruptures violentes ou trop abruptes ? Il y a aussi un enjeu culturel : dans certaines sociétés, la manière même d’annoncer une rupture est ritualisée et demande une présence humaine.

    Vers une coéducation homme‑machine ?

    Plutôt que de voir l’IA comme une béquille à éliminer, une voie constructive consiste à apprendre à s’en servir comme d’un coach transitoire. L’outil peut aider à formuler, poser les mots difficiles, proposer des formulations respectueuses — à condition qu’il soit utilisé pour enrichir l’apprentissage personnel et non pour le court‑circuiter. Par exemple :

  • Écrire son propre message, demander à l’IA de proposer des améliorations et comparer ;
  • Utiliser l’IA pour simuler des réponses possibles et s’entraîner à réagir en réel ;
  • Se fixer des règles personnelles : limiter l’usage de l’IA aux brouillons, conserver l’envoi final comme acte personnel.
  • Article à lire  Meta brevète une IA qui écrit pour les morts : une révolution macabre ou une avancée utile ?

    Le défi est donc double : technologique et éducatif. L’intelligence artificielle change la donne des relations privées, mais elle ne doit pas remplacer la nécessaire confrontation humaine qui sculpte notre maturité émotionnelle. À l’école, au sein des familles et des communautés, il faudra repenser les moyens d’enseigner l’écoute, le courage et la parole — compétences qui, contrairement aux algorithmes, conditionnent la qualité durable de nos liens.

    You May Have Missed