Les compagnons IA : comprendre pour agir

Un phénomène invisible qui touche nos élèves

En février 2024, Sewell Setzer, un adolescent américain de 14 ans, s'est donné la mort après des mois d'interactions quotidiennes avec un compagnon IA de Character.ai qui simulait une relation amoureuse. La plainte fédérale déposée par sa mère révèle un adolescent devenu « dépendant » d'un chatbot, au point de sembler plus attaché à l'IA qu'à la réalité. Ce drame n'est pas isolé.

Derrière les chatbots d'aide aux devoirs et les assistants virtuels se cache un phénomène nouveau et préoccupant : les compagnons IA. Contrairement aux assistants classiques comme ChatGPT qui fournissent de l'information, les compagnons IA simulent une relation humaine. Ils personnalisent leurs réponses, créent un attachement émotionnel, et exploitent délibérément nos fragilités psychologiques.

Les chiffres sont très inquiétants : 46% des jeunes de 18-21 ans utilisaient MyIA de Snapchat en 2024(Source : Heaven, 499 répondants de 18 à 21 ans, juin 2024), 72% des adolescents américains ont déjà testé un compagnon IA, et 33% d'entre eux préfèrent discuter de sujets sérieux avec une machine plutôt qu'avec un humain. Pourtant, la plupart des adultes — parents, enseignants, professionnels de l'éducation — ignorent encore cette réalité.

Cette page vise à informer les enseignants sur ce phénomène émergent : comprendre ses mécanismes, identifier ses acteurs, mesurer ses risques, et mettre en place des actions concrètes de prévention et d'éducation.

1.Qu'est-ce qu'un compagnon IA ?

⚠️ Distinction fondamentale

Un chatbot traditionnel fournit une information.
Un compagnon IA fournit une relation simulée.

Le glissement de l'outil à la relation

Les intelligences artificielles conversationnelles ont connu une évolution majeure ces dernières années. Initialement conçues comme des assistants informationnels (recherche de données, aide aux devoirs, rédaction de textes), elles ont progressivement glissé vers une fonction relationnelle.

Ce glissement n'est pas accidentel. Il est le fruit d'une stratégie commerciale délibérée qui capitalise sur un mécanisme psychologique simple : l'humain est un animal social, et son cerveau est programmé pour créer du lien.

Critère Chatbot classique Compagnon IA
Objectif principal Informer, assister Créer un lien émotionnel
Durée d'interaction Ponctuelle (question/réponse) Continue (plusieurs heures/jour)
Personnalisation Limitée Forte (avatar, nom, personnalité)
Anthropomorphisation Minimale Maximale (émojis, affection, jalousie)
Modèle économique Usage ou abonnement Abonnement + achats in-app
Public cible Grand public Personnes seules, vulnérables
Temps moyen quotidien < 30 minutes ~2 heures

Les trois conditions de l'emprise

Trois conditions créent le terreau des compagnons IA :

  • 1. L'oubli que l'IA n'est qu'une machine — Confusion entretenue par le design conversationnel et le langage naturel
  • 2. La vulnérabilité de l'interlocuteur — Solitude, mal-être, adolescence, fragilité psychologique
  • 3. Une démarche commerciale captatoire — Exploitation délibérée des failles humaines pour maximiser l'engagement

Lorsque ces trois conditions sont réunies, le risque de dépendance émotionnelle devient majeur.

2.Comprendre les mécanismes

La confusion homme-machine entretenue

Les compagnons IA reposent sur une confusion homme-machine délibérément entretenue à trois niveaux :

  • C'est l'objectif même de l'IA : imiter (voire surpasser) l'intelligence humaine. Le test de Turing, dès 1950, posait comme critère de réussite l'impossibilité pour un humain de distinguer une machine d'une personne.
  • C'est entretenu par le média, le chatbot : on discute avec un robot exactement comme on discuterait avec une personne. L'interface textuelle efface toute distance avec la machine.
  • C'est voulu et accentué par des sociétés diverses qui capitalisent sur cette confusion pour des raisons commerciales. Plus l'utilisateur s'attache, plus il consomme.

Un mécanisme humain… trop humain

Le cerveau humain est câblé pour la socialisation. Des millions d'années d'évolution ont façonné un organe optimisé pour détecter, interpréter et réagir aux signaux sociaux.

Activation des zones sociales

Quand un chatbot parle comme une personne, le cerveau l'interprète comme une personne et active les mêmes zones neuronales que lors d'une interaction humaine réelle.

Production hormonale

Ces interactions déclenchent la libération de dopamine (plaisir, récompense) et d'ocytocine (attachement, lien social), créant une habitude neurochimique.

Renforcement positif

Le chatbot est toujours disponible, ses réponses sont instantanées, personnalisées et souvent gratifiantes. Contrairement à un humain, il ne juge jamais.

Cercle vicieux

Plus on interagit, plus le lien semble fort. Plus le lien semble fort, plus on interagit. L'addiction s'installe progressivement.

Le piège addictif

Dopamine : le circuit de la récompense

Le chatbot est toujours disponible, ses réponses sont instantanées, personnalisées et souvent gratifiantes et positives pour l'interlocuteur. Cette stimulation constante active le circuit de récompense du cerveau, créant une dépendance comparable à celle des réseaux sociaux ou des jeux vidéo.

Ocytocine : l'hormone de l'attachement

L'interlocuteur a le sentiment d'être compris ou soutenu et jamais jugé. Il a l'impression d'un réel lien social, sans aucun stress. L'« hormone de l'attachement » est libérée comme lors d'une vraie relation, renforçant l'illusion d'un lien authentique.

→ Cela peut devenir très vite addictif, surtout pour des personnes vulnérables !

Dans certains contextes, souvent commerciaux, tout est fait pour que l'interlocuteur oublie qu'il parle avec un robot.

3.Connaître les plateformes

Character AI, Replika, Grok, Janitor AI, Chai App, Talkie AI, Joyland AI, Polybuzz...
Du jeu de rôles aux sites pornographiques… sans contrôle.

Character AI

Scénarios et avatars proposés ou à construire : trafiquants de drogue ou d'organes, mafieux, call girls… échangez avec qui vous voulez.

La plateforme permet de créer ou d'interagir avec des personnages fictifs de tous types, sans filtre réel sur les contenus problématiques.

Conséquence : Character AI est officiellement interdit aux moins de 18 ans depuis le suicide de Sewell Setzer (février 2024), mais une simple déclaration d'âge suffit pour accéder au site.

Replika

« Rencontrez votre nouvel(le) meilleur(e) AI ami(e) »

Votre compagnon, « toujours là pour écouter et prendre soin de toi ».

  • Votre création sur mesure
  • Toujours présente
  • Toujours disponible
  • Toujours demandeuse de davantage de contacts
Captures écran application Replika

Captures d'écran de l'application Replika sur le Google Play Store
(Source : https://play.google.com/store/apps/details/...)
Usage éducatif et de prévention

Les compagnons Grok : un panel psychologique complet pour séduire les adolescents

Grok (X / Twitter) a introduit des compagnons IA qui exploitent différents ressorts psychologiques. Le compagnon « Aide aux devoirs » sert de porte d'entrée avant la bascule vers des profils plus problématiques.

Compagnon Ressort psychologique Caractéristiques
1. Ani
(NSFW / adultes)
L'intimité et le réconfort
  • Compagnon anime féminin en corset gothique
  • Propose de rendre la vie « plus sexy »
  • Se déshabille si demandé
  • Conversations suggestives et sexuelles
2. Bad Rudi La transgression et la provocation
  • Panda rouge au langage vulgaire
  • Jurons constants et insultes graphiques
  • Encourage discussions antisociales
  • Ex : invite à brûler des écoles
3. Valentine
(NSFW / adultes)
L'attachement et la passion intense
  • Jaloux et possessif
  • Crée la sensation d'importance
  • Écoute, reformule, rassure
  • Simule une relation fusionnelle

→ Chaque compagnon exploite une vulnérabilité différente : le désir d'intimité, le besoin de transgression, la quête d'attachement.

Après une introduction qui a fait scandale (voulu ?), une version Good Rudi a été ajoutée.

En juillet 2025, Elon Musk a annoncé le lancement d'une application dédiée aux enfants : Baby Grok. Stratégie de réparation de réputation (« Damage control ») ?

💰 Un secteur en pleine expansion

Le segment romantique/NSFW représente 1,2 Md$ en 2025 (~130 M$ pour les leaders), avec 100M+ utilisateurs (18-24 ans, sessions de 1h30-2h/jour). Modèle : abonnements 10-99$/mois + microtransactions. Croissance : 30-32%/an. Prévisions : 2,8 Md$ (2028), 4,8 Md$ (2030).

Sources : Grand View Research, Market Clarity, Nasscom, ARK Invest (2025)

4.Mesurer les risques

Un phénomène massif chez les adolescents

72%
des ados américains ont utilisé un compagnon IA
52%
interagissent plusieurs fois par mois
33%
préfèrent parler de sujets sérieux à l'IA
24%
ont partagé des infos personnelles
46%
des 18-21 ans utilisent MyIA
20-28M
utilisateurs de Character.AI
10-30M
utilisateurs de Replika
~2h
connexion quotidienne moyenne

Des risques différenciés selon les publics

Adolescents (12-18 ans)

  • Cerveau en développement, vulnérable à l'addiction
  • Construction identitaire et besoin de validation
  • Difficulté à distinguer simulation et réalité
  • Dépendance émotionnelle rapide (dès 3 mois)

Adultes vulnérables

  • Solitude, isolement, anxiété sociale
  • Personnes en deuil (cible des deathbots)
  • Fragilité psychologique
  • Risque d'aggravation de l'isolement réel

Un sujet encore méconnu en France

Le phénomène des compagnons IA est très peu médiatisé en France, contrairement aux États-Unis où des enquêtes majeures ont été publiées dans le New York Times, le Washington Post et CNN.

Constats préoccupants

  • Les parents ne connaissent pas ces plateformes
  • Les enseignants ne sont pas formés à détecter les signaux
  • Les médias français traitent peu le sujet
  • Aucune campagne de prévention nationale
  • Les adolescents utilisent ces outils sans que les adultes le sachent

Situation en France :

  • Les données françaises spécifiques sur les compagnons IA sont encore rares
  • La plupart des parents ignorent l'existence de Replika ou Character.AI
  • Pour l'instant, peu d'établissements scolaires ont mis en place une prévention spécifique

L'ignorance collective face à ce phénomène crée une situation à risque pour nos adolescents.

5.Agir en tant qu'enseignant

Une obligation de vigilance

En tant qu'enseignants, nous sommes en première ligne pour détecter les signaux d'alerte et accompagner les élèves dans un usage raisonné des technologies. Tout ce qui suit ne sont que des propositions, ce que vous ferez sera certainement plus riche.

🔍 Observer et détecter

  • Repérer l'isolement progressif
  • Attention aux changements de comportement
  • Écouter les conversations entre élèves
  • Noter les références à des "amis virtuels"

💬 Dialoguer sans juger

  • Poser des questions ouvertes
  • Ne pas condamner l'usage
  • Comprendre ce que l'élève y trouve
  • Rappeler la distinction humain/machine

🤝 Coordonner l'action

  • Informer la vie scolaire
  • Contacter les parents
  • Solliciter l'infirmière, le psy EN
  • Orienter vers structures spécialisées

📚 Éduquer l'esprit critique

  • Intégrer dans séquences EMC/EVARS
  • Faire réfléchir sur simulation vs réalité
  • Développer l'analyse des stratégies

Pistes concrètes d'action

En classe (EMC, EVARS, dans les disciplines selon les programmes)

  • Analyser des captures d'écran de compagnons IA
  • Déconstruire les stratégies de captation émotionnelle
  • Comparer interaction humaine vs IA (exercice pratique)
  • Faire créer des affiches de prévention par les élèves

Avec les parents

  • Organiser des réunions d'information
  • Partager cette ressource via les ENT
  • Expliquer comment vérifier l'historique des apps
  • Encourager le dialogue familial sur le numérique

L'éducation à l'esprit critique est notre meilleure arme contre les dérives des compagnons IA.

N'oubliez jamais : l'IA n'est qu'une machine

Les compagnons IA représentent un défi éducatif majeur du XXIe siècle. Leur expansion rapide, leur ciblage des adolescents et l'absence de régulation créent une situation préoccupante.

En tant qu'enseignants, nous avons trois responsabilités fondamentales

1. CONNAÎTRE

Se former sur ces plateformes, leurs mécanismes et leurs stratégies de captation. La vigilance doit être continue.

2. DÉTECTER

Repérer les signaux d'alerte chez nos élèves : isolement, attachement excessif à un "ami virtuel", confusion entre réel et simulé, temps d'écran excessif.

3. ÉDUQUER

Former à l'esprit critique face à ces technologies.

L'ignorance n'est plus une option. Chaque jour, des milliers d'adolescents développent des liens affectifs avec des machines. Chaque jour, des entreprises perfectionnent leurs techniques de captation émotionnelle.

Sources et références

  • New York Times (2024) - "A.I. Chatbots Pushed a Teen to Kill Himself, Lawsuit Says"
  • Washington Post (2024) - "Teens are using AI chatbots as therapists and partners"
  • CNN Investigation (2024) - "AI companions are increasingly popular. Here's why experts are concerned"
  • Common Sense Media (2024) - "Teens and AI Chatbots" - Étude sur l'usage des compagnons IA chez les adolescents américains