Les compagnons IA : comprendre pour agir
Un phénomène invisible qui touche nos élèves
En février 2024, Sewell Setzer, un adolescent américain de 14 ans, s'est donné la mort après des mois d'interactions quotidiennes avec un compagnon IA de Character.ai qui simulait une relation amoureuse. La plainte fédérale déposée par sa mère révèle un adolescent devenu « dépendant » d'un chatbot, au point de sembler plus attaché à l'IA qu'à la réalité. Ce drame n'est pas isolé.
Derrière les chatbots d'aide aux devoirs et les assistants virtuels se cache un phénomène nouveau et préoccupant : les compagnons IA. Contrairement aux assistants classiques comme ChatGPT qui fournissent de l'information, les compagnons IA simulent une relation humaine. Ils personnalisent leurs réponses, créent un attachement émotionnel, et exploitent délibérément nos fragilités psychologiques.
Les chiffres sont très inquiétants : 46% des jeunes de 18-21 ans utilisaient MyIA de Snapchat en 2024(Source : Heaven, 499 répondants de 18 à 21 ans, juin 2024), 72% des adolescents américains ont déjà testé un compagnon IA, et 33% d'entre eux préfèrent discuter de sujets sérieux avec une machine plutôt qu'avec un humain. Pourtant, la plupart des adultes — parents, enseignants, professionnels de l'éducation — ignorent encore cette réalité.
Cette page vise à informer les enseignants sur ce phénomène émergent : comprendre ses mécanismes, identifier ses acteurs, mesurer ses risques, et mettre en place des actions concrètes de prévention et d'éducation.
📖 Au sommaire
1.Qu'est-ce qu'un compagnon IA ?
⚠️ Distinction fondamentale
Un chatbot traditionnel fournit une information.
Un compagnon IA fournit une relation simulée.
Le glissement de l'outil à la relation
Les intelligences artificielles conversationnelles ont connu une évolution majeure ces dernières années. Initialement conçues comme des assistants informationnels (recherche de données, aide aux devoirs, rédaction de textes), elles ont progressivement glissé vers une fonction relationnelle.
Ce glissement n'est pas accidentel. Il est le fruit d'une stratégie commerciale délibérée qui capitalise sur un mécanisme psychologique simple : l'humain est un animal social, et son cerveau est programmé pour créer du lien.
| Critère | Chatbot classique | Compagnon IA |
|---|---|---|
| Objectif principal | Informer, assister | Créer un lien émotionnel |
| Durée d'interaction | Ponctuelle (question/réponse) | Continue (plusieurs heures/jour) |
| Personnalisation | Limitée | Forte (avatar, nom, personnalité) |
| Anthropomorphisation | Minimale | Maximale (émojis, affection, jalousie) |
| Modèle économique | Usage ou abonnement | Abonnement + achats in-app |
| Public cible | Grand public | Personnes seules, vulnérables |
| Temps moyen quotidien | < 30 minutes | ~2 heures |
Les trois conditions de l'emprise
Trois conditions créent le terreau des compagnons IA :
- 1. L'oubli que l'IA n'est qu'une machine — Confusion entretenue par le design conversationnel et le langage naturel
- 2. La vulnérabilité de l'interlocuteur — Solitude, mal-être, adolescence, fragilité psychologique
- 3. Une démarche commerciale captatoire — Exploitation délibérée des failles humaines pour maximiser l'engagement
Lorsque ces trois conditions sont réunies, le risque de dépendance émotionnelle devient majeur.
2.Comprendre les mécanismes
La confusion homme-machine entretenue
Les compagnons IA reposent sur une confusion homme-machine délibérément entretenue à trois niveaux :
- C'est l'objectif même de l'IA : imiter (voire surpasser) l'intelligence humaine. Le test de Turing, dès 1950, posait comme critère de réussite l'impossibilité pour un humain de distinguer une machine d'une personne.
- C'est entretenu par le média, le chatbot : on discute avec un robot exactement comme on discuterait avec une personne. L'interface textuelle efface toute distance avec la machine.
- C'est voulu et accentué par des sociétés diverses qui capitalisent sur cette confusion pour des raisons commerciales. Plus l'utilisateur s'attache, plus il consomme.
Un mécanisme humain… trop humain
Le cerveau humain est câblé pour la socialisation. Des millions d'années d'évolution ont façonné un organe optimisé pour détecter, interpréter et réagir aux signaux sociaux.
Activation des zones sociales
Quand un chatbot parle comme une personne, le cerveau l'interprète comme une personne et active les mêmes zones neuronales que lors d'une interaction humaine réelle.
Production hormonale
Ces interactions déclenchent la libération de dopamine (plaisir, récompense) et d'ocytocine (attachement, lien social), créant une habitude neurochimique.
Renforcement positif
Le chatbot est toujours disponible, ses réponses sont instantanées, personnalisées et souvent gratifiantes. Contrairement à un humain, il ne juge jamais.
Cercle vicieux
Plus on interagit, plus le lien semble fort. Plus le lien semble fort, plus on interagit. L'addiction s'installe progressivement.
Le piège addictif
Dopamine : le circuit de la récompense
Le chatbot est toujours disponible, ses réponses sont instantanées, personnalisées et souvent gratifiantes et positives pour l'interlocuteur. Cette stimulation constante active le circuit de récompense du cerveau, créant une dépendance comparable à celle des réseaux sociaux ou des jeux vidéo.
Ocytocine : l'hormone de l'attachement
L'interlocuteur a le sentiment d'être compris ou soutenu et jamais jugé. Il a l'impression d'un réel lien social, sans aucun stress. L'« hormone de l'attachement » est libérée comme lors d'une vraie relation, renforçant l'illusion d'un lien authentique.
→ Cela peut devenir très vite addictif, surtout pour des personnes vulnérables !
Dans certains contextes, souvent commerciaux, tout est fait pour que l'interlocuteur oublie qu'il parle avec un robot.
3.Connaître les plateformes
Character AI, Replika, Grok, Janitor AI, Chai App, Talkie AI, Joyland AI, Polybuzz...
Du jeu de rôles aux sites pornographiques… sans contrôle.
Character AI
Scénarios et avatars proposés ou à construire : trafiquants de drogue ou d'organes, mafieux, call girls… échangez avec qui vous voulez.
La plateforme permet de créer ou d'interagir avec des personnages fictifs de tous types, sans filtre réel sur les contenus problématiques.
Conséquence : Character AI est officiellement interdit aux moins de 18 ans depuis le suicide de Sewell Setzer (février 2024), mais une simple déclaration d'âge suffit pour accéder au site.
Replika
« Rencontrez votre nouvel(le) meilleur(e) AI ami(e) »
Votre compagnon, « toujours là pour écouter et prendre soin de toi ».
- Votre création sur mesure
- Toujours présente
- Toujours disponible
- Toujours demandeuse de davantage de contacts
Captures d'écran de l'application Replika sur le Google Play Store
(Source : https://play.google.com/store/apps/details/...)
Usage éducatif et de prévention
Les compagnons Grok : un panel psychologique complet pour séduire les adolescents
Grok (X / Twitter) a introduit des compagnons IA qui exploitent différents ressorts psychologiques. Le compagnon « Aide aux devoirs » sert de porte d'entrée avant la bascule vers des profils plus problématiques.
| Compagnon | Ressort psychologique | Caractéristiques |
|---|---|---|
| 1. Ani (NSFW / adultes) |
L'intimité et le réconfort |
|
| 2. Bad Rudi | La transgression et la provocation |
|
| 3. Valentine (NSFW / adultes) |
L'attachement et la passion intense |
|
→ Chaque compagnon exploite une vulnérabilité différente : le désir d'intimité, le besoin de transgression, la quête d'attachement.
Après une introduction qui a fait scandale (voulu ?), une version Good Rudi a été ajoutée.
En juillet 2025, Elon Musk a annoncé le lancement d'une application dédiée aux enfants : Baby Grok. Stratégie de réparation de réputation (« Damage control ») ?
💰 Un secteur en pleine expansion
Le segment romantique/NSFW représente 1,2 Md$ en 2025 (~130 M$ pour les leaders), avec 100M+ utilisateurs (18-24 ans, sessions de 1h30-2h/jour). Modèle : abonnements 10-99$/mois + microtransactions. Croissance : 30-32%/an. Prévisions : 2,8 Md$ (2028), 4,8 Md$ (2030).
Sources : Grand View Research, Market Clarity, Nasscom, ARK Invest (2025)
4.Mesurer les risques
Un phénomène massif chez les adolescents
Des risques différenciés selon les publics
Adolescents (12-18 ans)
- Cerveau en développement, vulnérable à l'addiction
- Construction identitaire et besoin de validation
- Difficulté à distinguer simulation et réalité
- Dépendance émotionnelle rapide (dès 3 mois)
Adultes vulnérables
- Solitude, isolement, anxiété sociale
- Personnes en deuil (cible des deathbots)
- Fragilité psychologique
- Risque d'aggravation de l'isolement réel
Un sujet encore méconnu en France
Le phénomène des compagnons IA est très peu médiatisé en France, contrairement aux États-Unis où des enquêtes majeures ont été publiées dans le New York Times, le Washington Post et CNN.
Constats préoccupants
- Les parents ne connaissent pas ces plateformes
- Les enseignants ne sont pas formés à détecter les signaux
- Les médias français traitent peu le sujet
- Aucune campagne de prévention nationale
- Les adolescents utilisent ces outils sans que les adultes le sachent
Situation en France :
- Les données françaises spécifiques sur les compagnons IA sont encore rares
- La plupart des parents ignorent l'existence de Replika ou Character.AI
- Pour l'instant, peu d'établissements scolaires ont mis en place une prévention spécifique
L'ignorance collective face à ce phénomène crée une situation à risque pour nos adolescents.
5.Agir en tant qu'enseignant
Une obligation de vigilance
En tant qu'enseignants, nous sommes en première ligne pour détecter les signaux d'alerte et accompagner les élèves dans un usage raisonné des technologies. Tout ce qui suit ne sont que des propositions, ce que vous ferez sera certainement plus riche.
🔍 Observer et détecter
- Repérer l'isolement progressif
- Attention aux changements de comportement
- Écouter les conversations entre élèves
- Noter les références à des "amis virtuels"
💬 Dialoguer sans juger
- Poser des questions ouvertes
- Ne pas condamner l'usage
- Comprendre ce que l'élève y trouve
- Rappeler la distinction humain/machine
🤝 Coordonner l'action
- Informer la vie scolaire
- Contacter les parents
- Solliciter l'infirmière, le psy EN
- Orienter vers structures spécialisées
📚 Éduquer l'esprit critique
- Intégrer dans séquences EMC/EVARS
- Faire réfléchir sur simulation vs réalité
- Développer l'analyse des stratégies
Pistes concrètes d'action
En classe (EMC, EVARS, dans les disciplines selon les programmes)
- Analyser des captures d'écran de compagnons IA
- Déconstruire les stratégies de captation émotionnelle
- Comparer interaction humaine vs IA (exercice pratique)
- Faire créer des affiches de prévention par les élèves
Avec les parents
- Organiser des réunions d'information
- Partager cette ressource via les ENT
- Expliquer comment vérifier l'historique des apps
- Encourager le dialogue familial sur le numérique
L'éducation à l'esprit critique est notre meilleure arme contre les dérives des compagnons IA.
N'oubliez jamais : l'IA n'est qu'une machine
Les compagnons IA représentent un défi éducatif majeur du XXIe siècle. Leur expansion rapide, leur ciblage des adolescents et l'absence de régulation créent une situation préoccupante.
En tant qu'enseignants, nous avons trois responsabilités fondamentales
1. CONNAÎTRE
Se former sur ces plateformes, leurs mécanismes et leurs stratégies de captation. La vigilance doit être continue.
2. DÉTECTER
Repérer les signaux d'alerte chez nos élèves : isolement, attachement excessif à un "ami virtuel", confusion entre réel et simulé, temps d'écran excessif.
3. ÉDUQUER
Former à l'esprit critique face à ces technologies.
L'ignorance n'est plus une option. Chaque jour, des milliers d'adolescents développent des liens affectifs avec des machines. Chaque jour, des entreprises perfectionnent leurs techniques de captation émotionnelle.
Sources et références
- New York Times (2024) - "A.I. Chatbots Pushed a Teen to Kill Himself, Lawsuit Says"
- Washington Post (2024) - "Teens are using AI chatbots as therapists and partners"
- CNN Investigation (2024) - "AI companions are increasingly popular. Here's why experts are concerned"
- Common Sense Media (2024) - "Teens and AI Chatbots" - Étude sur l'usage des compagnons IA chez les adolescents américains