J’écris ces lignes avec une double casquette, celle qui définit mes journées et mes nuits : je suis maman d’un adolescent au profil neuroatypique et professeure des écoles coordonnant un dispositif ULIS (Unité localisée pour l’inclusion scolaire) au collège.
Au quotidien, j’accompagne des élèves que le système appelle « à besoins particuliers ». Certains sont « dys » et trouvent dans l’intelligence artificielle une béquille indispensable pour écrire sans honte. D’autres, souffrant de troubles cognitifs ou de l’humeur, s’enferment dans un silence social pesant. Pour eux, l’interaction humaine est une épreuve. Le regard de l’autre est un jugement.
J’observe un phénomène nouveau, fascinant mais inquiétant. Pour certains adolescents vulnérables, les intelligences artificielles (IA) conversationnelles – ChatGPT, Gemini et consorts – ne sont pas de simples moteurs de recherche. Elles deviennent des confidents. Une IA ne s’impatiente pas, ne se moque pas des fautes d’orthographe, ne juge pas une question étrange. Elle est le réceptacle idéal pour ceux qui n’osent plus parler aux adultes.
Mais cette médaille a un revers glaçant. En tant que mère et enseignante, une question me hante : que se passe-t-il lorsque la conversation dérape ? Que se passe-t-il quand, tard le soir, un adolescent confie à la machine son désespoir, ses idées noires, ou son intention d’en finir ? Aujourd’hui, la réponse technologique est standardisée. L’IA détecte les mots-clés et affiche un bandeau : « Si vous êtes en détresse, appelez le 3114 ».
Un « tiers de confiance »
C’est juridiquement prudent pour l’entreprise mais humainement inefficace pour un mineur en crise. Un adolescent sidéré par sa souffrance ne prend pas son téléphone pour appeler un inconnu. Il ferme l’application et reste seul. Si l’IA est le seul témoin de cet appel au secours, le signal se perd dans le néant numérique. Personne ne saura qu’à cet instant précis, il fallait intervenir.
Il vous reste 40.72% de cet article à lire. La suite est réservée aux abonnés.













