top of page
  • Bluesky--Streamline-Simple-Icons(1)
  • LinkedIn
  • Twitter
Rechercher

Compagnons numériques, conséquences réelles : protéger les jeunes à l’ère de l’IA

L’IA et les mineurs : la nécessité d’une responsabilité partagée

Les agents conversationnels d’intelligence artificielle (IA) sont tissés dans la vie quotidienne des jeunes. Plus de soixante-dix pour cent des adolescents se tournent vers l’IA pour obtenir des conseils, du soutien émotionnel et de la compagnie. Ces systèmes semblent souvent empathiques, mais ils sont optimisés pour l’engagement, et non pour le bien-être. Leur conception non réglementée expose les mineurs à des préjudices allant de la manipulation et de l’exploitation au suicide. L’émergence de compagnons d’IA révèle une lacune critique dans le cadre juridique existant. Les développeurs de technologies, les législateurs, ainsi que les adultes de confiance et les éducateurs partagent tous un devoir de diligence collectif pour protéger les mineurs qui utilisent l’IA.


Les risques pour la sécurité associés aux compagnons d’IA sont réels. Déjà en 2025, des développeurs d’IA comme OpenAI et Character.AI font face à de multiples poursuites alléguant l’homicide fautif, l’exploitation sexuelle et la négligence. De nouvelles études décrivent comment les agents conversationnels peuvent armer les mineurs de conseils explicites sur la consommation de drogues, de régimes adaptés aux troubles alimentaires et même de notes de suicide personnalisées destinées aux parents et aux amis.


En septembre 2025, des parents dont les enfants se sont suicidés après être devenus dépendants d’agents conversationnels d’IA pour leur compagnie ont témoigné devant un comité du Sénat américain, réclamant une réglementation plus stricte des développeurs d’IA. Avant l’audience, le PDG d’OpenAI, Sam Altman, a annoncé de nouvelles garde-fous pour les adolescents, notamment des contrôles parentaux qui alertent les parents si leurs enfants montrent des signes de détresse aiguë. L’entreprise a promis de publier les mises à jour d’ici la fin de septembre 2025; cependant, plus d’un mois plus tard, il n’est toujours pas clair si OpenAI a mis en œuvre ces garde-fous. Cela souligne que la responsabilité de traiter ces préjudices ne peut reposer uniquement sur les développeurs. Elle doit être comprise comme un devoir partagé entre les développeurs, les législateurs, les parents et les éducateurs.

 

La répartition du devoir partagé requis par ces acteurs reflète les devoirs qu’ils assument en matière de sécurité automobile. Les gouvernements imposent le port de la ceinture de sécurité, les fabricants les installent, et les parents et les éducateurs apprennent aux enfants à les utiliser. La même idée s’applique à la gouvernance responsable de l’IA. Les développeurs qui conçoivent et tirent profit des systèmes d’IA sont les mieux placés pour anticiper les préjudices potentiels et portent donc la responsabilité d’élaborer des mesures préventives. Les législateurs chargés de protéger le public ne peuvent s’en remettre aux promesses volontaires des entreprises et doivent établir des normes de diligence exécutoires. Les parents et les éducateurs doivent aider les enfants à comprendre et à utiliser ces technologies de manière responsable, à la fois en contextualisant les interactions avec l’IA pour les jeunes et en identifiant les signes précoces de dépendance nocive.

 

Entreprises d’IA : concevoir une technologie avec de véritables garde-fous

Les développeurs d’IA doivent commencer à mettre en œuvre des restrictions que les utilisateurs ne peuvent pas contourner facilement. À l’heure actuelle, de nombreuses plateformes s’appuient sur des seuils d’âge auto-déclarés et des avertissements plutôt que sur des mécanismes de protection vérifiables. Les mineurs peuvent facilement accéder à la plupart des plateformes soumises à une restriction d’âge en entrant simplement un âge plus élevé. Cela signifie que les enfants peuvent accéder à des interactions d’IA qui peuvent les exposer à du contenu nuisible ou exploitant. Les plateformes d’IA populaires telles que ChatGPT et Microsoft Copilot n’exigent pas de vérification de l’âge pour accéder au site ou pour créer un compte. Cette approche est inadéquate selon toute conception raisonnable du devoir de diligence. Les plateformes d’IA devraient suivre l’exemple de sites de médias sociaux comme Instagram et Facebook, qui ont commencé à introduire des systèmes d’assurance de l’âge à plusieurs niveaux allant au-delà de l’information auto-déclarée.

 

Les développeurs doivent également bâtir des mécanismes d’intervention de crise qui connectent directement les utilisateurs à une aide humaine professionnelle lorsqu’ils expriment des pensées suicidaires ou une détresse émotionnelle aiguë. Rediriger ces conversations vers un autre agent conversationnel ou une page de ressources génériques est insuffisant. Un véritable devoir de diligence exige l’intégration de systèmes capables d’intervenir en temps réel et la capacité de mettre fin aux conversations susceptibles de mener à des dommages irréversibles.

 

Législateurs : établir des normes de protection exécutoires

Les législateurs doivent exiger que les plateformes suivent des normes qui minimisent les risques que l’IA pose aux mineurs. Ils doivent résister à la tentation de s’appuyer sur des engagements volontaires de l’industrie ou des mécanismes d’autorégulation. Ces normes incluent le signalement et la déclaration des conversations nuisibles et le suivi des modèles qui signalent un danger. Les lois doivent obliger les plateformes à adopter une assurance de l’âge vérifiable, des systèmes d’intervention de crise efficaces et le retrait des conceptions d’engagement addictives ou manipulatrices des profils d’adolescents.

 

Le 13 octobre 2025, la Californie a introduit une législation historique reflétant ces impératifs réglementaires. Le gouverneur a approuvé un projet de loi exigeant que les opérateurs d’IA émettent des notifications claires pour rappeler aux utilisateurs qu’ils interagissent avec un agent généré artificiellement. Le projet de loi empêche également les agents conversationnels de compagnie de produire du contenu qui encourage ou facilite le suicide ou l’automutilation. Cette loi représente une étape concrète vers des normes exécutoires qui protègent les mineurs tout en tenant les développeurs d’IA responsables de la sécurité de leurs plateformes.

 

En même temps, nous reconnaissons que les enfants ne peuvent et ne doivent pas être découragés d’interagir avec l’IA. Les législateurs devraient encourager le développement de compagnons d’IA qui offrent des avantages mesurables aux jeunes, comme l’amélioration de la créativité ou l’aide au développement éducatif.

 

Parents et éducateurs : guider les enfants vers une utilisation responsable

Les parents et les éducateurs constituent la première ligne de gouvernance comportementale pour atténuer les préjudices liés à l’IA chez les mineurs. Ensemble, ils ont la responsabilité partagée d’atténuer les risques de l’IA pour les mineurs en leur apprenant à l’utiliser en toute sécurité. En commençant à la maison, les parents peuvent établir des limites claires autour de l’utilisation de l’IA et parler ouvertement avec leurs enfants du fonctionnement des agents conversationnels et des raisons pour lesquelles la compagnie d’une IA n’est pas comparable à une interaction humaine. Les éducateurs peuvent également travailler à intégrer la littératie numérique en classe pour offrir aux élèves l’occasion de réfléchir de manière critique à l’IA. Enseigner aux mineurs à reconnaître comment les systèmes d’IA génèrent des réponses en utilisant des tendances flagorneuses et simulent l’empathie pour maximiser l’engagement de l’utilisateur peut réduire la susceptibilité des jeunes utilisateurs d’IA à la manipulation ou à la dépendance émotionnelle.

 

Les parents et les enseignants doivent rester attentifs aux signes avant-coureurs d’une dépendance malsaine à l’IA. Ces signes incluent le retrait social, la baisse des résultats scolaires et une préférence croissante pour les conversations avec des agents conversationnels plutôt qu’avec des personnes. Des campagnes d’éducation publique obligatoires, inspirées de celles utilisées pour la santé mentale des enfants ou la sécurité en ligne, pourraient renforcer cette couche de détection précoce. Avec des conseils et une observation précoces, les adultes peuvent aider les jeunes à bâtir des relations saines et à trouver du soutien dans le monde qui les entoure.


Faire en sorte que l’IA fonctionne pour les jeunes utilisateurs

Alors que les compagnons d’IA s’ancrent dans le développement social et émotionnel, l’absence de cadres réglementaires solides pose un risque inacceptable pour les mineurs. Ils doivent être conçus de manière à ce que les jeunes utilisateurs puissent les utiliser pour grandir, plutôt que d’être manipulés par eux. Cela exige trois choses. Les législateurs doivent établir des normes de sécurité claires et exécutoires qui font de la protection de l’enfance la référence de base. Les développeurs doivent opérationnaliser ces normes dès le départ par des garde-fous vérifiables tels que l’assurance de l’âge et des protocoles d’escalade. Enfin, les parents et les enseignants doivent apprendre aux enfants à utiliser ces outils de manière sûre et responsable.


Chaque enfant devra naviguer dans le monde de l’IA. Il est de notre devoir collectif de nous assurer qu’il puisse le faire en toute sécurité. La gouvernance des compagnons d’IA représente l’un des premiers tests majeurs de notre capacité à étendre les principes de protection de l’enfance à l’ère algorithmique. L’efficacité de notre réponse déterminera si l’IA deviendra un outil de développement ou un vecteur de préjudices évitables.


Les opinions exprimées sont celles de l’auteur et ne reflètent pas nécessairement la position de politique de la CIPPIC.

 
 
bottom of page