OpenAI, le développeur de ChatGPT, a annoncé son intention de lancer de nouveaux contrôles parentaux en octobre 2025, suite à des accusations selon lesquelles certains chatbots, dont ChatGPT, auraient contribué à des cas d'automutilation ou de suicide chez les adolescents.

Que comprendront les contrôles parentaux ?

Selon la société, les mises à jour permettront aux parents de :

    • Lier leurs comptes à ceux de leurs enfants adolescents.
    • Gérer la manière dont ChatGPT répond aux utilisateurs adolescents.
    • Désactiver des fonctionnalités telles que la mémoire et l'historique des conversations.
    • Recevoir des notifications instantanées lorsque le système détecte des moments de « détresse sévère » ou de tension psychologique aiguë.

    OpenAI a déclaré sur son blog : « Ces mesures ne sont que le début ; nous continuerons à apprendre et à améliorer notre approche avec l'aide d'experts afin de rendre ChatGPT plus utile et plus sûr. »

    Contexte tragique derrière la décision

    L'annonce fait suite au dépôt d'une plainte par les parents de l'adolescent Adam Rain, 16 ans, contre OpenAI, accusant ChatGPT de lui avoir donné des conseils sur le suicide.

    Une mère de Floride a également déposé une plainte l'année dernière contre la plateforme Character.AI, l'accusant d'avoir joué un rôle dans le suicide de son fils de 14 ans.

    Les inquiétudes ont également augmenté quant au fait que certains utilisateurs, en particulier les adolescents, pourraient développer un attachement émotionnel aux chatbots, ce qui conduit dans certains cas à des illusions psychologiques et à l'isolement social, selon des rapports du New York Times et de CNN.

    Mesures de sécurité actuelles et faiblesses

    La société a confirmé que ChatGPT oriente déjà les utilisateurs vers des lignes d'assistance et des ressources de soutien lorsqu'il détecte des signes de crise psychologique.

    Cependant, elle a reconnu que ces mesures deviennent moins efficaces lors de conversations longues et complexes, où certains mécanismes de sécurité intégrés peuvent se dégrader.

    Un porte-parole d'OpenAI a déclaré : « Les garanties fonctionnent mieux dans les interactions courtes et courantes, mais nous avons appris qu'elles peuvent devenir moins fiables dans les longues conversations, c'est pourquoi nous continuerons à les améliorer constamment. »

    Améliorations supplémentaires à venir

    OpenAI a annoncé de nouvelles mesures pour renforcer la sécurité, notamment :

    • Rediriger les conversations montrant des signes de détresse psychologique aiguë vers un modèle d'inférence spécial plus engagé dans les protocoles de sécurité.
    • Collaborer avec des experts en sensibilisation des jeunes à la santé mentale et à l'interaction homme-machine pour concevoir de futurs contrôles parentaux.
    • Créer un conseil consultatif pour fournir des recommandations sur le produit, la recherche et les politiques, tout en laissant la société responsable des décisions finales.

Pressions croissantes sur OpenAI

ChatGPT est utilisé par plus de 700 millions d'utilisateurs actifs par semaine, ce qui le place au cœur de la révolution de l'intelligence artificielle.

Cependant, la société fait face à une pression croissante pour garantir la sécurité de sa plateforme, les sénateurs américains ayant envoyé en juillet une lettre demandant des clarifications sur ses politiques de sécurité.

Common Sense Media a également mis en garde en avril contre l'utilisation des applications d'IA « compagnon » par les adolescents de moins de 18 ans, les considérant comme présentant des « risques inacceptables ».

Mesures correctives en cours

OpenAI a fait face à des critiques ces derniers mois concernant le style d'interaction de ChatGPT.

En avril, la société est revenue sur une mise à jour qui rendait le robot « excessivement poli », et a récemment rétabli l'option d'utiliser des versions plus anciennes après des critiques selon lesquelles le dernier modèle GPT-5 manquait de « personnalité ».

La société s'est également engagée à lancer des mesures de sécurité supplémentaires dans les 120 jours, confirmant que le travail sur ces améliorations avait commencé avant l'annonce récente et se poursuivra jusqu'à la fin de l'année et au-delà.