Aller au contenu

OpenAI annonce des ajustements de GPT‑5 pour mieux répondre aux situations de détresse mentale — 65 % de réponses problématiques en moins

Publié le 1 novembre 2025 • Intelligence Artificielle

OpenAI annonce des ajustements de GPT‑5 pour mieux répondre aux situations de détresse mentale — 65 % de réponses problématiques en moins

OpenAI a présenté des modifications apportées à son modèle GPT‑5 visant à réduire les réponses inappropriées ou dangereuses lors de conversations liées à la santé mentale. L’entreprise affirme avoir diminué de 65 % le taux de réponses non conformes — c’est‑à‑dire celles qui pourraient éloigner un utilisateur de la réalité ou aggraver son état — dans ce type d’échanges.

Ce que dit OpenAI

  • Les améliorations cherchent à mieux repérer et répondre aux signes de manie, de psychose, d’automutilation, d’idées suicidaires et d’attachement émotionnel.
  • OpenAI indique avoir travaillé avec plus de 170 experts en santé mentale pour définir comment identifier les personnes en danger et leur fournir des réponses appropriées et des conseils concrets.
  • La société précise que ces mises à jour ont permis de réduire de 65 % le taux de « réponses non conformes » lors de conversations préoccupantes.

Processus d’amélioration

OpenAI décrit une approche en plusieurs étapes : identification des risques potentiels, mesure et analyse pour mieux prédire et comprendre ces risques, validation par des experts, entraînement rétroactif des modèles et évaluation continue des performances. De ces travaux découlent des taxonomies et des guides de bonnes pratiques qui codifient les comportements souhaités et à éviter dans les échanges sensibles.

Selon l’entreprise, ces outils permettent d’enseigner au modèle des réponses plus appropriées et de suivre ses performances avant et après déploiement.

Contexte et controverses

OpenAI reconnaît que les conversations préoccupantes sur la santé mentale restent rares sur ChatGPT, mais plusieurs incidents très médiatisés ont attiré l’attention sur les limites des chatbots. En avril, la mort par suicide d’un adolescent qui avait évoqué ses idées noires avec ChatGPT a conduit la famille à porter plainte contre OpenAI et a poussé la société à renforcer les contrôles parentaux de son chatbot. D’autres plateformes, comme Character.ai, font face à des actions en justice similaires, et une étude de Stanford a mis en garde contre l’utilisation des chatbots comme substitut aux thérapeutes.

Lors d’une session publique consacrée à la restructuration d’OpenAI, un participant a interrogé le PDG Sam Altman sur la liste d’experts consultés ; Altman n’a pas détaillé les éléments communicables, tout en estimant que « une plus grande transparence est toujours positive ». Cet été, Altman avait auparavant déconseillé l’usage des chatbots à des fins thérapeutiques, mais il a aussi encouragé les utilisateurs à solliciter ChatGPT pour un soutien émotionnel en déclarant : « Nous sommes là pour ça. »

Par ailleurs, Ziff Davis (maison mère de CNET) a déposé en avril une plainte contre OpenAI, l’accusant d’avoir enfreint ses droits d’auteur lors de l’entraînement de ses systèmes d’IA.

Appels à la transparence

Ces mises à jour interviennent après une tribune d’un ancien chercheur d’OpenAI publiée dans le New York Times, qui demandait non seulement d’améliorer les réponses du chatbot face aux crises de santé mentale, mais aussi de montrer concrètement comment ces améliorations sont obtenues. « L’IA prend une place de plus en plus importante dans nos vies, tout comme les risques que cette technologie engendre pour la sécurité des utilisateurs », écrivait Steven Adler. « Les citoyens méritent mieux que la simple parole d’une entreprise : prouvez‑le. »

Limites et suivi

OpenAI présente ces évolutions comme une étape pour empêcher qu’un utilisateur ne sombre davantage lors d’une interaction avec ChatGPT, en maintenant les relations dans la réalité et en détectant des signes indirects d’automutilation ou de risque suicidaire. L’entreprise indique poursuivre l’évaluation continue de ses modèles pour affiner l’atténuation des risques, mais les spécialistes rappellent que les chatbots ne remplacent pas une prise en charge professionnelle et que la transparence sur les méthodes et les évaluations reste une demande centrale des observateurs et des chercheurs.

Articles connexes

Laisser un commentaire

Votre adresse e‑mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *