OpenAI annonce des ajustements de GPT‑5 pour mieux répondre aux situations de détresse mentale — 65 % de réponses problématiques en moins
OpenAI annonce des ajustements de GPT‑5 pour mieux répondre aux situations de détresse mentale — 65 % de réponses problématiques en moins
OpenAI a présenté des modifications apportées à son modèle GPT‑5 visant à réduire les réponses inappropriées ou dangereuses lors de conversations liées à la santé mentale. L’entreprise affirme avoir diminué de 65 % le taux de réponses non conformes — c’est‑à‑dire celles qui pourraient éloigner un utilisateur de la réalité ou aggraver son état — dans ce type d’échanges.
Ce que dit OpenAI
- Les améliorations cherchent à mieux repérer et répondre aux signes de manie, de psychose, d’automutilation, d’idées suicidaires et d’attachement émotionnel.
- OpenAI indique avoir travaillé avec plus de 170 experts en santé mentale pour définir comment identifier les personnes en danger et leur fournir des réponses appropriées et des conseils concrets.
- La société précise que ces mises à jour ont permis de réduire de 65 % le taux de « réponses non conformes » lors de conversations préoccupantes.
Processus d’amélioration
OpenAI décrit une approche en plusieurs étapes : identification des risques potentiels, mesure et analyse pour mieux prédire et comprendre ces risques, validation par des experts, entraînement rétroactif des modèles et évaluation continue des performances. De ces travaux découlent des taxonomies et des guides de bonnes pratiques qui codifient les comportements souhaités et à éviter dans les échanges sensibles.
Selon l’entreprise, ces outils permettent d’enseigner au modèle des réponses plus appropriées et de suivre ses performances avant et après déploiement.
Contexte et controverses
OpenAI reconnaît que les conversations préoccupantes sur la santé mentale restent rares sur ChatGPT, mais plusieurs incidents très médiatisés ont attiré l’attention sur les limites des chatbots. En avril, la mort par suicide d’un adolescent qui avait évoqué ses idées noires avec ChatGPT a conduit la famille à porter plainte contre OpenAI et a poussé la société à renforcer les contrôles parentaux de son chatbot. D’autres plateformes, comme Character.ai, font face à des actions en justice similaires, et une étude de Stanford a mis en garde contre l’utilisation des chatbots comme substitut aux thérapeutes.
Lors d’une session publique consacrée à la restructuration d’OpenAI, un participant a interrogé le PDG Sam Altman sur la liste d’experts consultés ; Altman n’a pas détaillé les éléments communicables, tout en estimant que « une plus grande transparence est toujours positive ». Cet été, Altman avait auparavant déconseillé l’usage des chatbots à des fins thérapeutiques, mais il a aussi encouragé les utilisateurs à solliciter ChatGPT pour un soutien émotionnel en déclarant : « Nous sommes là pour ça. »
Par ailleurs, Ziff Davis (maison mère de CNET) a déposé en avril une plainte contre OpenAI, l’accusant d’avoir enfreint ses droits d’auteur lors de l’entraînement de ses systèmes d’IA.
Appels à la transparence
Ces mises à jour interviennent après une tribune d’un ancien chercheur d’OpenAI publiée dans le New York Times, qui demandait non seulement d’améliorer les réponses du chatbot face aux crises de santé mentale, mais aussi de montrer concrètement comment ces améliorations sont obtenues. « L’IA prend une place de plus en plus importante dans nos vies, tout comme les risques que cette technologie engendre pour la sécurité des utilisateurs », écrivait Steven Adler. « Les citoyens méritent mieux que la simple parole d’une entreprise : prouvez‑le. »
Limites et suivi
OpenAI présente ces évolutions comme une étape pour empêcher qu’un utilisateur ne sombre davantage lors d’une interaction avec ChatGPT, en maintenant les relations dans la réalité et en détectant des signes indirects d’automutilation ou de risque suicidaire. L’entreprise indique poursuivre l’évaluation continue de ses modèles pour affiner l’atténuation des risques, mais les spécialistes rappellent que les chatbots ne remplacent pas une prise en charge professionnelle et que la transparence sur les méthodes et les évaluations reste une demande centrale des observateurs et des chercheurs.
Articles connexes
Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coinceObjectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.Pourquoi utiliser Gemini 3Avant la sortie de […]
Gemini 3 Pro : Google lance la nouvelle génération d’IA multimodale
Gemini 3 Pro : Google lance la nouvelle generation d’IA multimodaleMoins de deux ans apres le lancement de l’ere Gemini, Google a annonce Gemini 3, une nouvelle famille de modeles d’intelligence artificielle qu’il presente comme la plus performante jamais conçue par le groupe. La premiere version, Gemini 3 Pro, est disponible immediatement en preview et […]
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoire
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoireLes investissements massifs dans les centres de donnees pour l’intelligence artificielle alimentent une demande croissante en puces, en energie et en memoires. Selon plusieurs acteurs du secteur, cette demande porte en particulier sur les puces memoires et menace d’entrainer des penuries et des […]