Aller au contenu

IA: Il se confie à ChatGPT et ça se retourne contre lui

Publié le 28 octobre 2025 • Intelligence Artificielle

Confession à ChatGPT : une conversation utilisée dans une enquête policière

Les faits

Un jeune homme de 19 ans du Missouri (États-Unis) s’est incriminé en discutant avec ChatGPT, selon un rapport de police relayé par Der Spiegel. Lors de cet échange, il a reconnu avoir endommagé 17 voitures sur un parking et a demandé au chatbot s’il risquait d’être retrouvé et s’il encourait une peine de prison.

L’historique de la conversation a ensuite été intégré au dossier d’enquête. Le rapport précise que, au début du dialogue, ChatGPT avait invité l’utilisateur à ne pas évoquer de violence ou de dommages matériels ; le jeune homme a néanmoins poursuivi.

Ce que dit la politique d’OpenAI

La situation met en lumière les limites de la confidentialité des échanges avec les services d’IA. OpenAI indique collecter des informations techniques (appareils, adresses IP) ainsi que le contenu des conversations. Les fichiers téléversés (photos, PDF) restent aussi stockés sur les serveurs.

Selon la politique de l’entreprise, même les conversations supprimées peuvent être conservées jusqu’à 30 jours, et plus longtemps si elles sont utilisées, après anonymisation, pour l’entraînement des modèles. Les  » tchats temporaires « , présentés comme privés, peuvent également être conservés pendant environ un mois et accessibles, dans certains cas, à des employés ou à des autorités.

Accès humain et obligations légales

Des employés d’OpenAI et des auditeurs externes sont autorisés à examiner des conversations pour prévenir les abus ou améliorer le service ; ces échanges peuvent être signalés automatiquement ou par les utilisateurs. Par ailleurs, sur décision judiciaire, OpenAI peut être contraint de divulguer des éléments de conversation aux autorités. Sam Altman, le dirigeant d’OpenAI, a déclaré en juillet lors d’un podcast que les utilisateurs confiaient  » les choses les plus intimes  » à ChatGPT, et a qualifié la situation de  » very screwed up  » (complètement foireuse) si des données devaient être remises dans le cadre de procédures.

OpenAI précise que les contenus relatifs à la violence font l’objet d’un contrôle particulier et peuvent être transmis aux autorités. L’entreprise a également indiqué avoir signalé plus de 31 000 images de contenus pédopornographiques aux autorités compétentes au cours du second semestre 2024.

Conseils et limites pratiques

Bernhard Kloos, expert en droit informatique, recommande la prudence :  » On ne peut jamais être sûr de ce qu’il advient des données. Tout ce que j’y écris peut tomber entre de mauvaises mains.  » Il conseille de ne pas partager d’informations qui pourraient nuire, ni de dévoiler des détails concernant des tiers, afin de respecter leur droit à la vie privée.

Quelques recommandations pratiques :

  • N’admettez pas d’actes répréhensibles via un chatbot ; en cas d’enquête, ces échanges peuvent être utilisés.
  • Évitez de partager des informations sensibles (données de santé, financières, ou identifiantes d’autres personnes).
  • Vérifiez les paramètres : il est possible d’empêcher que ses saisies soient utilisées pour l’entraînement des modèles, mais les retours fournis via les fonctions d’évaluation peuvent autoriser une exploitation des conversations.
  • Considérez les alternatives : pour des sujets très sensibles, privilégiez des professionnels soumis au secret (médecins, avocats) ou des outils spécifiquement conçus pour la confidentialité.

Conclusion

Ce cas illustre que les échanges avec un assistant d’IA ne sont pas automatiquement privés et peuvent avoir des conséquences juridiques. Les utilisateurs doivent garder en tête les règles de conservation et d’accès aux données, et limiter le partage d’informations sensibles lorsqu’ils interagissent avec ces services.

Articles connexes

Laisser un commentaire

Votre adresse e‑mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *