IA: Il se confie à ChatGPT et ça se retourne contre lui
Confession à ChatGPT : une conversation utilisée dans une enquête policière
Les faits
Un jeune homme de 19 ans du Missouri (États-Unis) s’est incriminé en discutant avec ChatGPT, selon un rapport de police relayé par Der Spiegel. Lors de cet échange, il a reconnu avoir endommagé 17 voitures sur un parking et a demandé au chatbot s’il risquait d’être retrouvé et s’il encourait une peine de prison.
L’historique de la conversation a ensuite été intégré au dossier d’enquête. Le rapport précise que, au début du dialogue, ChatGPT avait invité l’utilisateur à ne pas évoquer de violence ou de dommages matériels ; le jeune homme a néanmoins poursuivi.
Ce que dit la politique d’OpenAI
La situation met en lumière les limites de la confidentialité des échanges avec les services d’IA. OpenAI indique collecter des informations techniques (appareils, adresses IP) ainsi que le contenu des conversations. Les fichiers téléversés (photos, PDF) restent aussi stockés sur les serveurs.
Selon la politique de l’entreprise, même les conversations supprimées peuvent être conservées jusqu’à 30 jours, et plus longtemps si elles sont utilisées, après anonymisation, pour l’entraînement des modèles. Les » tchats temporaires « , présentés comme privés, peuvent également être conservés pendant environ un mois et accessibles, dans certains cas, à des employés ou à des autorités.
Accès humain et obligations légales
Des employés d’OpenAI et des auditeurs externes sont autorisés à examiner des conversations pour prévenir les abus ou améliorer le service ; ces échanges peuvent être signalés automatiquement ou par les utilisateurs. Par ailleurs, sur décision judiciaire, OpenAI peut être contraint de divulguer des éléments de conversation aux autorités. Sam Altman, le dirigeant d’OpenAI, a déclaré en juillet lors d’un podcast que les utilisateurs confiaient » les choses les plus intimes » à ChatGPT, et a qualifié la situation de » very screwed up » (complètement foireuse) si des données devaient être remises dans le cadre de procédures.
OpenAI précise que les contenus relatifs à la violence font l’objet d’un contrôle particulier et peuvent être transmis aux autorités. L’entreprise a également indiqué avoir signalé plus de 31 000 images de contenus pédopornographiques aux autorités compétentes au cours du second semestre 2024.
Conseils et limites pratiques
Bernhard Kloos, expert en droit informatique, recommande la prudence : » On ne peut jamais être sûr de ce qu’il advient des données. Tout ce que j’y écris peut tomber entre de mauvaises mains. » Il conseille de ne pas partager d’informations qui pourraient nuire, ni de dévoiler des détails concernant des tiers, afin de respecter leur droit à la vie privée.
Quelques recommandations pratiques :
- N’admettez pas d’actes répréhensibles via un chatbot ; en cas d’enquête, ces échanges peuvent être utilisés.
- Évitez de partager des informations sensibles (données de santé, financières, ou identifiantes d’autres personnes).
- Vérifiez les paramètres : il est possible d’empêcher que ses saisies soient utilisées pour l’entraînement des modèles, mais les retours fournis via les fonctions d’évaluation peuvent autoriser une exploitation des conversations.
- Considérez les alternatives : pour des sujets très sensibles, privilégiez des professionnels soumis au secret (médecins, avocats) ou des outils spécifiquement conçus pour la confidentialité.
Conclusion
Ce cas illustre que les échanges avec un assistant d’IA ne sont pas automatiquement privés et peuvent avoir des conséquences juridiques. Les utilisateurs doivent garder en tête les règles de conservation et d’accès aux données, et limiter le partage d’informations sensibles lorsqu’ils interagissent avec ces services.
Articles connexes
Gemini 3 : premières impressions – ce qui marche et ce qui coince
Gemini 3 : premires impressions – ce qui marche et ce qui coinceObjectif de cet article : partager mes premires impressions en utilisant Gemini 3, en soulignant ce qui fonctionne bien et ce qui fonctionne moins bien. J’explique mon exprience dans la console puis lors de sessions de codage.Pourquoi utiliser Gemini 3Avant la sortie de […]
Gemini 3 Pro : Google lance la nouvelle génération d’IA multimodale
Gemini 3 Pro : Google lance la nouvelle generation d’IA multimodaleMoins de deux ans apres le lancement de l’ere Gemini, Google a annonce Gemini 3, une nouvelle famille de modeles d’intelligence artificielle qu’il presente comme la plus performante jamais conçue par le groupe. La premiere version, Gemini 3 Pro, est disponible immediatement en preview et […]
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoire
Ruée vers l’IA : tensions et risques de pénurie sur les puces mémoireLes investissements massifs dans les centres de donnees pour l’intelligence artificielle alimentent une demande croissante en puces, en energie et en memoires. Selon plusieurs acteurs du secteur, cette demande porte en particulier sur les puces memoires et menace d’entrainer des penuries et des […]