IA générative en santé : la HAS appelle à un usage raisonné et sécurisé
IA générative en santé : la HAS appelle à un usage raisonné et sécurisé
La Haute Autorité de Santé (HAS) a publié, le jeudi 30 octobre 2025, ses premières recommandations consacrées à l’IA générative. L’institution reconnaît le potentiel de ces outils pour améliorer certaines pratiques des professionnels de santé, tout en insistant sur une utilisation prudente et encadrée.
Un potentiel reconnu, des risques identifiés
La HAS n’exclut pas l’apport de l’IA générative : elle peut aider à la gestion des ressources d’établissement, à la synthèse de la littérature scientifique ou encore à la traduction d’informations médicales en termes compréhensibles pour les patients. L’autorité note que des solutions largement diffusées, comme ChatGPT d’OpenAI (quelques 800 millions d’utilisateurs) ou les développements de Mistral AI, rendent ces questions d’autant plus urgentes pour le secteur de la santé.
Pour autant, la HAS attire l’attention sur des risques concrets, en particulier le phénomène d’ « hallucination » – lorsque l’IA génère des propos ou des faits erronés présentés comme vrais – qui peut compromettre la sécurité et la qualité des décisions cliniques.
Vérification et confidentialité : des priorités
Pour limiter ces risques, la HAS recommande que les soignants vérifient systématiquement les sources mobilisées par l’IA et, si nécessaire, les croisent avec d’autres références fiables. La traçabilité des informations et la transparence sur l’origine des données sont mises en avant comme des exigences pratiques.
La confidentialité des informations patients est un autre pilier de ces recommandations. L’autorité rappelle qu’il convient de s’assurer qu’aucune donnée permettant l’identification directe ou indirecte d’une personne, ni aucune information relevant du secret médical, ne soit communiquée dans les requêtes adressées aux outils d’IA.
La méthode A.V.E.C. pour garder la main
La HAS incite fortement les professionnels à ne pas se reposer entièrement sur ces outils afin de ne pas » endormir » leurs compétences cliniques. Pour guider les usages, l’autorité propose un cadre résumé par l’acronyme A.V.E.C. :
- Apprendre : s’approprier les outils et comprendre leurs limites.
- Vérifier : contrôler les contenus produits par l’IA et consulter les sources.
- Estimer : analyser la pertinence et l’applicabilité des résultats au cas clinique.
- Communiquer : échanger avec les collègues et informer les patients lorsque l’IA est utilisée.
Perspectives
La publication de ce guide constitue une première étape. La HAS annonce déjà des recommandations à venir destinées aux patients, un enjeu important alors que de nombreux citoyens se tournent vers l’IA pour obtenir des informations de santé, parfois au risque de recevoir des réponses incomplètes ou inexactes. L’autorité souligne enfin la nécessité d’un accompagnement professionnel, de formations et d’une gouvernance claire pour intégrer ces technologies de manière sûre et efficace.
Articles connexes
Cyberattaque La Poste : Impact et Enquête sur la panne DDoS
La Poste a été victime d’une cyberattaque de type DDoS. Découvrez l’impact sur les services, l’enquête en cours et les mesures à prendre si vous êtes affecté.
Cyberattaque La Poste : Services en ligne hors service, distribution perturbée
La Poste a été victime d’une cyberattaque de type déni de service. Les services en ligne sont inaccessibles et la distribution perturbée. Détails et impact.
CISA : ce ne sont pas Signal et WhatsApp qui sont ‘cassés’ mais les téléphones ciblés
CISA : ce ne sont pas Signal et WhatsApp qui sont ‘cassés’ mais les téléphones ciblésLa Cybersecurity and Infrastructure Security Agency (CISA) alerte sur une campagne active visant les applications de messagerie chiffrée comme Signal et WhatsApp. Plutot que de tenter de briser le chiffrement, les attaquants compromettent les appareils et exploitent des fonctions de […]