Aller au contenu

IA générative en santé : la HAS appelle à un usage raisonné et sécurisé

Publié le 31 octobre 2025 • Actu Intelligence Artificielle

IA générative en santé : la HAS appelle à un usage raisonné et sécurisé

La Haute Autorité de Santé (HAS) a publié, le jeudi 30 octobre 2025, ses premières recommandations consacrées à l’IA générative. L’institution reconnaît le potentiel de ces outils pour améliorer certaines pratiques des professionnels de santé, tout en insistant sur une utilisation prudente et encadrée.

Un potentiel reconnu, des risques identifiés

La HAS n’exclut pas l’apport de l’IA générative : elle peut aider à la gestion des ressources d’établissement, à la synthèse de la littérature scientifique ou encore à la traduction d’informations médicales en termes compréhensibles pour les patients. L’autorité note que des solutions largement diffusées, comme ChatGPT d’OpenAI (quelques 800 millions d’utilisateurs) ou les développements de Mistral AI, rendent ces questions d’autant plus urgentes pour le secteur de la santé.

Pour autant, la HAS attire l’attention sur des risques concrets, en particulier le phénomène d’ « hallucination  » – lorsque l’IA génère des propos ou des faits erronés présentés comme vrais – qui peut compromettre la sécurité et la qualité des décisions cliniques.

Vérification et confidentialité : des priorités

Pour limiter ces risques, la HAS recommande que les soignants vérifient systématiquement les sources mobilisées par l’IA et, si nécessaire, les croisent avec d’autres références fiables. La traçabilité des informations et la transparence sur l’origine des données sont mises en avant comme des exigences pratiques.

La confidentialité des informations patients est un autre pilier de ces recommandations. L’autorité rappelle qu’il convient de s’assurer qu’aucune donnée permettant l’identification directe ou indirecte d’une personne, ni aucune information relevant du secret médical, ne soit communiquée dans les requêtes adressées aux outils d’IA.

La méthode A.V.E.C. pour garder la main

La HAS incite fortement les professionnels à ne pas se reposer entièrement sur ces outils afin de ne pas  » endormir  » leurs compétences cliniques. Pour guider les usages, l’autorité propose un cadre résumé par l’acronyme A.V.E.C. :

  • Apprendre : s’approprier les outils et comprendre leurs limites.
  • Vérifier : contrôler les contenus produits par l’IA et consulter les sources.
  • Estimer : analyser la pertinence et l’applicabilité des résultats au cas clinique.
  • Communiquer : échanger avec les collègues et informer les patients lorsque l’IA est utilisée.

Perspectives

La publication de ce guide constitue une première étape. La HAS annonce déjà des recommandations à venir destinées aux patients, un enjeu important alors que de nombreux citoyens se tournent vers l’IA pour obtenir des informations de santé, parfois au risque de recevoir des réponses incomplètes ou inexactes. L’autorité souligne enfin la nécessité d’un accompagnement professionnel, de formations et d’une gouvernance claire pour intégrer ces technologies de manière sûre et efficace.

Articles connexes

Laisser un commentaire

Votre adresse e‑mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *