L’IA générative en santé : oui, avec un usage responsable

Les systèmes d’intelligence artificielle (IA) générative, tels que Mistral AI, CoPilot ou ChatGPT, se démocratisent à vitesse grand V. Faciles d’accès et de prise en main, des outils se développent également dans le secteur sanitaire, social et médico-social avec de nombreuses applications. Leur utilisation induit toutefois des risques qu’il convient de maîtriser. La Haute Autorité de santé (HAS) publie de premières clés d’usage de l’IA générative en santé destinées aux professionnels, qu’ils soient experts ou non du sujet. Le guide, volontairement concis, se structure en quatre lignes directrices accompagnées d’exemples issus du terrain. Une fiche sur l’utilisation de l’IA générative en santé par les usagers viendra compléter ces travaux.

Mistral AI, CoPilot, ChatGPT… De plus en plus de personnes les utilisent au quotidien dans un cadre personnel, mais aussi professionnel, essentiellement pour gagner du temps. Les outils de ce type sont désignés sous le terme de systèmes d’IA générative. Ils sont capables de générer un contenu (texte, image, son, vidéo…) en réponse à une question posée ou à une demande de tâche à effectuer (ces requêtes sont désignées sous le nom de « prompts »). Le système analyse alors un grand nombre de données accessibles en ligne ou fournies par l’utilisateur afin de générer un contenu cohérent.

Dans le secteur sanitaire, social et médico-social, les usages professionnels de ce type d’outils se multiplient. Certains d’entre eux ne sont pas spécifiquement développés pour un usage dans un contexte de santé. Parallèlement, des technologies dédiées se développent et entrent également dans les pratiques : transcription de conversations lors de consultations, élaboration de synthèses de littérature scientifique ou encore de documents illustrés d’images pour expliquer des parcours médico-sociaux. Ces systèmes d’IA générative sont potentiellement prometteurs. Ils pourraient permettre de libérer du temps à dédier aux soins et accompagnements, améliorer la qualité de vie au travail et favoriser la qualité des pratiques professionnelles.

Les professionnels ne sont cependant pas toujours pleinement éclairés sur les performances et les limites des outils qu’ils utilisent. Leurs usages peuvent induire des risques si des précautions ne sont pas mises en place. En particulier, le contenu généré peut comporter des erreurs en se fondant sur des données non vérifiées ou en les dissimulant dans un contenu qui semble convaincant (on parle « d’hallucinations »). De mauvaises pratiques sont aussi observées comme la transmission d’informations confidentielles. L’absence d’évaluation de l’utilité et de la pertinence de ces systèmes en santé peut enfin limiter la confiance des professionnels. Dans ce contexte, la HAS publie un guide pédagogique volontairement concis afin de favoriser le bon usage de l’IA générative en santé et le déploiement dans le secteur sanitaire, social et médico-social des systèmes utiles et performants. Une fiche listant les points clés du guide est également mise à disposition.

La HAS propose quatre lignes directrices :

  • A pour Apprendre : le professionnel s’approprie le fonctionnement et l’utilisation du système d’IA générative.
  • V pour Vérifier : le professionnel est attentif à la pertinence de son usage, à la qualité de sa requête et au contrôle du contenu généré.
  • E pour Estimer : le professionnel analyse au cours du temps la qualité et l’adéquation aux besoins du système d’IA générative.
  • C pour Communiquer : le professionnel échange avec son écosystème dans une démarche d’amélioration continue.

https://www.has-sante.fr/jcms/p_3703069/fr/l-ia-generative-en-sante-oui-avec-un-usage-responsable