L’IA dans les soins de santé : aide ou frein dans la prise de décision ?

Auteur / Source : Publié le : Thématique : Recherche biomédicale / Recherche médicale Actualités Temps de lecture : 2 min.

 Imprimer

Aide au diagnostic, réduction des erreurs médicales, allègement des contraires de temps, telles sont les promesses des technologies dotées d’intelligence artificielle dans le domaine des soins de santé. Pourtant, selon une étude publiée en mars 2025 dans le JAMA Health Forum, le recours à ces technologies sans cadre réglementaire ni normes juridiques établies pourrait au contraire « aggraver les problèmes liés à la prévention des erreurs médicales et à l’épuisement professionnel des médecins ».   

Cette situation résulte d’un rapport ambivalent des médecins aux technologies dotées d’IA. Selon les auteurs de l’étude, « on attend d'eux qu'ils s'appuient sur l'IA pour minimiser les erreurs médicales, mais ils ont la responsabilité de déterminer quand outrepasser ou s'en remettre à ces systèmes ». Ainsi, une étude de cas sur la prise de décision médicale collaborative a révélé que la perception sociale laissait reposer presque entièrement la responsabilité sur l’être humain, même lorsque celui-ci était aidé par les résultats d’une IA. Les médecins sont alors confrontés à une charge supplémentaire pour « déterminer quand – et dans quelle mesure – ils doivent intégrer les apports de l'IA », ce qui risque d’augmenter l’épuisement professionnel et le risque d’erreurs.  

Deux risques d’erreur guettent en effet les médecins dans l’usage des technologies dotées d’IA : une confiance excessive dans les conseils de celle-ci, risquant de générer des faux positifs, ou au contraire une méfiance vis-à-vis des résultats de l’IA pouvant conduire à des faux négatifs. Ils sont alors confrontés à la difficulté de trouver un équilibre pour exploiter les données de l’IA tout en s’appuyant sur les connaissances tirées de leur expérience et de leur intuition médicales. Une autre complexité vient du fonctionnement propre de l’IA qui « génère des recommandations en identifiant des corrélations et des modèles statistiques à partir de vastes ensembles de données » là où le médecin fait appel à un raisonnement déductif, à l’expérience, au contexte du patient. Ces divergences impliquent pour le médecin une interprétation nuancée des résultats de l’IA pour éviter les erreurs médicales.  

Les auteurs de l’étude recommandent que les organismes de soins de santé de santé mettent en œuvre des lignes directrices et des pratiques standardisées pour mieux répartir la responsabilité et réduire la charge mentale des médecins. L’étude suggère aussi que les organismes de soins de santé intègrent la formation par simulation à l’IA dans la formation médicale et les programmes sur site afin de permettre aux futurs médecins de s’entrainer, grâce aux simulations, à « interpréter les résultats algorithmiques, à équilibrer les recommandations de l'IA avec le jugement clinique et à identifier les pièges potentiels ».  

 

Image : Gerd Altmann by Pixabay