L’#Intelligence #Artificielle peut-elle changer la pratique de la #Médecine ?
L’Académie nationale de médecine américaine publie un rapport d’analyse sur l’Intelligence artificielle en médecine. A travers 269 pages, les chercheurs racontent les avancées et les incertitudes tout en corrigeant les faux espoirs qu’elle peut générer.
Un algorithme pour définir un traitement. Un autre pour faire une première sélection de radios. L’Intelligence artificielle appliquée à la médecine concentre une grande part des problématiques éthiques et techniques. Quelle responsabilité pour le médecin ? Comment celle-ci modifie-t-elle les rapports avec les patients ? Quel est son cadre légal ? WUD a interrogé le médecin et consultant en télémédecine, Pierre Simon, pour tenter d’y voir plus clair.
« Aujourd’hui, il existe un grand nombre d’exemples prometteurs”, explique Pierre Simon. Pour ce médecin, le développement en France de l’Intelligence artificielle en médecine (IAM) n’en est qu’à ses débuts. Elle est présente, par exemple, dans certaines opérations chirurgicales robotisées comme l’ablation de la prostate ou encore dans une première sélection lors de lectures de radio. “En radiologie, les algorithmes peuvent servir, par exemple, à trier les résultats normaux de ceux qui sont anormaux. Ils permettent d’effectuer un premier tri. Ce qui est inévitablement un gain de temps pour les praticiens.” Une technique qui permet au professionnel de santé d’être assisté, mais qui lui laisse la possibilité de suivre ou non les recommandations de l’IA.”
A cette “garantie humaine” s’ajoute une obligation d’informer le patient. “Dès lors qu’un médecin fait appel à un algorithme pour une aide de prescription ou pour une opération chirurgicale, il se doit de le dire à son patient.” Il en est de même pour les applications qui vont permettre aux patients de suivre l’évolution de leur traitement. “L’implication du patient dans la surveillance de sa propre santé va le rassurer et le responsabiliser.
Et les retours que nous avons, montrent que ce suivi permet, par exemple, de détecter plus rapidement une rechute lors d’un cancer ou encore de mieux adapter le parcours de soins d’une personne diabétique.”
Seulement, à ce jour, “le cadre légal n’est pas encore bien défini.” L’obligation d’avoir un encadrement humain a bien été validée par le Conseil d’Etat en juillet 2019, mais pour l’heure le projet de loi bioéthique n’est pas encore adopté. Ce texte doit être présenté en seconde lecture au Sénat dans les jours qui viennent avant de revenir à l’Assemblée nationale.
Autre difficulté du développement de l’IA en médecine : la responsabilité du soignant. “Cette garantie humaine va permettre de définir un cadre légal et engage la responsabilité du soignant. C’est lui qui reste responsable des décisions de soins proposées par l’algorithme. En revanche, si l’IA n’est pas suffisamment personnalisée, on risque d’avoir des propositions algorithmiques trop générales alors que le patient attend des propositions personnalisées. La médecine algorithmique peut donc être un progrès, mais un cadre est nécessaire.”
Quant à savoir quel impact le développement de l’IA pourra avoir dans la relation avec le patient, Pierre Simon estime qu’il est trop tôt pour tirer un bilan. Mais pour obtenir une adhésion et une confiance des patients, il est nécessaire d’avoir une transparence algorithmique totale ou partielle, concluent les chercheurs américains.
“Artificial Intelligence in Health Care : the Hope, the Hype, the Promise, the Peril”, Michael Matheny, Sonoo Thadaney Israni, Mahnoor Ahmed et Danielle Whicher