Quelle #éthique pour l’intelligence artificielle #IA en #santé ? @devilliern1
L’ordinateur et ses algorithmes deviendra t-il un outil de médecine comme un autre ?
Rawpixel/Unsplash, CC BY-SA
Nathalie Devillier, Grenoble École de Management (GEM)
La santé a été identifiée comme un des secteurs prioritaires du développement de l’IA par le rapport Villani. La course aux données de santé et donc lancée. Le caractère sensible de ces données pose des questions éthiques quant à leur collecte et leur traitement par les algorithmes. La numérisation irréversible des corps dépasse pourtant la manière d’exploiter ces données dans un parcours de soin stricto sensu. Si la France souhaite réellement se démarquer, elle devra garantir que les considérations éthiques et déontologiques sont intégrées dès la conception des outils jusqu’après la phase de déploiement et aussi s’inscrire dans une perspective mondiale plutôt que nationale.
Un écosystème des données de santé qui peine à voir le jour
D’ici 2019, notre système national des données de santé (SNDS) rassemblera 450 téraoctets (1012 octets) d’informations stratégiques rassemblées dans une seule base, alors qu’aux États-Unis ce volume s’élève déjà à 150 exaoctets (1018 octets). Cette avancée permettra d’analyser et améliorer la santé de la population notamment en ce qui concerne les patients souffrant de maladies chroniques (loi sur la Modernisation de notre système de santé).
C’est une véritable mine d’or tant pour les chercheurs que pour les sociétés privées mais la récente mise en demeure de la Caisse nationale de l’assurance maladie des travailleurs salariés par la CNIL pour une sécurisation insuffisante de son système national inter-régimes montre que ce dispositif est trop fragile : la pseudonymisation des données des assurés sociaux est pointée du doigt tout comme les procédures de sauvegarde des données de santé et ce malgré un cadre juridique très solide encadrant aussi bien la collecte, que le traitement et l’hébergement de ces données. Faut-il rappeler que le DMP (Dossier médical partagé) n’est toujours pas en place après 14 ans d’errance et que le SNDS est bien loin de rassembler les informations émises par l’ensemble des équipes médicales rencontrées par le patient…
L’État, premier client de la transformation numérique, est donc largement tributaire de la production de données de santé et de bien-être issues de ses citoyens pour construire cet « écosystème de la donnée » qui alimentera l’intelligence artificielle. Le rapport Villani envisage donc que chacun, dans une logique citoyenne, permette à l’État et aux collectivités territoriales de récupérer toutes ses données pour développer des applications en IA à des fins de politique publique qu’il s’agisse de données liées à un compte d’utilisateur ou à ses objets connectés.
C’est là un détournement pur et simple du droit à la portabilité des données à caractère personnel reconnu aux personnes par le règlement européen qui sera applicable en mai prochain (art.20). Même si la finalité d’un tel partage semble louable en ce qu’il contribue à l’intérêt général (protection de la santé publique), les conséquences devront en être clarifiées : quelles seront les contreparties pour les citoyens ? Sera-t-il possible de refuser ce partage de données ultrasensibles avec l’État sans encourir la moindre conséquence en termes de remboursement par exemple, voire d’accès aux soins ?
Plus la collecte sera massive, plus la sécurité et la confidentialité devront être assurées face à un mésusage par les banques, assureurs et employeurs, mais aussi vu les risques de piratage. Les 115 millions de dollars d’amende prononcée suite à la violation de sécurité des données de santé de 78 millions d’Américains clients de la mutuelle de santé Anthem doit donner à réfléchir. Pourtant, cette dimension est passée sous silence dans le rapport sur l’intelligence artificielle…
Autre point d’achoppement, si les données de santé bénéficient d’un régime de protection juridique spécifique en raison de leur caractère sensible, tel n’est pas le cas pour les données de bien-être générées par les objets connectés (Internet of things, ou IoT). Il est pour le moins surprenant que ce rapport fasse l’économie d’une telle réflexion : c’est précisément l’analyse de ces données qui offriront une personnalisation des soins car elles sont bien plus précises qu’un dossier médical et sont de surcroît collectées en permanence (voir en ce sens les travaux du Comité consultatif national d’éthique).
Le scandale Cambridge Analytica a « vacciné » les internautes sur les risques de collecte déloyale de leurs données à caractère sensible et des abus qui peuvent en résulter pour leurs droits et libertés fondamentales, la vigilance sera donc plus que de mise quant aux partenariats envisagés avec les géants du web (DeepMind de Google, et Facebook AI).
La méthode du « bac à sable » enfin retenue par la France
Présente à l’étranger notamment pour réguler la technologie de la chaîne de blocs, cette méthode basée sur le « testes et apprends » est issue des systèmes d’information où elle désigne un environnement dans lequel un code potentiellement non sécurisé se développe. Transposée au domaine réglementaire, elle permet aux entrepreneurs de tester leurs services et modèles économiques dans un environnement réel (patients, professionnels et hôpitaux) sans avoir à suivre certaines contraintes juridiques levées par le régulateur. L’expérience est limitée dans le temps et en nombre de clients ce qui minimise l’incertitude juridique tout en favorisant l’investissement.
Cette méthode peut aussi s’appliquer au régulateur qui se met en mode start-up : la flexibilité ainsi mise en place permet de limiter les risques tout en soutenant l’innovation. Elle est employée dans les pays de common law, mais aussi en Russie, en Inde et aux Emirats arabes unis (voir « Jouer dans le “bac à sable” réglementaire pour réguler l’innovation disruptive : le cas de la technologie de la chaîne de blocs »).
Le « bac à sable » permettra de tester le potentiel de l’IA pour le diagnostic, le traitement, mais aussi les essais cliniques, la traçabilité des médicaments, le remboursement des soins et le financement de projets d’e-santé. Sur les plans éthique, déontologique et réglementaire, cette méthode devra clarifier les responsabilités engagées en cas d’erreur médicale et cartographier les multiples hypothèses de risques juridiques encourus par le recours à l’IA en santé. L’ouverture du « bac à sable » à davantage de joueurs c’est-à-dire d’acteurs européens ou internationaux n’en sera que plus bénéfique pour une approche globale et non strictement nationale.
Vers plus de transparence algorithmique
Autre enjeu majeur de l’IA en santé : la transparence des algorithmes et l’explication de leur fonctionnement.
La forme d’IA la plus courante est l’apprentissage profond (deep learning), elle est dirigée par les données et purement statistique. Elle est très pratique pour l’analyse de formes, d’images, de textes lorsque la base de données qui l’alimente est suffisamment riche. Pour le moment, les champions tricolores de l’imagerie médicale alimentent leur IA avec des bases de données… américaines !
Or, dans un secteur aussi critique que celui de la santé, non seulement il faut rassembler un maximum de données, mais il est aussi nécessaire d’introduire de la rationalité pour expliquer la pertinence des résultats proposés par l’IA. C’est d’ailleurs ce manque de transparence qui est souvent reproché concernant le dilemme éthique des véhicules autonomes (faut-il sauver le piéton qui traverse au rouge au risque de mettre en danger le passager du véhicule ? CNIL, « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle »).
Le rapport Villani préconise la création d’un comité d’éthique qui fera l’audit de ces technologies numériques et de l’IA. Lorsqu’il s’agira de prendre une décision pour un patient impliquant de manipuler des données critiques, confidentielles et ultra-protégées, l’algorithme aura été audité avant le déploiement du service. Plus précisément, l’éthique devra être respectée au stade de la collecte des données de santé et de bien-être (loyauté), puis au cœur de l’algorithme en tant que valeur de gestion des données pendant tout leur cycle de vie et enfin dans les pratiques de l’IA en santé en expliquant les résultats produits en adéquation avec la finalité de la collecte (protection de la santé).
La difficulté sera de projeter l’algorithme dans son fonctionnement en relation avec d’autres machines (qui actuellement ne se parlent pas) autrement dit de gérer les conséquences de ses futures performances qui seront rendues possibles par les ordinateurs quantiques.
Cette transparence, synonyme de confiance en l’algorithme, est un enjeu stratégique majeur pour l’entreprise. Elle mettra en lumière le jugement de valeur de son concepteur, et donc de la société qui l’exploite, lui offrant un avantage compétitif de taille sur un marché où la loyauté envers le client est devenue un must.
Éthique et obligation de rendre des comptes
Sur le plan juridique, la question est déjà posée par le Parlement européen de doter, ou pas, les robots de personnalité juridique. La réflexion plus large sur la responsabilité de l’IA n’en est qu’à ses débuts. La directive sur la responsabilité du fait des produits défectueux (n°85/374/CEE) fixe des règles qui ne sont pas adaptées dans le contexte de l’IoT et de la robotique. Elle doit donc être clarifiée pour relever les défis de l’IA, de la cybersécurité et de l’IoT afin de garantir un marché intérieur protecteur des intérêts des consommateurs et propice à la concurrence. Cette révision devra intégrer l’autonomie croissante des systèmes (capteurs, logiciels), les droits numériques issus du RGPD et du règlement e-Privacy.
Ce travail est en cours au sein de la Commission européenne avec l’examen à mi-parcours de la Stratégie pour un marché unique numérique et au Parlement européen avec la préparation d’un rapport sur « The cost of non-Europe on robotics & AI ». Les droits de l’homme seraient aussi appelés à s’enrichir avec un droit à l’intégrité cérébrale et un droit à l’intimité cérébrale.
Nathalie Devillier, Professeur de droit, Grenoble École de Management (GEM)
La version originale de cet article a été publiée sur The Conversation.