L’IA en santé face aux défis éthiques et réglementaires
Skip to main content
Insight

L’IA en santé face aux défis éthiques et réglementaires

A healthcare professional wearing a white lab coat and a stethoscope around their neck is using a tablet. The background is blurred, focusing on the person's hands interacting with the screen.
L’intelligence artificielle constitue depuis plusieurs années un levier majeur de transformation, à la fois pour transformer les pratiques médicales, améliorer les parcours de soins, la qualité et la sécurité de la prise en charge, et également pour faire face aux défis auxquels notre système de santé est confronté, dont en premier lieu la soutenabilité financière et le vieillissement démographique. C'est en parallèle de la multiplication des usages et des systèmes d'IA, que s'est développé le cadre réglementaire.

De la genèse du cadre de l'IA

Au niveau européen, dès 2018 des groupes d'experts de la commission européenne ont planché sur les conditions éthiques d'une IA digne de confiance, produisant, dès 2019, des lignes directrices consacrant notamment le contrôle humain, la robustesse, la gouvernance des données, l'équité, la transparence, la responsabilisation… L'OMS publiait dès 2021 son premier rapport sur l'IA appliquée à la santé et promouvait une approche par les risques tout en consacrant les mêmes principes.

En 2021, la France introduisait dans sa loi de bioéthique les premières exigences applicables aux professionnels de santé et aux fournisseurs, dont en premier lieu la transparence, l'explicabilité et le contrôle humain.

Enfin, et dans la continuité de ces travaux, une première proposition de réglementation européenne a vu le jour, et abouti -après différents ajustements tenant compte de la révolution de l'IA dite "générative"- au règlement sur l'intelligence artificielle adopté le 13 juin 2024, entré en vigueur le 1er août 2024, prévoyant une entrée en application progressive des ses dispositions.

Des spécificités françaises en "soft law"

Dans ce contexte foisonnant, la France a introduit d'autres dispositions de "soft law" : d'abord des "recommandations de bonnes pratiques pour éthique "by design" des solutions d'IA" en 2022 destinées couvrir l'étape de conception et de validation des solutions d'IA en santé, puis, plus récemment, en mai 2025, un "guide d'implémentation d'une IA en santé éthique" soumis par l'ANS en concertation, visant à "éclairer les enjeux éthiques spécifiques au secteur de la santé" et anticiper "leur prise en compte dans des référentiels opposables", c’est-à-dire "compléter le socle réglementaire" à l'égard des fournisseurs de systèmes d'IA.

La logique visant à éclairer les fournisseurs de systèmes d'IA sur les enjeux éthiques spécifiques au secteur de la santé est louable, et celle visant à définir des conditions de conformité à ces enjeux éthiques, tout autant.

Pour autant, peut-on redouter que le mieux soit l'ennemi du bien ?

En l'état du projet en concertation, et à supposer que son opposabilité soit actée dans le futur, c'est un nouveau formalisme qui s'imposerait aux éditeurs, pour démontrer leur conformité aux exigences relatives aux systèmes d'IA à haut risque, et à leurs obligations au titre de l'AI Act et du RGPD concernant les conditions de développement et la gouvernance des données.

Le formalisme contraint est-il souhaitable ? Ne risque-t-il pas de flécher des investissements vers davantage de "paperasse" au détriment d'enjeux de qualité et de sécurité ?

Le principe de "responsabilité" consacré par les textes européens - par le RGPD en son article 5 pour le responsable du traitement, et par l'AI Act en son article 16 pour le fournisseur d'un système d'IA à haut risque (que sont la plupart des systèmes d'IA en santé) -, ne vise-t-il pas à garantir la liberté des acteurs à l'égard des moyens mis en œuvre pour garantir leur conformité, dans le respect de leurs obligations ? 

Les exigences relatives aux systèmes d'IA à haut risque -notamment la gouvernance des données, la transparence, le contrôle humain- qui font l'objet de recommandations dans le projet soumis à concertation, ne feront-elles pas déjà l'objet d'actes d'exécution, codes, et recommandations internationales, destinées à mettre à mal tout ou partie de ce référentiel français ?

Sur le plan strictement juridique, les imprécisions du projet - inévitables compte tenu du format -, notamment quant aux conditions d'utilisation secondaire des données de santé, ne risquent-elles pas d'induire en erreur les fournisseurs ?

Sur un plan pragmatique, cette ultime spécificité française ne risque-t-elle pas de dissuader les fournisseurs de systèmes d'IA des autres états membres et/ou internationaux, d'adresser le marché français ?

Gageons que la concertation sera riche et aboutira à un arbitrage constructif pour que la France soit le terreau fertile de systèmes d'intelligence artificielle en santé, pour le plus grand bénéfice des patients, des soignants, et du système de santé.

Article publié également sur DSIH.