L’utilisation dans la pratique professionnelle des médecins de l’intelligence artificielle soulève de nombreuses questions liées à la responsabilité. Notamment se demander si le droit en vigueur apporte déjà certaines réponses. Le principe de responsabilité sans faute pourrait être pertinent.
S’il n’existe pas encore de contentieux liés à l’utilisation de l’intelligence artificielle (IA) en santé, il n’en reste pas moins que le sujet soulève de nombreuses questions, notamment en matière de responsabilité. C’est en tous cas une partie du débat qu’a soulevé en introduction du colloque dédié à ce sujet organisé ce 25 septembre par l’Institut droit et santé (IDS) sa codirectrice, Lydia Morlet-Haïdara. La tendance, pour l’heure, est au statu quo. La législation existante permettrait en effet de répondre à ces problématiques de responsabilité. Au premier rang desquelles, celle des professionnels de santé.
Principe de responsabilité pour faute
Avec l’IA, il n’est pas question que le médecin soit relégué au second plan. Elle intervient comme une aide pour établir un diagnostic ou interpréter l’imagerie, a rappelé Clémentine Lequillerier, maître de conférence à l’université Paris-Descartes et membre de l’IDS. Mais que se passe-t-il si un dommage survient ? Si une partie de la machine utilisant l’IA est défectueuse ? Ou si les résultats sont mal interprétés, voire même s’ils ne sont finalement pas utilisés par le professionnel de santé, s’est-elle interrogée. Pour Mireille Bacache, professeure agrégée à l’université Paris 1, les dommages que peuvent causer l’IA relèvent de deux catégories. La première est l’atteinte de la personne par un usage abusif des données personnelles et la seconde est celle du dommage corporel. Les règles actuelles du droit positif suffisent-elles à répondre à ces nouveaux besoins ? Faut-il créer un régime spécial ? Les rapports nationaux et européens restent prudents pour le moment sur la nécessité de réformer, a noté Mireille Bacache. Par exemple, pour le Conseil d’État, les difficultés soulevées par l’utilisation de l’IA peuvent être résolues en mobilisant les différents régimes existants. Ces régimes, a-t-elle précisé, reposent sur le principe de responsabilité pour faute du professionnel de santé.
Et responsabilité sans faute
Sur le sujet de l’IA, a-t-elle poursuivi, le principe de la responsabilité sans faute en cas d’accident médical avec dommage, posée par le Conseil d’État et affirmée par le Code de la santé publique, doit demeurer. De même, l’utilisation de l’IA ne doit pas être une cause d’exonération du professionnel de santé, a ajouté Mireille Bacache. Et le maintien du principe de responsabilité pour faute « pourrait s’accompagner d’une évolution de la responsabilité sans faute en cas de produits de santé défectueux« , a-t-elle souligné. Sur ce sujet, des divergences existent, notamment entre les interprétations de la Cour de cassation et le Conseil d’État. « Des divergences qu’il conviendrait de résoudre« , a-t-elle estimé. Elles concernent l’article L1142-1 du Code de santé publique qui excepte les produits de santé de la responsabilité pour faute. Le Conseil d’État — à la différence de la Cour de cassation qui renvoie à un autre régime spécial — en donne une interprétation plus souple. Il renvoie ainsi à l’arrêt dit Marzouk de 2003 dans lequel le service public est responsable, même en l’absence de faute, des conséquences dommageables pour les usagers de la défaillance des produits et appareils de santé qu’il utilise. Et qui peut, selon Mireille Bacache, s’étendre à l’IA, notamment parce qu’elle est plus favorable aux victimes. D’autant que « le patient ne connaît que son interlocuteur direct, à savoir le médecin, qui utilise le produit de santé défectueux, quitte à ce que ce dernier se retourne ensuite contre le fabricant« , a-t-elle justifié.
Et s’il n’utilise pas l’IA ?
Pour ce qui est de l’utilisation effective par les professionnels de santé des nouveaux outils incorporant une IA, elle rappelle qu’ils doivent tout mettre en œuvre et utiliser tous les moyens pour soigner les malades et obtenir sa guérison. Ainsi, quand le médecin décide de ne pas s’appuyer sur les résultats d’une IA à sa disposition, il peut ne pas répondre à une obligation de moyens et engager sa responsabilité civile. Toutefois, l’IA étant considérée comme un outil d’aide à la décision, les professionnels de santé qui s’en affranchissent ne devraient pas se voir imputer la faute. Toujours est-il, a insisté Mireille Bacache, que ces derniers sont invités à motiver dans les dossiers les raisons qui les ont poussés à ne pas suivre les résultats de l’IA ou à les suivre, dans le but de ne pas engager leur responsabilité pour faute le juge pouvant être tenté d’écarter la faute du médecin s’il s’est conformé à l’IA et inversement.
L’article 11 du projet de loi de bioéthique en question
Les intervenants au colloque ont mentionné à plusieurs reprises l’article 11 du projet de loi de bioéthique qui introduit une garantie humaine. Le professionnel de santé utilisant un traitement algorithmique de données devant en informer le patient. Pour autant, a indiqué Clémentine Lequillerier, le texte ne va pas de soi et soulève plus de questions qu’il n’en règle. Sur ce point, Mireille Bacache a estimé qu’il revient en dernier ressort au médecin de prendre une décision quant au diagnostic en dépit du recours à une IA. Par conséquent, « il n’y a pas besoin de cet article pour engager la responsabilité du médecin« . Pour Jacques Lucas, ancien membre du Conseil national de l’ordre des médecins, cette précision intervient surtout pour rassurer les usagers sur le fait qu’ils seront toujours pris en charge par des professionnels de santé et non des machines.
Tous droits réservés 2001/2024 — HOSPIMEDIA
Demandez votre démo