L’intelligence artificielle s’installe dans la pratique médicale, notamment en radiologie, où elle peut proposer des diagnostics, classer des images ou orienter la prise en charge. Mais son utilisation soulève une question centrale : qui est responsable en cas d’erreur ?
La réponse juridique est claire : « L’IA peut t’aider, mais juridiquement, tu resteras le décideur et tu dois pouvoir le démontrer. »
Une responsabilité fondée sur la faute
En droit français, la responsabilité du médecin repose sur la notion de faute. Le Code de la santé publique prévoit que les professionnels de santé ne sont responsables qu’en cas de manquement à leurs obligations.
« La vraie question n’est pas de savoir s’il y a une IA ou non, mais si le médecin a agi conformément à ses obligations professionnelles et s’il peut le prouver. »
Autrement dit, ce n’est pas l’usage de l’outil qui sera jugé, mais la manière dont il est utilisé. En cas d’erreur, les juridictions analyseront notamment un éventuel défaut de vigilance, une absence de vérification ou un manque de traçabilité.
« Ce qui est reproché, ce n’est pas d’avoir utilisé un outil, c’est d’avoir cessé de raisonner. »
Impossible de déléguer son jugement clinique
L’IA peut intervenir comme un tiers technique, mais elle ne remplace pas le raisonnement médical.
« Il y a peut-être un tiers compétent, mais tu ne peux pas déléguer ton jugement médical. »
Le médecin doit donc confronter les propositions de l’IA aux données acquises de la science et à la situation clinique du patient. L’outil reste une aide, jamais un décideur.
Dispositif médical, traçabilité et preuve
L’un des premiers réflexes à avoir concerne la nature de l’outil utilisé. Est-il considéré comme un dispositif médical ? Est-il marqué CE ?
« Ça change tout, parce que ça permet d’avoir des garanties sur la sécurité d’utilisation. »
Autre point clé : la traçabilité. Chaque utilisation de l’IA doit être documentée dans le dossier médical.
« Ce qui n’est pas noté n’est pas fait. J’ai utilisé l’outil X, j’en déduis Y et je prends la décision Z en fonction d’éléments cliniques. »
En cas de contentieux, cette traçabilité devient un élément central de défense.
Information du patient et RGPD
L’utilisation de l’IA doit également être intégrée à l’information délivrée au patient, notamment si elle influence la décision médicale.
« Tu dois pouvoir expliquer que c’est un outil d’aide, ses limites, et que c’est toi qui arbitres. »
Sur le plan des données, la vigilance est maximale. Les données de santé sont strictement encadrées par le RGPD.
« Tu ne dois jamais injecter des données identifiantes dans une IA dont tu ne maîtrises pas le cadre, la sécurité ou la réutilisation. »
Responsabilité partagée, mais pas transférée
Le fabricant de l’outil peut voir sa responsabilité engagée en cas de produit défectueux. Mais cela ne décharge pas le médecin.
« Ton risque reste la faute clinique. Si tu es en pilotage automatique, sans vérification ni preuve, ta responsabilité peut être engagée. »
Avant d’intégrer une IA dans sa pratique, il est recommandé de se rapprocher de son assureur et de s’assurer de la conformité juridique de l’outil.
« L’IA conseille, le médecin décide, et ça se documente dans le dossier. »