Janvier 2023: publication de l’avis commun 141/avis 4 CNPEN « Diagnostic Médical et Intelligence Artificielle : Enjeux Ethiques »
Cet avis fait suite à une saisine du Comité national pilote d’éthique du numérique (CNPEN) par le Premier ministre sur les enjeux d’éthique de l’utilisation de l’intelligence artificielle (IA) dans le champ du diagnostic médical, exprimée dans sa lettre de mission du 15 juillet 2019. Eu égard à la dimension transversale de cette thématique relevant tant de la bioéthique que de l’éthique du numérique, le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE) et le CNPEN ont conduit ensemble la réflexion ayant aboutie à cet avis commun.
Les technologies développées autour de l’IA concernent de nombreux domaines d’application (médecine, transports, cybersécurité, commerce, industrie, etc.) et leur irruption dans nos usages quotidiens s’accélère à un rythme soutenu. Ce contexte encourage de nombreux États et institutions à considérer les enjeux d’éthiques qui accompagnent cette transformation.
Le secteur de la santé et de la médecine apparaît particulièrement concerné par le développement de systèmes d’intelligence artificielle. Leur application au champ médical induit une transformation de la relation entre médecins et patients et ouvre de nombreuses questions sur l’avenir des systèmes de santé. Conformément à la saisine ministérielle, cet avis se concentre sur les enjeux d’éthique des systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM) visant l’amélioration des performances techniques des praticiens.
Le CCNE et le CNPEN ont construit leur réflexion en déterminant, dans un premier temps, ce à quoi l’utilisation de systèmes d’intelligence artificielle appliqués au diagnostic médical fait référence en dégageant les principaux soubassements de l’application de ces nouvelles techniques (partie 1) et leur portée opérationnelle (partie 2). L’avis questionne ensuite le processus de régulation des SIADM et ses caractéristiques actuelles (partie 3). Enfin, une analyse des impacts des SIADM sur la démarche diagnostique décrit les questions en cours et les évolutions qu’elles impliquent (partie 4).
Au fil des seize recommandations et des sept points de vigilance identifiés par le CCNE et le CNPEN, plusieurs axes de tensions éthiques apparaissent. Il nous a d’abord paru important de dresser un panorama de ce que les SIADM sont effectivement capables de faire aujourd’hui. Les promesses sont nombreuses, et on peine parfois à les distinguer des faits. Cette distinction nous a semblé être une première tâche d’éthique. Ensuite, nous rappelons que les SIADM produisent des résultats basés d’une part sur des approches probabilistes et d’autre part qu’ils peuvent être entachés d’erreurs. Nous insistons sur le fait que les équipes soignantes et les patients ne doivent pas se priver des avantages apportés pas ces outils, tout en se donnant constamment les moyens de prendre de la distance avec le résultat fourni. Nous présentons les principales ressources qui permettent cette prise de recul. Tout SIADM doit être soumis à un contrôle humain. Ses résultats doivent être explicables. Le contrôle de conformité du SIADM, qui assure qu’il n’est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré, et surtout doit à l’avenir être accompagné d’une évaluation de son efficacité clinique montrant non seulement son absence de nocivité mais aussi qu’il contribue efficacement au principe de bienfaisance.
Les systèmes d’intelligence artificielle appliqués au diagnostic médical doivent donc toujours être utilisés en priorité dans une optique d’amélioration du soin, avant les intérêts organisationnels, économiques, ou managériaux.