Cet article est adapté de « A Primer on Law, Risk and AI in Health Care », publié dans Healthcare and Life Sciences Law Committee Update (vol. 3, no 1, sept. 2018) et reproduit avec la permission de l’International Bar Association, Londres, R.-U. © International Bar Association.
Nous traversons présentement une ère d’innovation technologique sans précédent qui vient révolutionner le secteur de la santé. Aussi, on s’attend à ce que l’intelligence artificielle (IA) ait une grande incidence sur la façon d’obtenir des soins et d’être traité, peut-être encore plus importante que celle des dossiers médicaux électroniques ou des soins virtuels. De fait, elle a déjà permis de diagnostiquer des cancers, dans certaines conditions, de prévoir l’évolution de maladies chroniques et d’élaborer des plans de traitement.1 Alors que les possibilités offertes par l’IA ne cessent d’augmenter, il est important de tenir compte des risques médico-légaux liés à son utilisation, d’autant plus que nous travaillons toujours à en établir le cadre réglementaire.1
Qu’est-ce que l’intelligence artificielle?
De façon générale, l’IA peut être définie comme la capacité d’une machine ou d’un ordinateur à reproduire les facultés cognitives de l’intelligence humaine et à acquérir de nouvelles données.2 L’« apprentissage automatique » permet aux ordinateurs de gagner en expérience sans être programmés pour le faire. Parmi les applications courantes de l’apprentissage automatique, on trouve la reconnaissance des images et de la parole. Ces technologies s’adaptent et continuent d’apprendre et d’évoluer à mesure qu’elles reçoivent de nouveaux renseignements, y compris lorsqu’elles sont utilisées en situation réelle.2
Occasions et défis
On s’attend à ce que l’évolution rapide de l’IA améliore les soins de santé et transforme la façon dont ceux-ci sont prodigués.3 Cette technologie, conjointement avec d’autres outils, fait par exemple l’objet de recherches pour établir son potentiel d’accroître la précision diagnostique, d’améliorer la planification du traitement et de prévoir les résultats pour la santé.4 L’IA s’est avérée particulièrement prometteuse pour des applications cliniques dans les domaines reposant largement sur l’imagerie, dont la radiologie, la pathologie, l’ophtalmologie, la dermatologie et la chirurgie guidée par imagerie,3 ainsi qu’à des fins de santé publique beaucoup plus vastes, comme la surveillance des maladies.2 Certaines applications d’IA ont déjà été approuvées par Santé Canada et d’autres organismes de réglementation à l’échelle internationale.5
Malgré toute l’attention qui est accordée à l’IA, on ne dispose que de peu de données de qualité sur son efficacité et sur sa fiabilité.6 Parmi les autres défis que présente l’IA, notons l’incapacité à en expliquer les processus de raisonnement, ce que l’on appelle l’« effet boîte noire ».7 Certaines modalités de l’IA peuvent également être biaisées par l’ensemble de données qu’elles utilisent pour « apprendre ». Par exemple, un ensemble de données qui exclut fortuitement des personnes présentant des problèmes, caractéristiques ou antécédents particuliers pourrait ne pas être fiable pour ces segments de la population.7 L’intégration de l’IA à la médecine peut également susciter des préoccupations lorsque les médecins s’y fient trop (p. ex. s’en remettent systématiquement aux données issues de l’IA) ou pas assez (p. ex. ne tiennent pas compte de renseignements pertinents issus de l’IA).2
Les technologies d’IA évoluent à un rythme rapide, et l’augmentation de la capacité fonctionnelle et des utilisations possibles qui s’ensuivent expose les médecins à un risque médico-légal. Alors qu’on travaille toujours à l’élaboration d’un cadre réglementaire rigoureux pour assurer la sécurité des patients et la qualité des technologies d’IA, l’évaluation des risques en matière de responsabilité laisse de l’incertitude.1
Approche mesurée envers l’IA
Les conseils pratiques sur l’utilisation de l’IA en santé restent rares.1 Aussi, les médecins qui envisagent d’adopter l’IA dans leur pratique devraient continuer d’agir dans l’intérêt de leur patientèle.
Certains organismes de réglementation de la médecine (Collèges) et certaines associations ou fédérations professionnelles ont établi des lignes directrices intérimaires. Par exemple, le Collège des médecins et chirurgiens de la Colombie-Britannique suggère d’utiliser un système de notation pour évaluer la qualité des applications (ou applis) qui font appel à l’IA.8 Ce Collège propose l’utilisation de l’App Evaluation Model élaboré par l’American Psychiatric Association,9 soit une évaluation en cinq étapes du modèle d’affaires d’une appli : conflits d’intérêts publicitaires, protection des renseignements personnels et sécurité, base de données probantes éclairant l’algorithme, convivialité et interopérabilité.
Les Principes directeurs pour les médecins qui recommandent à leurs patients des applications mobiles sur la santé de l’Association médicale canadienne10 peuvent également constituer une ressource utile. La technologie fondée sur l’IA doit servir à améliorer les soins et à compléter la relation médecin-patient. Les médecins qui l’utilisent doivent garder à l’esprit leurs obligations légales et professionnelles, et discuter avec les patientes et patients de la pertinence du recours à cette technologie et des risques en matière d’atteinte à la vie privée qui lui sont associés. L’AMC suggère également de vérifier s’il existe des données probantes soutenant la sécurité et l’efficacité de l’application, et de déterminer si celle-ci est approuvée par une organisation professionnelle, est conviviale et assure un niveau élevé de sécurité.
Avant d’adopter une technologie fondée sur l’IA, il est utile de savoir si elle a reçu l’aval d’une organisation professionnelle ou de réglementation digne de confiance. Vous devriez demander conseil à vos collègues, aux associations et fédérations professionnelles, aux organismes de réglementation ou à la direction de votre établissement, s’il y a lieu, pour déterminer s’il convient d’avoir recours à ce type de technologie dans votre pratique clinique. Il est également important de tenir compte des modalités d’utilisation, de la fiabilité et de la protection des renseignements personnels, et de vous poser les questions suivantes :
- Des mesures appropriées sont-elles en place pour protéger les renseignements personnels au moment de leur collecte, de leur transfert et de leur utilisation?
- Les procédures appropriées ont-elles été suivies et un consentement a-t-il été obtenu si le concepteur de l’outil d’IA prévoit entreposer ou utiliser les données sur les patientes et patients pour l’adapter?
- Des mesures sont-elles en place pour maintenir des normes élevées en matière de sécurité des patients et de fiabilité, notamment si l’outil peut être adapté et évoluer en fonction des nouvelles données recueillies? Ces normes doivent être préservées pendant tout le cycle de vie de l’outil.
- Quel est l’objectif déclaré de la technologie d’IA, et l’utilisation de cette technologie est-elle appropriée dans le contexte de votre pratique? Il faut entre autres savoir quelles sont les populations de patientes et de patients visées ainsi que les conditions cliniques d’utilisation.
Comme les outils d’IA n’ont pas été spécifiquement conçus pour la prestation de soins de santé, ils exposent les médecins à de plus grands risques médico-légaux. Il est donc particulièrement important de prendre en considération les questions énumérées ci-dessus.
L’obtention d’une approbation auprès d’un organisme de réglementation peut limiter les risques associés à l’utilisation de l’IA en contribuant à en établir la sécurité, l’efficacité et la qualité. Au cours des dernières années, Santé Canada a entrepris de réglementer l’IA en homologuant les logiciels à titre d’instruments médicaux (LIM).11 Aussi, Santé Canada a adopté une approche fondée sur les risques pour que les logiciels destinés à surveiller, évaluer ou diagnostiquer une maladie et donc susceptibles de présenter un danger immédiat répondent à des exigences plus strictes en matière d’homologation et de surveillance. Ont également été annoncés des plans pour la mise en place d’exigences réglementaires plus souples et adaptées au produit spécifique, dont une surveillance post-commercialisation, pour que les LIM puissent évoluer et poursuivre leur apprentissage après leur homologation.12
Complément au jugement clinique
Avant d’utiliser une technologie fondée sur l’IA dans votre pratique médicale, il est important d’examiner les constatations, les recommandations ou les diagnostics suggérés par cet outil. La plupart des applications fondées sur l’IA sont conçues à titre d’aides cliniques pour soutenir au besoin d’autres données et outils cliniques pertinents et fiables. Les soins médicaux devraient refléter vos propres recommandations et se fonder sur des données objectives et un bon jugement médical.
En bref
- La technologie fondée sur l’IA a actuellement pour objectif de soutenir les soins cliniques. Les soins médicaux devraient refléter vos propres recommandations et se fonder sur des données objectives et un bon jugement médical.
- Évaluez d’un œil critique si les outils fondés sur l’IA sont adaptés à l’utilisation que vous comptez en faire et à la nature de votre pratique.
- Tenez compte des mesures en place pour assurer l’efficacité et la fiabilité constantes de l’outil d’IA.
- Ne perdez pas de vue vos obligations légales et professionnelles, notamment en ce qui concerne la confidentialité et la protection des renseignements personnels; vous devez savoir comment les données des patientes et patients seront transférées, conservées et utilisées, et si des mesures de protection raisonnables sont en place pour protéger ces données. Vous devez également prendre en considération les politiques ou les lignes directrices de votre Collège ou de l’établissement de santé qui s’appliquent.
- N’oubliez pas qu’il existe un risque de biais. Tentez de les éviter, lorsque cela est possible, en trouvant d’autres sources de renseignements et en consultant des collègues.
Références
- 1. Crolla D, Lapner M. A primer on law, risk and AI in healthcare. Healthcare and Life Sciences Law Committee Update. 2018 Sept;3(1).
Crolla D, Lapner M. A primer on law, risk and AI in healthcare. Healthcare and Life Sciences Law Committee Update. 2018 Sept;3(1).
- 2. L’Agence des médicaments et des technologies de la santé au Canada. Vue d’ensemble des applications cliniques de l’intelligence artificielle (nov. 2022).
- 3. Naylor D. On the Prospects for a (Deep) Learning Health Care System. JAMA. 2018;320(11):1099–1100. Voir aussi : Gouvernement du Canada, Standing Senate Committee on Social Affairs, Science and Technology. Challenge Ahead: Integrating Robotics, Artificial Intelligence and 3D Printing Technologies into Canada’s HealthcareSystems. [En anglais seulement.] Otc. 2017.
- 4. Macrae C. Governing the safety of artificial intelligence in healthcare. BMJ Qual Saf. 2019;28(6):495–498.
- 5. Santé Canada. Liste des instruments médicaux homologués en vigueur (MDALL). Voir également, par exemple : U.S. Food & Drug Administration. Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices.
- 6. Antoniou T., M. Muhammad. Evaluation of machine learning solutions in medicine. CMAJ September 13, 2021 193 (36) E1425-E1429.
- 7. Challen R, Denny J, Pitt M, et al. Artificial intelligence, bias and clinical safety. BMJ Qual Saf. 2019;28:231–237.
- 8. College of Physicians and Surgeons of British Columbia. Prescribing apps – the challenge of choice. College Connector. 2018 Nov/Dec;6(6).
- 9. American Psychiatric Association. App Evaluation Model. [Consulté en mai 2019].
- 10. Association médicale canadienne. Principes directeurs pour les médecins qui recommandent à leurs patients des applications mobiles sur la santé. Politique de l’AMC, 2015.
- 11. Santé Canada. Ligne directrice – Logiciels à titre d’instruments médicaux : Définition et classification.
- 12. Santé Canada. Réglementation des produits thérapeutiques de pointe (décembre 2022).