Utilisation de l’intelligence artificielle (IA) par les médecins au Canada : l’angle médico-légal

Article de fond

Un enchevêtrement de fibres optiques vertes lumineuses

Publié : septembre 2024

Table des matières


Objectif du présent document :

L’intelligence artificielle (IA) a le potentiel d’aider les médecins à réaliser un large éventail de tâches cliniques, notamment en allégeant leur fardeau administratif et en améliorant la sécurité des personnes qui les consultent. Cependant, on dispose encore de peu de données probantes relatives à ses applications cliniques et l’ampleur, la portée et la rapidité de l’innovation en matière d’IA mettent les gouvernements, les organismes de réglementation et les tribunaux au défi de suivre le rythme. Dans ce contexte, l’adoption de l’IA comporte un certain nombre d’enjeux médico-légaux.

Afin de promouvoir l’adoption prudente de l’IA, le présent document vise à clarifier certaines caractéristiques propres à cette technologie, à susciter des réflexions ciblées sur des outils particuliers dans le cadre d’une approche fondée sur les risques et à définir le cadre réglementaire actuel ainsi que les lacunes qu’il présente. Il propose également une structure de responsabilités ainsi qu’un appel à l’action des principales parties prenantes, dans le but de favoriser une utilisation responsable de l’IA dans ce paradigme en constante évolution.

Introduction

La montée en flèche de l’IA aura, à n’en pas douter, des répercussions notables sur la prestation de soins et la pratique de la médecine. L’évolution et l’adoption rapides de ces technologies peuvent représenter une source de risques médico-légaux importants, compte tenu de la multiplication des fonctionnalités techniques et de la diversité des applications de l’IA en santé. Le rythme auquel cette technologie se développe nécessite que l’on débatte des étapes qui suivront afin de combler les principales lacunes du cadre réglementaire et de faciliter une adoption adéquate de l’IA.

En raison des répercussions possibles de l’IA sur la pratique de la médecine et la prestation de soins, le Collège des médecins et chirurgiens de l’Alberta (CPSA) et l’Association canadienne de protection médicale (ACPM) ont coprésidé en novembre 2023 un symposium intitulé : « Innovation, Safety, and Artificial Intelligence (AI): Developing regulatory & medico-legal approaches to AI in Canadian healthcare ». Cet événement a rassemblé des spécialistes de la santé et d’autres domaines de partout au pays pour discuter des occasions à saisir et des défis à relever en ce qui a trait à l’IA. L’objectif était de déterminer comment le cadre réglementaire et les approches médico-légales du Canada peuvent favoriser le déploiement responsable et sécuritaire de l’IA en santé sans créer d’obstacles inutiles.

Ce symposium ne représente que l’une des nombreuses pistes de réflexion et sources d’information que l’ACPM a explorées pour mieux comprendre l’IA et ses répercussions sur le travail des médecins.

Le présent document fait état du contexte médico-légal à une période donnée (mi-2024), où la technologie d’IA, ses utilisations et les soins de santé sont en pleine évolution. Il aborde les enjeux suivants dans le but de faire progresser le débat :

  • Démystifier l’IA : Le terme « IA » désigne un large éventail de technologies et d’applications. L’essor actuel qu’elles connaissent ne permet pas de mener des discussions pratiques sur leur adoption, leur mise en œuvre et la gestion des risques qu’elles posent. L’évaluation d’applications particulières et l’adoption d’une approche fondée sur les risques permettront de définir des moyens pratiques d’adopter l’IA de façon prudente.
  • Responsabilités des parties prenantes : Le rythme auquel le changement se produit n’est pas sans défis pour les organismes de réglementation, les développeurs et les prestataires de soins, ce qui engendre des risques sur le plan médico-légal. Les rôles et les responsabilités de chacun sont mal définis. Ce document décrit le cadre réglementaire actuel, souligne les zones grises et appelle à une action concertée afin de susciter le débat sur les étapes qui suivront.

Démystifier l’IA

L’IA englobe une multitude de technologies aux applications diverses. L’une des principales conclusions du symposium du CPSA et de l’ACPM a été que les définitions générales, telles que « [Traduction] la capacité d’une machine à exécuter des fonctions cognitives que nous associons habituellement à l’esprit humain »,1 ne sont d’aucune utilité. Ces définitions se focalisent sur la manière dont l’IA pourrait se substituer à la cognition humaine. Elles ne permettent pas de faire la distinction entre l’IA et les autres systèmes informatiques, et peuvent constituer un obstacle à la compréhension des risques qu’elle pose à court et à moyen terme.

L’analyse de l’ACPM indique que chaque outil d’IA présente un profil de risque qui lui est propre. Pour être en mesure d’établir la responsabilité de chacun, il est important de ne pas considérer toutes les applications d’IA de manière globale, mais plutôt de se concentrer sur la manière dont chaque outil est utilisé.2

La littérature scientifique ainsi que le droit et la réglementation à l’échelle internationale et nationale donnent diverses définitions de l’IA. Une autre façon d’aborder ces technologies est de comprendre qu’elles présentent généralement les caractéristiques suivantes :

  • Les données sont recueillies sous forme d’entrées (input).
  • La technologie doit atteindre des objectifs bien précis.
  • La technologie bénéficie d’un certain degré d’autonomie pour atteindre chaque objectif.
  • Les résultats produits (output) se présentent sous forme d’information, que ce soit une commande pour déplacer un bras robotique vers le haut ou vers le bas, du contenu ou une solution à un problème.3

Caractéristiques de l’IA

Il est important de comprendre les caractéristiques uniques de cette technologie qui se distingue des autres systèmes informatiques pour en favoriser l’adoption sécuritaire.

1. Les données sont essentielles à l’IA.

L’apprentissage et le fonctionnement de l’IA s’appuient sur de vastes jeux de données. Les systèmes d’IA recueillent des données sous forme d’entrées (input), les traitent et produisent ensuite d’autres données sous forme de résultats (output). Dans un contexte clinique, il peut s’agir d’un diagnostic potentiel, du résumé d’une rencontre avec une patiente ou un patient ou d’une recommandation de traitement.

L’IA générative permet de créer du contenu entièrement nouveau (output) à partir d’entrées (input), contrairement aux logiciels traditionnels qui produisent des résultats à partir de données préexistantes. Bien que l’IA générative soit quant à elle une percée technologique historique, d’autres applications d’IA, comme la modélisation prédictive, ont aussi une valeur substantielle.

À retenir :

Protection des renseignements personnels et cybersécurité : L’utilisation et le traitement des données soulèvent des questions du point de vue de la protection des renseignements personnels et de la cybersécurité, notamment en ce qui concerne l’accès, les autorisations de traitement et la conservation des données, ainsi que les mesures de sécurité connexes.

2. L’IA est capable d’« apprendre ».

L’apprentissage automatique, une fonction essentielle de l’IA la plus récente, fait intervenir des algorithmes qui apprennent à partir de données pour reconnaître et saisir des schémas complexes, hiérarchisés et non linéaires. L’IA apprend à partir de ces données. Cette capacité lui permet de s’adapter et de s’améliorer en fonction de nouvelles informations. Dans les systèmes d’IA, les modules d’apprentissage automatique fonctionnent souvent de manière dynamique, ce qui permet un apprentissage et une évolution en continu dans le monde réel. Ainsi, deux modèles ayant le même code et les mêmes algorithmes produiront des résultats (output) différents si leurs données d’apprentissage sont différentes.

Les grands modèles de langage (GML) constituent une avancée récente de l’IA générative, qui excelle dans l’exécution de tâches liées au langage : comprendre des contextes, répondre à des questions, résumer des textes et produire du contenu. Les GML gèrent maintenant une multitude d’entrées (input) autres que le texte, comme l’audio, la vidéo et les fichiers de données.

À retenir :

Évolution des modèles : Comme les modèles d’IA apprennent à partir de nouvelles données, ils évolueront au fil du temps, ce qui permettra d’accroître leur précision et leur fiabilité. Inversement, les modèles peuvent « dériver », c’est-à-dire devenir moins précis et moins fiables, si les données à partir desquelles ils ont appris sont d’une qualité ou d’une représentativité moindre. Il est donc essentiel de faire une surveillance et une mise à jour en continu des modèles d’IA afin de garantir leur fiabilité et leur pertinence.

3. L’IA est complexe et opaque.

Les technologies d’IA produisent souvent des résultats (output) peu compréhensibles pour les personnes qui les consultent ou les utilisent. Cela s’explique notamment par le fait que certains des principaux algorithmes sous-jacents, appelés « réseaux neuronaux », détectent dans les données des schémas qui sont difficiles à expliquer. L’IA générative peut également produire des résultats (output) fabriqués de toutes pièces, connus sous le nom d’« hallucinations », et présenter cette fausse information de manière crédible.

Les outils et méthodes d’évaluation de la précision et de la fiabilité de l’IA ne sont pas encore au point345 et la complexité des résultats (output) produits par l’IA ne leur facilite pas la tâche. Par exemple, même si les résultats binaires (p. ex. vrai ou faux) sont assortis de paramètres de précision établis, tels que des coefficients de faux positifs ou de faux négatifs, le raisonnement qui sous-tend un résultat particulier n’est pas toujours clair. Ainsi, il peut être encore plus difficile d’évaluer des résultats complexes comme les notes médicales générées par l’IA, car il n’existe pas forcément de bonne approche ou de bonne réponse unique.

À retenir :

Explicabilité : L’effet « boîte noire » de l’IA constitue un autre défi, car les processus de raisonnement de l’algorithme sont obscurs. Cette opacité complique la validation des résultats et l’évaluation de la fiabilité et de la stabilité de l’algorithme.

Recours aux applications d’IA en santé

Les systèmes d’IA peuvent être déployés pour atteindre un certain nombre d’objectifs dans une multitude de contextes. L’examen de ces différentes utilisations permet de mieux comprendre les risques, les limites et les avantages propres à ces technologies, ainsi que les étapes nécessaires à l’évaluation et à l’atténuation des préjudices potentiels qui découlent de chaque utilisation.


Catégorie Exemples
Applications cliniques et médicales6

Analyse d’imagerie médicale
Chirurgie guidée par imagerie
Médecine personnalisée

Utilisations administratives et opérationnelles

Soutien administratif d’un établissement de santé
Synthèse, résumé ou création de dossiers médicaux
Soutien à l’affectation des ressources et à l’établissement des priorités

Utilisations par la patientèle et le public Maintien ou promotion d’un mode de vie sain, par exemple au moyen d’applications de bien-être général6
Transfert de connaissances, production de connaissances, recherche et développement

Information ou formation destinée aux médecins
Recherche en santé ou développement de médicaments
Gestion des connaissances

Santé publique Santé publique et surveillance de la santé publique (promotion de la santé, prévention des maladies, surveillance et préparation aux situations d’urgence, réaction aux épidémies, etc.)

Pour toute application médicale particulière des technologies d’IA, les risques médico-légaux peuvent être modulés en fonction des répercussions potentielles de l’outil sur la sécurité des personnes traitées et de son degré d’autonomie et de prise de décisions. De façon générale, il faut s’attendre à un risque plus élevé lorsque l’on travaille avec des outils qui entraînent des répercussions plus importantes sur la sécurité des personnes traitées ou qui fonctionnent de manière plus autonome.



Autonomie faible Autonomie élevée
Répercussions élevées sur la patientèle

RISQUE MODÉRÉ

  • Triage automatisé dans les services d’urgence
  • Surveillance automatisée des personnes traitées
  • Tri de résultats d’examen afin de déterminer les dossiers qui doivent faire l’objet d’un examen clinique

RISQUE ÉLEVÉ

  • Analyse automatisée d’images médicales
  • Robots conversationnels en santé mentale
  • Chirurgie assistée par robot
Répercussions faibles sur la patientèle

RISQUE FAIBLE

  • Communication et flux de travail cliniques, y compris l’inscription des patientes et patients, la prise de rendez-vous, les appels vocaux et les appels vidéo
  • Documents informatifs générés automatiquement à l’intention des patientes et patients
  • Applications de bien-être général à l’intention de la patientèle et du public
  • Gestion des connaissances et découverte de littérature scientifique
  • Documentation clinique générée automatiquement, y compris la transcription

RISQUE MODÉRÉ

  • Recommandations à d’autres personnes exerçant une profession de la santé
  • DME améliorés par l’IA, y compris le résumé et la recherche

Les médecins et les parties prenantes peuvent prendre des mesures pour atténuer les risques potentiels, notamment :

  • Réduire le degré d’autonomie des applications d’IA et établir des processus de prise de décisions supervisés par quelqu’un à une ou plusieurs étapes du parcours de soins
  • Exiger une surveillance ou une approbation réglementaire accrue pour les systèmes à risque élevé qui risquent davantage d’entraîner des répercussions sur la prestation de soins
  • Demander l’information nécessaire et une plus grande transparence de la part des développeurs ou des fournisseurs d’outils d’IA à risque élevé en ce qui concerne le rendement, les limites et les risques que chacun pose, ainsi que les mesures d’atténuation requises
  • Élaborer des lignes directrices ou des politiques relatives à l’utilisation d’outils d’IA appartenant à des catégories précises dans des contextes de soins particuliers

Dans l’ensemble, les médecins et autres prestataires de soins devront peut-être reconnaître que, dans le contexte actuel, les outils d’IA sont destinés à soutenir et non à remplacer le jugement clinique. Les mesures d’atténuation requises pour faire face au risque de préjudice varieront en fonction de chaque utilisation.

Risques et préjudices potentiels

Le fait de connaître les caractéristiques de l’IA et la diversité de ses applications permet de mieux déterminer et évaluer les mesures nécessaires à son adoption prudente. Cette connaissance met également en lumière les changements qui doivent être apportés aux soins de santé et les risques médico-légaux qui y sont associés, notamment en ce qui concerne la responsabilité civile, la protection des renseignements personnels et les droits de la personne.

Responsabilité civile

L’évolution constante du cadre réglementaire et la multiplicité des applications d’IA ne feront sans doute que compliquer l’attribution de la responsabilité en cas de préjudice à une patiente ou un patient, surtout en raison de la nature dynamique de ces technologies et de l’incohérence qui règne en matière d’adoption, d’orientation et de pratiques. Des actions en justice pourraient être intentées pour divers motifs : utilisation inappropriée de la part de personnes exerçant une profession de la santé, failles dans les algorithmes ou sélection et tenue à jour inadéquates des outils.

Quant aux réclamations portant sur l’utilisation de logiciels (autres que l’IA), elles peuvent donner un aperçu de la mesure dans laquelle les médecins envisageront le recours à cette technologie. À la lumière des principes de responsabilité auxquels sont actuellement assujettis les médecins, ces réclamations indiquent que les prestataires de soins qui l’utiliseraient pourraient avoir à se défendre dans des dossiers d’un tout nouvel ordre.

Il faut donc s’interroger sur l’étendue des obligations qui incomberaient aux prestataires de soins et aux établissements dans ce contexte. Par exemple, les personnes qui exercent une profession de la santé devraient-elles faire elles-mêmes l’évaluation critique des technologies d’IA qu’elles utilisent? Les questions de ce type ne font que confirmer la nécessité d’une supervision réglementaire soutenue.

Protection des renseignements personnels et des données

Les règles et les normes actuelles en matière de protection des renseignements personnels soulèvent des questions sur les technologies d’IA, dans un contexte où la législation tente de trouver un équilibre entre innovation, transparence et développement responsable.

Dans le secteur de la santé, outre les exigences en matière de vie privée applicables aux renseignements personnels, d’autres enjeux particuliers pourraient se poser. Parmi ceux-ci, citons l’autorisation d’utiliser les jeux de données nécessaires à l’apprentissage des modèles, la collecte et l’utilisation de nouvelles données pour les mettre à jour ou les affiner, l’utilisation des renseignements relatifs aux personnes traitées lors de l’interaction avec l’IA et les exigences en matière de consentement, de dépersonnalisation ou d’anonymisation des données. La législation sur la protection des renseignements personnels multiplie les obligations imposées en matière de transparence, dans les cas où l’IA prend ou recommande une décision particulière et que la personne concernée demande que celle-ci soit révisée.

Il est important également pour les médecins et les prestataires de soins de savoir si l’apprentissage du modèle a été fait à l’aide de données fournies par des médecins ou des personnes traitées. Par exemple, un outil de transcription numérique est capable de mettre à jour son modèle à partir des interactions thérapeutiques qu’il enregistre au fil du temps. En l’absence d’un consentement adéquat, cela pourrait poser des risques pour les médecins en matière de protection des renseignements personnels.

Droits de la personne

L’IA peut également entraîner des risques liés à la responsabilité professionnelle et de la confusion dans d’autres domaines du droit. Par exemple, son développement et son utilisation posent un risque juridique en ce qui concerne les droits de la personne (notamment en matière d’égalité, d’équité et de non-discrimination). Les biais ont de multiples sources. Les jeux de données ayant servi à l’apprentissage du modèle peuvent présenter des lacunes importantes, être biaisés ou contenir de l’information fausse ou désuète. Le processus de conception peut lui aussi être biaisé (p. ex. si l’équipe de conception a négligé de tenir compte d’enjeux propres à un groupe particulier). Enfin, la manière dont l’IA est déployée, mise en œuvre, exploitée et tenue à jour peut également comporter des biais.3

Si les données ayant servi à l’apprentissage des systèmes d’IA sont elles-mêmes biaisées et produisent des résultats biaisés, cela pourrait donner lieu à des préjudices d’un tout nouvel ordre. Souvenons-nous des robots conversationnels et des GML populaires qui perpétuaient des croyances racistes et médicales infondées.78 De plus, les résultats produits par un système, en particulier d’IA générative, risquent de diffuser de l’information délibérément préjudiciable, fausse, trompeuse ou de piètre qualité.9 Si l’on découvrait que les prestataires de soins utilisent des outils qui recommandent des pratiques discriminatoires, que ce soit involontaire ou non, leur utilisation pourrait constituer la base d’une plainte en droits de la personne.

Il ne fait aucun doute que les modèles d’IA présentent tous une forme ou une autre de biais.10 Pour les atténuer, il est essentiel de reconnaître qu’ils peuvent et qu’ils vont exister, même en l’absence d’intention préjudiciable ou de discrimination. Les biais ne sont pas le propre de la prise de décision clinique, puisqu’ils sont bien présents dans la prise de décision humaine également. Il est important que quiconque conçoit, développe et utilise ces outils ait conscience de leur existence et prenne les mesures appropriées pour atténuer le risque de préjudice.

Propriété intellectuelle

Des incertitudes subsistent de même en ce qui concerne les systèmes d’IA et la propriété intellectuelle (PI). Les produits d’IA générative, en particulier, soulèvent de nouvelles préoccupations, dans la mesure où l’apprentissage des modèles requiert de vastes jeux de données. Ceux-ci pourraient avoir été récupérés sur des sites web ou des médias sociaux, et risqueraient alors de reprendre du matériel protégé par un droit d’auteur dans leurs réponses, exposant ainsi les personnes concernées à des plaintes pour violation du droit d’auteur, si l’utilisation ou la reproduction de ce matériel a été faite sans autorisation.11

Responsabilités des parties prenantes

L’intégration de l’IA en santé soulève des incertitudes en matière de supervision réglementaire et de responsabilité. À l’heure actuelle, les prestataires de soins disposent de peu de directives sur l’évaluation ou l’atténuation des risques associés à ces outils. S’il revient aux médecins de prodiguer des soins conformément à leurs obligations professionnelles, des efforts coordonnés de la part d’autres parties prenantes sont indispensables pour inspirer la confiance et favoriser une adoption prudente de l’IA.

Lacunes et fragmentation réglementaires

En dépit des avancées importantes réalisées ces dernières années, la mise en place d’un cadre réglementaire uniforme pour l’IA demeure inachevée. Et la situation n’est pas unique au Canada. Chez nos voisins du sud, la Federation of State Medical Boards indiquait récemment que : « [Traduction] le cadre réglementaire pour l’IA… est complexe et encore largement à développer, tant aux États-Unis qu’à l’échelle mondiale. »12

Chez nous, le gouvernement canadien a déposé le projet de loi C-27, intitulé Loi de 2022 sur la mise en œuvre de la Charte du numérique, qui établirait un cadre réglementaire distinct pour l’IA (la Loi sur l’intelligence artificielle et les données ou LIAD). Cette dernière propose un nouveau cadre réglementaire pour ce type de systèmes, qui obligerait les personnes responsables de « systèmes d’IA à incidence élevée » à évaluer et à atténuer les risques de préjudice et de biais. Bien que de nombreux aspects restent encore à définir par les organismes de réglementation, les exigences sont susceptibles de s’appliquer au secteur des soins de santé, notamment en ce qui concerne l’utilisation des renseignements personnels sur la santé, la nécessité d’évaluer les facteurs relatifs à l’IA, l’atténuation des risques, la transparence, les normes de formation et de validation, la surveillance en continu, la gestion des risques, la gouvernance des données, la documentation, la supervision humaine, l’exactitude, la robustesse et la cybersécurité.

De leur côté, les gouvernements provinciaux travaillent eux aussi à modifier leur législation pour y intégrer l’IA. Le Québec a adopté la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (projet de loi 64), qui oblige les organisations à informer autrui de toute décision rendue au moyen de l’IA et, à la demande de la personne concernée, des renseignements personnels utilisés pour rendre la décision et des facteurs y ayant mené. La législation accorde également à la personne concernée le droit de faire réviser par un être humain une décision fondée exclusivement sur un traitement automatisé.

Santé Canada a élargi son pouvoir d’homologation des logiciels à titre d’instruments médicaux (LIM).6 L’organisme a ainsi adopté une approche fondée sur les risques pour que les logiciels destinés à surveiller, évaluer ou diagnostiquer une maladie et donc susceptibles de présenter un danger immédiat répondent à des exigences plus strictes en matière d’homologation et de surveillance. Bien que les instruments utilisant l’apprentissage adaptatif ou continu n’aient pas encore été approuvés, Santé Canada a publié un projet de directive visant à les réglementer. Toutefois, les logiciels conçus aux fins de soutien administratif ne sont pas assujettis à ce Règlement. Sont exclus de la même façon les logiciels qui ne sont pas destinés à analyser une image médicale provenant d’instruments de diagnostic in vitro, conçus pour afficher, analyser ou imprimer des renseignements médicaux, conçus uniquement pour aider une personne exerçant une profession médicale à prendre des décisions en matière de prévention, de diagnostic ou de traitement, ou encore visant à remplacer le jugement clinique.

Constatant l’utilisation et l’accessibilité croissantes des outils d’IA, les Collèges et associations professionnelles du Canada ont entrepris la publication de directives préliminaires générales sur leur utilisation. Si bon nombre de ces lignes directrices servent à étoffer les obligations professionnelles existantes en mettant l’accent sur la responsabilité, la transparence et le consentement, certains organismes de réglementation suggèrent également que les prestataires de soins aient l’obligation de valider les outils d’IA avant d’y recourir.

La manière dont ces obligations seront appliquées reste à voir, mais il est important que tout cadre réglementaire portant sur l’IA établisse des responsabilités proportionnelles à l’influence qu’exerce chaque rôle sur les risques associés à son développement et son utilisation.13

Afin de clarifier le rôle des principales parties prenantes et d’encourager les initiatives de collaboration visant à intégrer l’IA de manière responsable, une proposition de structure de responsabilités et d’obligations de rendre des comptes est présentée ci-dessous.

1. Développeurs et fournisseurs

  • Développement éthique : veiller à ce que les systèmes d’IA soient conçus dans le respect de l’éthique, de l’équité, de la transparence et de l’inclusion.
  • Conformité réglementaire : développer des systèmes d’IA conformes à la réglementation et aux normes en vigueur dans le secteur des soins de santé, y compris celles relatives à la sécurité, à la protection des renseignements personnels et à l’atténuation des préjudices et des biais.
  • Validation et mise à l’essai : procéder à des essais rigoureux et à la validation des systèmes d’IA pour s’assurer qu’ils sont sécuritaires, fiables et efficaces, et les mettre à l’essai de façon à atténuer les biais.
  • Production de rapports et transparence : rendre compte ouvertement et clairement du rendement et de la sécurité des systèmes d’IA aux organismes de réglementation et aux prestataires de soins, y compris par rapport aux sous-groupes de population.
  • Surveillance en continu : surveiller les systèmes d’IA après leur déploiement afin de résoudre les problèmes et d’en maintenir ou d’en améliorer le rendement.
  • Protection des renseignements personnels et cybersécurité : mettre en œuvre des mesures robustes de protection des données afin de protéger les renseignements sur les personnes traitées contre les atteintes à la vie privée et les utilisations malveillantes.
  • Documentation et formation claires et nécessaires : fournir une documentation complète et accessible sur tous les éléments ci-dessus ainsi qu’une formation à la clientèle afin de garantir une utilisation appropriée des systèmes d’IA.

2. Organismes de réglementation et de législation en matière d’IA en santé

  • Octroi de licences et approbation : octroyer des licences ou imposer des exigences aux systèmes d’IA avant leur entrée sur le marché, en veillant à ce qu’ils respectent les normes de sécurité, d’efficacité, d’atténuation des biais, de protection des renseignements personnels et de cybersécurité.
  • Surveillance ultérieure à la mise en marché : établir des exigences en matière de surveillance continue et faire respecter ces exigences après la mise en marché afin que la conformité soit assurée en permanence.
  • Lignes directrices et normes : élaborer et mettre à jour des lignes directrices et des normes pratiques et concrètes pour le développement, l’approbation et l’utilisation de catégories particulières de systèmes d’IA.
  • Reddition de compte : rendre compte au gouvernement et au public de l’état et du rendement des systèmes d’IA, des difficultés relatives à leur développement et leur mise en œuvre, ainsi que des recommandations pour résoudre ces problèmes.
  • Supervision et coordination : superviser l’intégration et la réglementation des technologies d’IA dans l’ensemble du système de soins de santé et se coordonner avec d’autres organismes de réglementation pour garantir une réglementation concertée de ces technologies.
  • Élaboration de politiques : élaborer des politiques et des structures pour une utilisation éthique et responsable de l’IA.
  • Mobilisation du public : mobiliser le public afin de connaître ses préoccupations et de recueillir ses commentaires sur les technologies d’IA en santé, et organiser des consultations publiques et des forums portant sur les enjeux, les politiques et l’évolution de celles-ci.

3. Prestataires de soins

  • Prise de décisions éclairées : utiliser les systèmes d’IA de manière à améliorer la prise de décisions clinique tout en préservant le jugement professionnel.
  • Formation et éducation : participer à la formation et aux activités éducatives nécessaires à l’utilisation des outils d’IA.
  • Intégration : intégrer les outils d’IA de manière sécuritaire et adéquate dans le flux de travail clinique.
  • Sécurité des personnes traitées : donner la priorité à l’intérêt supérieur des personnes traitées et signaler les incidents liés à leur sécurité aux personnes traitées, aux développeurs et aux autorités de réglementation, selon les besoins et les exigences, tout en respectant la confidentialité.
  • Utilisation éthique : utiliser les systèmes d’IA de manière éthique et transparente, en respectant l’autonomie, la vie privée et le consentement des personnes traitées.
  • Conformité : se conformer aux exigences réglementaires pertinentes et applicables ainsi qu’aux normes du Collège.
  • Gestion des dossiers : consigner avec précision l’utilisation de l’IA et les résultats obtenus, en communiquant les données aux organismes de réglementation et aux développeurs, selon les besoins et les exigences.
  • Rétroaction : fournir aux développeurs une rétroaction pertinente sur le rendement des systèmes d’IA et les problèmes observés.

4. Gestionnaires du milieu de la santé

  • Imputabilité relative à la mise en œuvre responsable et éthique de l’IA : définir et publier les mesures prises pour garantir que les systèmes acquis et mis en œuvre sont transparents, équitables, fiables et sécuritaires.
  • Mise en œuvre stratégique et sécuritaire : superviser l’intégration des systèmes d’IA dans les processus de soins de santé, en tenant compte des avantages de cette technologie, tout en gérant les risques qui y sont associés et en garantissant son caractère sécuritaire.
  • Allocation de ressources : allouer des ressources suffisantes pour le déploiement, la tenue à jour, la surveillance et l’amélioration des systèmes d’IA, ainsi que pour un soutien technique adéquat en période de déploiement.
  • Formation : fournir de la formation continue sur l’utilisation appropriée des systèmes d’IA aux prestataires de soins et au personnel.
  • Gestion des risques : mettre en œuvre des stratégies de gestion des risques pour remédier aux risques de préjudice ou de biais potentiels en lien avec les systèmes d’IA tout au long de leur cycle de vie.
  • Culture de sécurité : promouvoir une culture d’apprentissage et d’amélioration continus en ce qui concerne les technologies d’IA.

5. Associations et fédérations médicales, et associations de spécialités médicales

  • Lignes directrices et pratiques exemplaires : élaborer et diffuser des lignes directrices et des pratiques exemplaires pour l’utilisation de l’IA dans des domaines médicaux particuliers.
  • Éducation et promotion : fournir et mettre à jour des ressources ciblées en matière d’éducation et de formation sur les technologies d’IA et plaider en faveur de leur utilisation responsable.
  • Recherche et collaboration : appuyer la recherche sur les répercussions et la validation des outils d’IA en santé et collaborer avec d’autres parties prenantes pour en améliorer l’intégration.
  • Surveillance : surveiller l’adoption et les répercussions de l’IA dans leur domaine de spécialité et fournir de la rétroaction aux organismes de réglementation et aux développeurs.

Appel à l’action

Considérant le manque de clarté sur les responsabilités, les facteurs de complexité inhérents aux systèmes d’IA, les risques connus et inconnus, les avantages et les occasions à saisir, ainsi que le fait que les mesures prises dès maintenant permettront de réduire ces risques tout en multipliant les avantages potentiels, l’ACPM appelle les parties prenantes à :

Éviter la fragmentation : élaborer et adopter des lignes directrices et des normes pratiques et concrètes pour l’utilisation de catégories particulières d’outils d’IA. Ces normes devraient porter sur la sécurité, l’efficacité, la protection des renseignements personnels, les biais et la gestion des risques. Elles devraient être appliquées à l’échelle des provinces et territoires, des régions et des établissements, car la fragmentation augmente les coûts, dissuade les développeurs de mettre en œuvre des solutions et nuit à l’uniformité et à la tenue à jour de celles-ci. Étant donné la capacité d’apprentissage et d’adaptation de l’IA, la conformité de tels systèmes à un éventail de normes différentes sera de plus en plus difficile à maintenir.

Exiger la transparence : les fournisseurs et les développeurs d’IA devraient fournir de la documentation et de la formation claires sur les objectifs et l’utilisation prévue, l’utilisation et la protection des renseignements personnels, les données d’apprentissage et les biais connus qu’elles contiennent, les types et les ensembles précis d’exemples d’utilisation, y compris les hypothèses et les limites, les méthodes de mise à l’essai et de validation employées ainsi que leurs résultats, notamment celles permettant d’évaluer les biais, les mesures de rendement avant et après le déploiement, ainsi que la fréquence de la surveillance et de la mise à jour. Développeurs et fournisseurs devraient collaborer avec les responsables du déploiement et la clientèle, en faisant preuve de transparence pour inspirer la confiance et améliorer les systèmes.

Faire participer les parties prenantes à l’ensemble du cycle de vie de l’IA : les pratiques exemplaires prévoient la participation des prestataires de soins, des personnes traitées, de la direction et autres aux étapes de la conception, du développement, de la validation, du déploiement et de la surveillance. Cette diversité de points de vue favorise la confiance, la robustesse et la transparence, et provoque des discussions essentielles sur les compromis nécessaires au développement des systèmes d’IA (p. ex. précision/explicabilité, protection des renseignements personnels/personnalisation, et détermination d’une proportion acceptable de biais).

Se concerter pour cerner et combler les principales lacunes : les solutions pourraient comprendre des programmes d’études et de formation visant à accroître la littératie en matière d’IA en santé, des outils et processus d’évaluation des biais, des mécanismes systémiques d’évaluation par des tierces parties de confiance, la surveillance des systèmes d’IA, et bien plus.

Prochaines étapes et conclusions

Avec l’intégration croissante des technologies d’IA en santé, les médecins ont la responsabilité de comprendre les risques, les avantages et les répercussions de celles-ci sur leur pratique. Toutefois, cette responsabilité doit rester partagée avec les autres parties prenantes.

Si les technologies d’IA ressemblent à bien des égards à leurs homologues analogiques, il est essentiel de se rappeler que leur mise en œuvre exige des considérations particulières. Les caractéristiques fonctionnelles de l’IA et le fait qu’elle soit axée sur les données soulèvent de nouvelles questions.

Bien que ce document aborde un certain nombre de nouveaux enjeux liés à l’application de l’IA en santé, son contenu demeure relativement superficiel. La formation médicale, l’éthique, l’évaluation des biais, l’explicabilité et la souveraineté des données sont autant de sujets qui méritent une analyse approfondie.

Tandis que nous franchissons les premières étapes de l’intégration de l’IA, les cadres réglementaires et les mécanismes de supervision sont susceptibles d’évoluer. Néanmoins, les avantages potentiels de l’IA en matière d’amélioration des soins et de réduction du fardeau administratif dépendent de l’action concertée des parties prenantes afin d’accroître la confiance à son égard.


Références

  • 1. McKinsey & Company. What is AI (artificial intelligence)? McKinsey Explainers [Internet]. 3 avril 2024; (10 avril) 2024. Accessible à l’adresse : https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-ai
  • 2. Mello M. M., Guha N. Understanding Liability Risk from Using Health Care Artificial Intelligence Tools. N Engl J Med. 2024;390(3):271-8.
  • 3. Artificial Intelligence Risk Management Framework (AI RMF 1.0) (2023).
  • 4. Schwartz R., Vassilev A., Green K., Perine L., Burt, A., Hall, P. Towards a Standard for Identifying and Managing Bias in Artificial Intelligence. National Institute of Standards and Technology; 2022.
  • 5. Tierney A. A., Gayre G., Hoberman B., Mattern B., Ballesca M., Kipnis P., et al. Ambient Artificial Intelligence Scribes to Alleviate the Burden of Clinical Documentation. NEJM Catalyst. 2024;5(3).
  • 6. Santé Canada. Ligne directrice : Logiciels à titre d’instruments médicaux : Définition et classification. Dans : Santé Canada, rédaction : Santé Canada; 2019.
  • 7. Omiye J. A., Lester J. C., Spichak S., Rotemberg V., Daneshjou R. Large language models propagate race-based medicine. npj Digital Medicine. 2023;6(1):195.
  • 8. De Rosa, N. How the new version of ChatGPT generates hate and disinformation on command. CBC News. 2024.
  • 9. Weidinger L,, Uesato J., Rauh M., Griffin C., Huang, P-S., Mellor J., et al. Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness, Accountability, and Transparency 2022. p. 214-29.
  • 10. Coalition for Health AI. Blueprint for Trustworthy AI: Implementation Guidance and Assurance for Healthcare. 2023.
  • 11. The New York Times Company v. Microscoft, OpenAI (2023).
  • 12. US Federation of State Medical Boards. Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice. US Federation of State Medical Boards 2024.
  • 13. La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire. Dans : Innovation, Sciences et Développement économique Canada, rédaction. Gouvernement du Canada; 2024.