Dre Katherine Larivière : Bonjour à vous tous qui se joignent à nous.
Notre sujet de discussion aujourd'hui va être : Comment aborder l'utilisation de l'intelligence artificielle dans le domaine de la santé?
Alors, c'est un sujet au cœur de l'actualité où on touche au croisement entre la technologie et les aspects pratiques des soins de santé.
Avant de commencer le webinaire, je souhaite prendre un moment pour reconnaître le territoire d’où nous présentons aujourd'hui.
Les bureaux de l’ACPM, situés à Ottawa, se trouvent sur le territoire non cédé et non abandonné de la nation algonquine Anishinaabe, dont la présence ici remonte à des temps immémoriaux.
J'aimerais également souligner que nous comptons aujourd'hui des participantes et des participants de plusieurs différentes régions du Canada.
Je tiens à rendre hommage à ces terres, ainsi qu'à l'ensemble des Premières Nations, des Inuits et des Métis de l'île de la Tortue.
En tant qu'organisation, nous reconnaissons tous les premiers peuples qui étaient ici avant nous, ceux qui vivent avec nous maintenant et les sept générations à venir.
Alors j'ai avec moi, pour notre webinaire, Maître Daniel Boivin, M. Chantz Strong et Docteure Shoshanah Deaton.
Alors, Shoshanah a pratiqué pour plusieurs années en médecine familiale, dans une petite communauté en Ontario. Elle a aussi pratiqué comme coroner et a fait de l'assistance en chirurgie.
Elle est maintenant à l’ACPM en tant que médecin-conseil aux services médico-légaux.
Elle parle régulièrement avec nos membres au sujet de l'intelligence artificielle.
Elle a beaucoup de conseils pratiques à partager avec nous, aujourd'hui.
Bienvenue Shoshanah.
Dre Shoshanah Deaton : Merci, Katherine.
Dre Larivière : Chantz Strong est notre directeur administratif à la recherche et l'analytique, et chef de la protection des renseignements personnels.
Il détient une maîtrise en intelligence artificielle, génie des systèmes et affaires de MIT.
Son travail porte sur l'amélioration de la prise de décision, la réduction des risques et l'amélioration de la sécurité des soins.
Et c'est pour cette expérience et ses connaissances qu'il est parmi nous aujourd'hui.
Bienvenue Chantz.
M. Chantz Strong : Merci.
Dre Larivière : Et Daniel Boivin est un associé dans le groupe de litige de Gowling WLG à Ottawa.
Il représente les intérêts de l’ACPM et de ses membres depuis maintenant plus de 30 ans et il occupe maintenant un rôle de chef du contentieux.
Daniel enseigne aussi le droit de la preuve à la Faculté de droit de l'Université d'Ottawa.
Il est un fréquent conférencier dans les domaines du droit de la preuve, des techniques de plaidoirie et du droit de la santé, notamment sur les questions d'intelligence artificielle.
Il a beaucoup à partager avec nous et il se joint à nous à partir de Montréal.
Bienvenue Daniel.
Me Daniel Boivin : Bonjour.
Dre Larivière : Dre Élisabeth Boileau se joindra à nous pour modérer la période de questions.
Moi, je suis Katherine Larivière, médecin de famille d'Ottawa et médecin-conseil au département d'éducation, où je mène les équipes de raisonnement diagnostique et de développement professoral.
Je suis à l’ACPM depuis 2017.
Alors, comme divulgation de conflit d’intérêts, Shoshanah, Chantz et moi-même sommes employés de l’ACPM, et Daniel agit à titre d'avocat-conseil pour l’ACPM.
Pour les objectifs éducatifs, à la fin de ce webinaire, les participants seront en mesure de décrire l'état actuel de l'intégration de l'IA en santé et en médecine, de spécifier les risques médico-légaux associés à ces nouveaux outils et en mesure de formuler une approche pour évaluer la pertinence des outils IA dans la pratique et les considérations importantes avant leur mise sur pied.
Alors, l'intelligence artificielle, l'IA, est un outil puissant qui pourrait bien transformer la pratique de la médecine.
On s'attend à ce que cette technologie ait un impact déterminant sur la prestation des soins dans tout un éventail de différents environnements.
De nos jours, comme médecin, on fait face à un contexte où l'épuisement professionnel est fréquent, où les fardeaux administratifs sont très lourds et où on doit gérer des listes d'attente de plus en plus longues, tout comme médecin référent ou médecin consultant.
L’IA nous fascine, bien sûr, parce que c'est d'actualité, c'est nouveau et c'est intéressant.
Mais aussi parce qu'on se voit parfois désespéré d'alléger les aspects administratifs de la pratique et que l'IA peut, peut-être, nous offrir des solutions possibles.
Quoique ces nouvelles technologies peuvent sembler étranges et intimidantes, on espère aujourd'hui vous permettre d'en connaître un peu plus et de pouvoir placer ces outils dans les structures de gestion de risque que vous connaissez déjà.
On espère aussi vous permettre d'évaluer certaines options pour votre pratique, selon les principes des soins axés sur les patients, aussi, dont vous vous servez déjà.
Alors, sans tarder, commençons avec certaines notions de base.
Alors, Chantz, qu'est-ce que c'est, au juste, l'intelligence artificielle en médecine?
M. Strong : Merci Katherine.
Donc, quand on cherche à définir l'IA, on se rend vite compte qu'il existe une foule de définitions.
Elles sont souvent trop techniques ou même trop génériques pour les usagers.
Pour moi, l'IA, c'est un algorithme qui prend des données, les traite, puis ça produit un résultat à partir de ça.
Que ce soit le résumé d'une conversation, un diagnostic potentiel ou encore des instructions pour déplacer un bras robotique vers le haut ou vers le bas.
Ce qui rend l'IA différent, c'est que certains de ces algorithmes apprennent, c'est-à-dire qu'ils utilisent les nouvelles données pour ajuster leur algorithme avec le temps.
Les autres détails techniques qu'on peut entendre au sujet de l'IA auront peu d'impact pour la plupart des médecins en pratique.
Il peut être intéressant de connaître les termes techniques liés à l’IA, mais ça n'a pas nécessairement d'utilité pratique.
Et de toute façon, il y a de bonnes chances que l'algorithme en question soit remplacé dans les six prochains mois.
Dre Larivière : Alors, un outil IA qu'on commence à connaître un peu mieux et dont on parle beaucoup, c'est ChatGPT.
Alors, qu'est-ce que c'est au juste? Et quoi doit-on en penser?
M. Strong : Oui, le ChatGPT, il a explosé.
Il n’y a jamais eu une application logicielle qui a connu une croissance aussi rapide.
Mais le ChatGPT, c'est une forme d’IA générative.
L'IA générative, ça génère du contenu entièrement nouveau, chaque fois.
Par exemple, si on prend un enregistrement d'une interaction médecin-patient, elle peut créer du contenu entièrement nouveau à la sortie, comme une note SOAP.
En éducation, on pourrait par exemple soumettre à l'IA une tomo, peut-être une tumeur au poumon chez l'adulte, et demander pour que l’IA génère une image analogue, mais représentant une tumeur au poumon chez un enfant.
L’IA générative, dans les dernières années, a vraiment accéléré l'impact potentiel de l'IA sur les soins de santé.
Dre Larivière : Alors moi, j'ai de la difficulté à me garder à jour sur toutes ces questions-là.
Tout semble vraiment changer si vite.
Puis, est-ce que c'est juste du marketing ou est-ce que les choses changent vraiment si rapidement?
Puis, est-ce qu'on a intérêt à suivre le sujet?
M. Strong : Oui, excellente question.
Selon moi, l'IA générative, c'est quelque chose qu'on ne peut pas ignorer.
Le potentiel de l'IA générative a déclenché une énorme discussion, même sur la menace existentielle que cette nouvelle forme d’IA pouvait représenter.
Et, puis, le changement se fait à un rythme stupéfiant.
Prenez ChatGPT.
Depuis son lancement, en 2022, ChatGPT a énormément évolué.
Au début, il fonctionnait sur une base textuelle seulement, mais maintenant on peut lui soumettre du contenu vidéo, audio ou visuel, et il peut également générer ce type de contenu.
C'est encore à voir ce qu'on pourrait faire avec ces outils.
L'autre chose, c'est que l'IA générative nous permet d'interagir de façon naturelle avec l'information et le contenu du modèle.
Elle peut aussi interagir avec d'autres logiciels.
Sa flexibilité lui permet des interactions avec une multitude d'applications et de domaines.
On constate d’ailleurs qu'elle s'intègre très rapidement à nos systèmes actuels.
Dre Larivière : On voit même déjà, malgré leur nouveauté, des systèmes d'IA être intégrés dans les dossiers électroniques de certains établissements, n'est-ce pas Shoshanah?
Dre Deaton : C'est bien vrai, Katherine.
Effectivement, les hôpitaux et les gouvernements y voient une occasion de faire des gains d'efficacité et lancent des projets pilotes de transcription numérique fondés sur l'IA, Scribe, par exemple.
Ces technologies ont vraiment le potentiel d'aider nos membres.
Certaines applications pourraient alléger leur fardeau administratif ou faciliter leur prestation de soins.
Dre Larivière : Et donc, Chantz, quelle est la perspective de l’ACPM par rapport à l'IA?
M. Strong : Oui, à l’ACPM, on suit de près l'évolution de l’IA et de son cadre réglementaire.
Bien qu'il soit tôt pour définir clairement comment l'IA va s'appliquer avec votre pratique, il y a certaines catégories générales qui se dessinent.
Il y a les outils ayant des fins cliniques, qui posent plus de risques et qui donc ont plus de chances de voir leur usage réglementé par Santé Canada ou même les Collèges.
Il y a aussi des outils pour les usages administratifs, comme les outils de transcription numériques ou les outils qui visent les patients et les consommateurs, les outils reliés à la recherche et la commercialisation et même certains outils à la santé publique.
Chacune de ces catégories d’IA porteront leurs propres considérations, leurs propres risques et possiblement leurs propres exigences réglementaires.
Comme avec tout outil, il reviendra à vous et à vos établissements de déterminer s’il est acceptable pour vous, vos patients et votre pratique.
Dre Larivière : On dirait bien que l'IA pourrait être utilisée pour tout et n'importe quoi dans le monde, en général autant qu'en soins de santé.
Shoshanah, y a-t-il des balises à suivre avec l'usage de l'IA dans nos pratiques?
Dre Deaton : En effet, Katherine, on pourrait bien dire que l'IA pourrait s'intégrer partout en médecine et risque de changer bien des choses.
Ces changements se font à un rythme effréné et donc les conseils de l’ACPM vont s'ajuster à l'évolution de l'IA.
Mais, je veux quand même revoir certaines questions qu'on pourrait se poser pour évaluer si on devrait se servir d'un outil IA en particulier.
Donc, pourquoi vous servez-vous de l'outil IA?
C'est ce qui va déterminer les répercussions, les risques et le cadre réglementaire.
Est-ce que l'outil doit être réglementé?
Demandez-vous si l'utilisation que vous comptez faire de l'IA a reçu l'approbation de Santé Canada.
Cette précaution va aider à limiter les risques en cernant mieux la sécurité, l'efficacité et la qualité d'une technologie d’IA.
Quoique c'est un outil hors norme, les prochaines questions portent sur des enjeux qu'on connaît très bien.
Comment est-ce que ça va améliorer ma prestation de soins?
Comment est-ce que ça va améliorer ma pratique?
Est-ce que c'est sécuritaire?
Est-ce qu'il y a des données qui prouvent l'efficacité de cette utilisation, des données qui prouvent que l'information produite est juste et utile?
Il est toujours rassurant qu'une utilisation soit approuvée par une organisation professionnelle, parce que l’IA est beaucoup plus difficile à évaluer qu'un outil ordinaire, étant donné son manque de transparence et la difficulté d'évaluer les biais.
On peut se demander aussi : l'outil est-il utilisable?
Comment peut-il s'intégrer à ma pratique?
Est-ce que je pourrais suivre une formation pour m'en servir?
Comment va-t-il interagir avec d'autres logiciels et outils?
Plus particulièrement, l'IA nous amène à prendre plusieurs éléments en considération : la protection des renseignements personnels et des données, les biais, le consentement.
Et là-dedans, on doit considérer si l’IA apprend au fur et à mesure qu'on s'en sert, et si on s'expose en matière de responsabilité.
Cette dernière question est encore à clarifier.
Dre Larivière : Et donc, on peut appliquer certains principes clés de risque médico-légal et certains principes qu'on utilise déjà en pratique clinique à l'IA, même si ce n'est pas un outil tout à fait comme les autres qu'on connaît déjà?
Dre Deaton : Exact. Ça vaut la peine de considérer un outil analogue semblable et d'appliquer le même processus d'évaluation à l'option IA.
Donc disons, par exemple, que vous vous intéressez à l'IA pour faire le triage des patients.
Quels seraient les éléments à considérer si c'était une infirmière qui faisait ce travail?
Dre Larivière : Alors à ce point-ci, vous, nos membres à l'écoute, je pense que ce qui vous intéresse probablement de façon particulière, ce sont les enjeux médico-légaux propres à l'IA.
Alors, penchons-nous d'abord sur celui de la réglementation.
Daniel, peut-être que vous pouvez nous offrir un peu d'information?
Qui, au juste, réglemente maintenant l'utilisation de l'IA?
Me Boivin : Bien, la réglementation de l’IA est en constante évolution.
Le cadre réglementaire est pas complet, mais il y a plusieurs initiatives réglementaires et législatives fondamentales en cours.
Dans les dernières années, Santé Canada a entrepris d’encadrer l’IA en utilisant les mécanismes qui existent déjà.
On sait que Santé Canada homologue des instruments médicaux.
Or, Santé Canada a commencé à homologuer les logiciels à titre d'instruments médicaux.
Le but de Santé Canada était de réglementer la sécurité et l'efficacité de l’IA.
Santé Canada a adopté une approche fondée sur les risques pour que les logiciels qui peuvent poser un danger immédiat répondent à des exigences plus strictes, des exigences d'homologation et de surveillance.
Ceci dit, ce sont pas tous les produits qui nécessitent une homologation.
Ceux qui sont utilisés seulement à des fins administratives ou qui répondent à certains critères d'exclusion n’ont pas besoin d’homologation; par exemple, un logiciel qui n'est pas destiné à remplacer le jugement clinique des médecins ou qui vise seulement à faciliter la prise de décision thérapeutique.
C'est le cas notamment des robots conversationnels (les chatbots) qui orientent les gens vers la forme d'aide la plus appropriée.
On peut penser aussi aux logiciels qui calculent la posologie d'un médicament, quand le calcul peut être approuvé par les médecins.
Un autre exemple, ce serait les systèmes de dossier de santé électronique.
C'est pour ça qu'il est si important de comprendre comment vous allez utiliser l'IA.
C'est ça qui va dicter les balises applicables, le cas échéant.
Il faut aussi se rappeler que Santé Canada homologue les produits d'IA comme des outils, mais pas en fonction de l'utilisation qui en est faite dans un contexte clinique particulier.
Dre Larivière : Alors, comme ces outils-là sont adaptatifs et donc sont en évolution constante, on doit sans cesse aussi ajuster l'évaluation qu'on en fait.
Est-ce que les Collèges ont pris position par rapport à l'usage d'IA en pratique médicale?
Me Boivin : Bien, on pourrait voir de nouvelles politiques dans plusieurs provinces bientôt.
Il s'agit d'un sujet chaud.
À ce jour, on sait que certains Collèges ont publié des recommandations au sujet de l'IA.
Et dans ces recommandations pour encadrer les attentes générales qu'ils ont envers des médecins et l'IA, les Collèges font souvent référence aux devoirs habituels des médecins : la diligence d'agir, la diligence, le fait d'agir dans l'intérêt des personnes qui sont soignées, la confidentialité.
Dans ces règles, dans ces balises, il y a un juste équilibre à atteindre.
Si les Collèges deviennent trop prescriptifs, leurs recommandations pourraient devenir périmées ou rater leur cible, parce que l'IA évolue très vite dans une foule d'applications potentielles qui peuvent dépasser la rapidité des Collèges à s'adapter.
Mais par contre, si les recommandations sont trop générales, les médecins manquent de conseils pratiques pour savoir comment bien les utiliser.
Dans cette optique-là, le Collège des médecins et chirurgiens de la Colombie-Britannique a publié un document d'orientation provisoire qui est basé sur une approche stratégique qui reflète les obligations professionnelles actuelles des médecins.
Le Collège reconnaît que l'IA change continuellement et précise d'ailleurs que son document d'orientation est préliminaire, qu’il va être mis à jour au fur et à mesure que l'IA évolue.
L'an dernier, le Collège des médecins et chirurgiens de l'Alberta a publié un document d'orientation sur l'emploi de la transcription numérique qui est fondée sur l'IA.
On y retrouve des lignes directrices pour les médecins qui envisagent de se servir de l'IA pour verser des notes au dossier.
C'est une des publications les plus directives jamais publiées par un Collège canadien au sujet de l'IA.
Le Collège suggère notamment aux médecins de faire usage de prudence.
Mais, un certain nombre d'enjeux ne sont pas abordés dans le document, notamment la question… des questions plus précises sur la tenue de dossiers ou sur la protection des renseignements personnels.
Dre Larivière : Alors, qu'est-ce qu'il en est des autres ordres professionnels du Canada?
Est-ce que d'autres ordres ont offert des recommandations à leurs membres qu'on pourrait peut-être appliquer ou d'où on pourrait tirer des conclusions d'où vont les choses pour les médecins?
Me Boivin : D'autres organismes régissent… qui régissent des professions paramédicales au Canada, ont eux aussi publié des recommandations préliminaires sur l'utilisation et les avantages potentiels de l'IA.
Par exemple, on peut penser à l'Ordre des psychologues de l'Ontario qui a fait savoir que ses membres ont le droit d'utiliser l'IA comme complément à leur travail, mais que les psychologues restent entièrement responsables des services qu'ils offrent.
L'Ordre indique aussi qu'au moment actuel, en balançant risques et bénéfices, le risque pour les clients pourrait peser plus lourd que les avantages potentiels de l'IA.
Donc, ceux qui envisagent d'utiliser cette technologie-là devraient discuter avec les patients, à l'intérieur d’un processus de consentement éclairé.
De façon générale, le peu d'organismes de réglementation qui ont fourni des recommandations sur l'IA semblent accepter tacitement que les membres se servent de l'IA.
Ils semblent cependant s'entendre sur un point : l'IA doit servir de complément au travail des professionnels, ça ne doit pas remplacer les professionnels.
Ils recommandent aussi à leurs membres de faire preuve de beaucoup de prudence dans leur utilisation de l'IA, de trois façons.
Premièrement, s'assurer que le travail qui est produit soit exact.
Deuxièmement, protéger les renseignements personnels des personnes traitées.
Et, finalement, être conscients que les professionnels sont imputables pour leur utilisation d'une technologie.
Dre Larivière : Alors, peut-être que, Shoshanah, vous pouvez nous aider du côté clinique?
Est-ce qu'il y a d'autres considérations que les médecins doivent garder en tête en ce qui concerne la responsabilité liée à l'IA?
Dre Deaton : Oui, même si les règles entourant l'IA changent vite, les médecins doivent tenir compte particulièrement des enjeux qui se rapportent à la protection des renseignements personnels, aux biais et au consentement.
Dre Larivière : Alors, en parlant de renseignements personnels, Daniel, pourriez-vous nous parler un peu plus des aspects importants par rapport à la protection des données?
Me Boivin : Oui, il est absolument essentiel d'appliquer des mesures de protection des données et des renseignements personnels.
C'est un enjeu crucial.
On observe encore certaines lacunes dans les lois sur la protection des renseignements personnels, ce qui crée de l'incertitude dans leur application à l'IA.
Cela dit, il arrive de plus en plus souvent que des projets de loi imposent des exigences plus strictes aux systèmes d'IA.
Il y a aussi des efforts concertés pour réclamer plus de transparence et de responsabilité dans la prise de décision automatisée.
Il y a un certain nombre de mesures réglementaires qui ont déjà été adoptées.
Par exemple, on se souviendra de l'impact populaire du lancement public de ChatGPT.
Ce lancement a incité des organismes de représentation de partout à se pencher sur l'impact de l'IA sur la protection des renseignements personnels.
En avril 2023, le Commissariat à la protection de la vie privée du Canada a ouvert une enquête sur ChatGPT, en réponse à une plainte selon laquelle des renseignements personnels auraient pu être traités sans consentement.
Mentionnons aussi que… qu’on est de plus en plus conscient que toutes les parties impliquées dans le développement et l'utilisation de l'IA ont des obligations envers la protection des renseignements personnels.
De leur côté, les professionnels de la santé doivent s'assurer de respecter la protection des renseignements personnels dans leur choix et l'utilisation des outils de l'IA.
Il faut notamment se conformer aux obligations en vertu des lois sur la protection des renseignements personnels en santé, comme le fait d’obtenir le consentement, puis le fait de conclure des ententes contractuelles appropriées avec les fournisseurs de logiciels IA.
Compte tenu de la façon dont fonctionnent certains modèles d'IA, il se peut que des données soient exposées dans le processus, y compris des données sur les patients et les patientes.
Donc, certains outils d'IA générative, par exemple, utilisent vos données pour améliorer leur algorithme.
Les données peuvent donc être exposées dans ce processus.
C'est un élément fondamental que les médecins doivent garder en tête.
Dre Larivière : Merci pour ça, Daniel.
Et Chantz, du point de vue technique, comment pourrait-on savoir si les données sur les gens qu'on traite servent à améliorer les outils d'IA qu'on pourrait penser à utiliser?
M. Strong : Oui, honnêtement, la voie la plus rapide est de clarifier ces questions directement avec les fournisseurs.
On peut aussi lire les conditions d'utilisation de l'outil et sa politique de protection des renseignements personnels.
Assurez-vous d'avoir des réponses claires aux questions comme :
Est-ce que le logiciel utilisera mes données ou celles de mes patientes ou patients pour continuer à améliorer leur algorithme?
Les données seront-elles utilisées à d'autres fins?
Est-ce que les conditions d'utilisation pourront être modifiées sans mon consentement?
Et aussi vérifier si les produits ont reçu l'approbation d'autres organisations professionnelles ou d'autres organismes de santé.
Et puis, dans certaines provinces ou certains territoires, une évaluation des facteurs relatifs à la vie privée devrait être faite par l'acheteur ou le fournisseur.
Dans tous les cas, vous devrez tenir compte de la façon dont l'information sera traitée et protégée.
Dre Deaton : Oui, et si je peux rajouter…
Si vous travaillez dans un établissement où vous n'êtes pas dépositaire de l'information, vous devriez informer la direction que vous envisagez de vous servir d'un outil IA.
Elle pourra alors vous confirmer si vous avez l'autorisation de le faire, selon les règles de protection des renseignements personnels.
Dre Larivière : C'est une étape vraiment importante, ça, de se mettre au courant des règlements où on travaille.
On reçoit aussi beaucoup de questions de nos membres qui nous demandent si tel ou tel outil rencontre les obligations des lois canadiennes par rapport à la protection des renseignements personnels.
Shoshanah, quand vous recevez des appels, comment est-ce que vous répondez à ces questions?
Dre Deaton : Bien, si l’outil traite des renseignements personnels, ce qui comprend ceux sur la santé, il doit être conforme aux lois qui encadrent la protection des renseignements dans votre province ou dans votre territoire.
Bien souvent, les données traitées par les modèles d'IA passent par le nuage et peuvent se retrouver à l'extérieur du pays et pas nécessairement d'une manière conforme aux lois où vous travaillez.
Donc, les lois et les règlements vont varier.
Par exemple, au Québec, on doit faire une évaluation des facteurs relatifs à la vie privée avant de transmettre des renseignements personnels hors de la province.
En Saskatchewan, le Collège décourage les médecins d'utiliser des outils d'assistance virtuelle, comme les scribes, s'ils sont produits par des entreprises hors Canada.
Donc, ce n'est pas toujours évident.
Si vous avez des questions sur l'utilisation d'un outil IA, appelez l’ACPM.
On pourra vous aider à considérer les enjeux, étape par étape, et vos questions informeront notre avis futur.
Dre Larivière : C'est vraiment très complexe, par moments.
Puis, les biais sont un autre enjeu qui a été soulevé.
Et en quoi ça consiste et comment est-ce qu'on peut les gérer?
Chantz, pourriez-vous nous dire quelques mots à ce sujet?
M. Strong : Oui, Katherine, mais c'est un gros sujet et il nous faudrait plus de temps pour l'aborder en profondeur.
Les biais, ça consiste à déterminer si l'algorithme traite certains sous-groupes différemment.
Ceci peut être problématique parce que certains groupes pourraient avoir des résultats de santé différents à cause des biais.
Prends, par exemple, une IA qui sera capable de reconnaître les mélanomes.
Ça se peut qu'elle soit biaisée quand elle évalue une lésion sur une peau foncée, parce qu'elle a été entraînée avec des images de personnes à la peau claire.
À cause de ces données non représentatives, elle pourrait passer à côté d'un diagnostic chez une personne à la peau foncée.
Et puis, les biais peuvent avoir différentes sources.
Les données qui servent à entraîner l'IA peuvent être biaisées.
Les hypothèses ou la conception même de l'IA peuvent l’être aussi.
Il se peut, par exemple, que les enjeux qui concernent un groupe en particulier, comme les jeunes, n'aient pas été pris en compte dans la conception.
Finalement, des biais peuvent être introduits dans le déploiement de l'IA.
On doit s'assurer que les données sont recueillies auprès d'un large éventail de gens.
Mais, il faut se rappeler que les biais en médecine, ce n'est pas nouveau.
On en tient compte quand on examine n'importe quelle étude scientifique.
Donc, on peut adopter le même genre d'approche avec l'IA en se posant des questions comme :
Qui a participé à son développement?
Quels sont les biais potentiels des données?
Il est aussi important de reconnaître que tous les modèles d’IA auront des biais, parce que les données recueillies auront toujours des biais.
Et puis, malheureusement, en français, pour les membres francophones, il faut rappeler que la plupart des données pour l’IA sont en anglais.
Donc, ça c'est une autre source de biais pour nos membres francophones.
Mais, rappelez-vous que la prise des décisions chez l'humain est biaisée elle aussi.
On doit toujours avoir conscience que les biais existent et prendre les mesures pour limiter le risque de préjudice.
N'ayez pas peur d'aller chercher l'information dont vous avez besoin pour évaluer votre outil d'IA, pour voir que c'est valide pour vos patientes et patients.
Un fournisseur devrait pouvoir vous éclairer sur divers aspects importants, dont l'utilisation recommandée, les tests validant le modèle, les limites connues du logiciel et les méthodes de saisie des données.
Je me permets d'ajouter que si le fournisseur n'a pas cette information-là en main, ça peut être que les biais du logiciel n’ont pas suffisamment été évalués.
Ceci peut être un drapeau rouge qu’il faut recueillir plus d'information avant d'utiliser le logiciel.
Dre Larivière : Alors comment, à ce moment-ci, est-ce qu'on intégrerait les questions de consentement?
Quels sont les enjeux en cause, Shoshanah?
Dre Deaton : Les recommandations publiées à ce jour par les Collèges au sujet de l'IA suggèrent aux médecins d'obtenir un consentement éclairé de nos patients.
La discussion entourant le consentement devrait porter sur les risques et les avantages de cette technologie dans le cadre d'un traitement, sur l’enjeu des biais potentiels et sur les risques pour la protection des renseignements personnels.
Donc, on doit nécessairement divulguer si les renseignements d'un patient, même anonymisés, peuvent être utilisés pour permettre à l'outil d'apprendre.
Et effectivement, on constate que les organismes de réglementation accordent de plus en plus d'importance à la notion de transparence dans l'intelligence artificielle, c'est-à-dire à la façon dont l'information sera utilisée et traitée.
Dre Larivière : Il me semble qu'il y a vraiment beaucoup à comprendre avant de mettre en place un outil d'IA pour des médecins qui sont sûrement déjà très occupés avec les soins aux patients.
Puis, la question revient souvent : est-ce que ça devrait être la responsabilité des médecins en pratique?
Puis, sinon, qui est-ce qui devrait valider les outils d'IA?
Dre Deaton : J'aime beaucoup cette question, Katherine, parce que sans doute les médecins n'ont pas le temps ni les ressources pour évaluer eux-mêmes ces outils.
En médecine, beaucoup d'outils sont utilisés de façon variable et la mise en œuvre de ces outils ne se fait pas de la même façon partout.
Les décisions sont souvent prises à l'échelle du département, de l'hôpital, de la clinique.
Autrement dit, c'est quelqu'un d'autre qui décide de mettre l'outil en place.
Donc, parfois, cela peut être obligatoire, par exemple, l'utilisation d'un DME, ou facultatif, comme un scribe.
Mais, quand un organisme de réglementation confirme qu'un outil est sécuritaire, efficace et de qualité, ça rend les décisions plus faciles à prendre.
Le sceau d’approbation d’une organisation professionnelle réputée peut aussi être utile.
Donc, on devrait chercher ça.
En passant, l'Association canadienne des radiologistes a récemment annoncé qu'elle prévoit mettre sur pied un réseau de validation des outils d'intelligence artificielle, chapeauté par des médecins, justement pour accroître la confiance en ces outils.
Dre Larivière : Vous faites vraiment un excellent survol des questions qui entourent l'IA, mais je pense que nos membres peuvent peut-être ressentir encore un peu de frustration face à des affirmations, à des informations qui sont peut-être un peu générales encore.
Est-ce qu'il y aurait moyen de donner des explications un petit peu plus concrètes?
Dre Deaton : Absolument! On peut passer par les étapes ensemble pour évaluer ce genre d'outils.
Donc, prenons un exemple fréquent d'utilisation administrative.
À l’ACPM, on reçoit beaucoup d'appels au sujet des scribes.
Dre Larivière : Alors, si j'ai bien compris, la première étape, ça serait de commencer par déterminer l'utilisation spécifique que je ferais de l'outil.
Dre Deaton : C'est exact. Il existe plusieurs types de scribes et essentiellement, on s'en sert pour enregistrer notre consultation en format audio ou vidéo, ou encore pour faire une transcription automatique qui nous aidera à consigner l'information au dossier par la suite.
Dans notre exemple, on peut donc supposer que l'application en question enregistre le son de notre interaction avec une personne.
Dre Larivière : Puis la prochaine étape, après avoir évalué qu'est-ce qu'on va en faire de l'outil, ça serait de penser aux obligations réglementaires, c'est bien ça, Chantz?
M. Strong : Oui, exactement.
Comme c'est un outil administratif, il est peu probable qu'il soit homologué par Santé Canada.
Par contre, votre Collège pourrait avoir fixé certaines règles.
En date d’aujourd'hui, en juin 2024, le Collège des médecins et chirurgiens de l'Alberta et celui de la Saskatchewan sont les seuls à avoir adopté des directives provisoires à ce sujet.
Mais, on sait bien que d'autres autorités sont en train de le faire.
Si votre Collège ne dispose pas de directives propres aux outils virtuels de transcription numérique, c’est peut-être parce qu'il considère que l'intelligence artificielle doit répondre aux exigences de base en matière de tenue de dossiers.
Dre Larivière : Autrement dit, on pourrait conceptualiser les choses comme si la transcription était faite, peut-être, par un être humain?
M. Strong : Oui, comme on l'a vu tout à l'heure, les obligations qui sont déjà en vigueur peuvent aussi s'appliquer.
Les enjeux sont les mêmes, que la transcription soit faite par une personne comme un étudiant de médecine, par exemple, ou un outil d'intelligence artificielle.
Si vous faisiez appel à une personne pour assurer la transcription, vous tiendriez compte des éléments suivants :
La personne traitée consent à ce que quelqu'un prenne les notes.
La transcription est faite selon vos exigences.
Elle contient l'information requise et elle respecte les formats habituels.
Toutes les dispositions relatives au respect de la vie privée, à la protection des renseignements personnels et à la gestion des dossiers s'appliquent toujours.
On peut se demander :
Qui pourra accéder à la note?
Où cette information sera-t-elle conservée?
Pendant combien de temps?
Devrait-on préciser ces renseignements dans le dossier médical?
Les médecins demeurent responsables du contenu et de la qualité de leurs notes et doivent s'assurer de disposer des procédures de vérification et d'approbation adéquates.
L’intégralité de la rencontre, y compris les instructions préalables au congé et les conseils de suivi, est consignée au dossier.
Dre Larivière : Alors, il faudrait ensuite penser aux enjeux relatifs à la vie privée et aux biais.
Alors, Daniel, pourriez-vous nous résumer les considérations de cet aspect-là?
Me Boivin : Oui, bien entendu.
Premièrement, du côté de la vie privée, il y a certains… il y a un certain nombre d'enjeux.
Est-ce que la personne traitée a donné son consentement?
Il y a certains Collèges qui exigent d'utiliser un formulaire de consentement distinct pour l'enregistrement des rencontres cliniques.
Puis, dans certaines provinces, la législation en matière de protection des renseignements personnels exige également d'obtenir un consentement écrit avant d'utiliser un appareil d'enregistrement ou une caméra à quelque fin que ce soit.
Pour aviser le patient, il faut bien évidemment savoir comment l'IA va utiliser et stocker les données.
Le formulaire doit indiquer, en termes clairs, le but et les utilisations potentielles de l'enregistrement.
Dans certaines provinces ou certains territoires, l'utilisation d'une technologie de transcription numérique fondée sur l'intelligence artificielle doit être précédée d'une évaluation des facteurs relatifs à la vie privée.
Puis, un contrat devrait également être conclu pour exiger du fournisseur qu'il utilise des mesures de protection raisonnables, y compris le chiffrement.
Pour ce qui est du biais, maintenant, il faut tenir compte d'un certain nombre d'enjeux en ce qui a trait à la façon dont l'outil fonctionnera pour votre communauté de patients.
Par exemple, comment l'outil fonctionnera-t-il pour les divers segments de votre patientèle?
Sera-t-il en mesure de traiter une variété d'accents, de tons de voix ou même de jargons qui sont propres à certaines régions, à certains segments démographiques?
Finalement, est-ce que le fournisseur a communiqué de l'information claire sur l'utilisation prévue, le fonctionnement, puis les contraintes du produit?
Par exemple, comment l'application va-t-elle traiter des éléments du discours non verbal?
Les hésitations ou les réponses non verbales du patient, par exemple?
Doit-on éviter ces communications non verbales?
Dre Larivière : Alors, je pense que ça résume les facteurs qui pourraient avoir un impact sur notre utilisation des outils IA, mais quand on songe à adopter l'intelligence artificielle pour faciliter sa tenue de dossiers, Shoshanah, est-ce que vous voyez des désavantages possibles?
Dre Deaton : Oui, vous soulevez un point intéressant.
Quand on consigne de l'information au dossier, on a une occasion de mettre de l'ordre dans ses pensées et de prendre du recul.
Est-ce qu'on perd cette possibilité quand on confie cette tâche à un outil d’IA?
Qu'est-ce qu'on peut faire pour compenser cette perte, étant donné le temps qu'on gagne grâce à la transcription automatique?
Il est important de tenir compte de certains risques additionnels, comme le risque de passer à côté de certaines valeurs critiques, comme des signes vitaux anormaux, qui pourraient nous paraître de plus en plus évidents au fur et à mesure que l'on note l'information au dossier.
On pourrait considérer aussi l'occasion manquée de décrire son raisonnement clinique, ce qui ne peut être saisi dans un échange verbal avec la personne traitée.
Et finalement, n'oubliez pas le risque d'erreurs causées par des hallucinations de l'intelligence artificielle.
En faisant un examen minutieux des notes qui ont été générées automatiquement dans le dossier, par exemple, vous pouvez corriger ces problèmes et vous assurer de consigner le raisonnement clinique qui n'a peut-être pas été exprimé à voix haute.
Dre Larivière : Alors, encore une fois, pour résumer, si on envisage d'utiliser un outil de transcription numérique fondé sur l'IA, il faut tenir compte des mêmes éléments que si la transcription était faite par un humain, mais aussi des enjeux relatifs aux données, à la protection de la vie privée, au consentement et aux biais.
Dre Deaton : Exactement.
Mais n'oubliez pas que les médecins sont toujours responsables de leurs notes, qu'elles aient été transcrites par une personne ou un outil automatique.
Dre Larivière : Alors, j'espère que ce résumé-là a vraiment aidé nos participants de comprendre un peu ce qui peut… ce qu'on peut faire pour évaluer un outil d'IA avant de le mettre en pratique.
Puis, étant donné tout ce qu'on vient de voir, est-ce qu'il sera possible un jour pour les médecins de faire confiance à l'IA, Chantz?
M. Strong : Oui, oui, je pense que les personnes qui font la promotion de l'IA estiment que cette technologie deviendra de plus en plus précise, fiable et compréhensible.
Autrement dit, qu'elle sera capable d'expliquer comment elle est parvenue à telle ou telle conclusion, ce qui nous permettra de mieux analyser les résultats générés.
On développe de plus en plus de fonctions compatibles qui permettent d'alléger le travail administratif, comme la transcription numérique fondée sur l’IA.
Les organisations sont de plus en plus nombreuses à évaluer et à valider ce type d'outils, et les certifications obtenues de la part d'organisations professionnelles peuvent en faciliter l'adoption.
Dre Deaton : Oui, exactement.
Et comme vous le savez, l'un des principaux conseils que l’ACPM donne à ses membres, c'est de consigner soigneusement l'information au dossier médical.
Les scribes pourraient contribuer à une meilleure tenue des dossiers, tout en atténuant le fardeau administratif des médecins.
Cependant, en matière de prise de décision clinique, même si on prévoit que l'IA sera un atout en complétant les ressources fiables et pertinentes du point de vue de la gestion des risques, il faudra toutefois continuer de faire preuve de jugement clinique, même en s'appuyant sur des outils automatisés pour la prise de décision.
Dre Larivière : Et puis, on a parlé de tous les bénéfices de l'IA et comment on peut s'en servir mais, Daniel, est-ce qu'il y a des risques si les médecins décident de ne pas se servir de l'intelligence artificielle?
Me Boivin : moyen terme, il va être difficile d'évaluer les questions de responsabilité, parce que les normes de pratique vont devoir s'adapter à la réalité de l'IA.
Comme je le disais plus tôt, un aspect de l'utilisation de l'IA, c'est de réaliser que le professionnel de la santé engage sa responsabilité par sa décision d'utiliser un outil d'IA.
Avec la démocratisation de l'IA, on pourrait éventuellement arriver à un point où les prestataires de soins pourraient être tenus responsables de leur décision de ne pas utiliser l'IA ou de ne pas prendre en compte les recommandations générées par l'IA.
Il est possible de se guider sur la jurisprudence classique.
Dans une affaire qui date d'une autre époque, où on considérait… c'était à l'époque où l'utilisation des radiographies était une technologie nouvelle qui était de plus en plus utilisée, l'affaire Moore contre Large.
Un médecin avait été accusé de faute professionnelle ou de négligence, parce qu'il n'avait pas fait usage de radiographies avant et après la pose d'un plâtre, d'autant plus que cette technologie était de plus en plus répandue.
Bien que, finalement, il a obtenu un gain de cause en appel.
Donc, les médecins pourraient se retrouver dans une position délicate si on leur demandait de prouver que l'utilité des outils d'IA n'a pas été sous-estimée ni surestimée de leur part.
Dre Larivière : C'est une bonne précaution.
Il faut vraiment rester à jour sur la progression et la façon que l'IA devient de plus en plus acceptée dans nos pratiques.
Puis, est-ce qu'il y a déjà eu des exemples concrets de recours médico-légaux liés à l'IA à ce point-ci?
Me Boivin : Il n'y a pas encore beaucoup de jurisprudence concernant l'utilisation de l'IA dans le contexte clinique, mais on a quelques exemples.
Sur la question de la protection de la vie privée, les tribunaux ont considéré quelques situations, particulièrement à l'échelle internationale.
Au Royaume-Uni, par exemple, le National Health Service a transmis des données sur 1,6 million de personnes traitées au laboratoire DeepMind de Google pour développer un système de détection de l'insuffisance rénale aiguë.
Le Commissariat à l'information du Royaume-Uni a été chargé d'étudier le dossier et a constaté que les personnes n'avaient pas donné… n'avaient pas été suffisamment informées de l'utilisation qui serait faite de leurs données.
Compte tenu de la quantité de données utilisées et traitées par l'IA, on peut s'attendre à ce que les plaintes relatives à la protection de la vie privée se multiplient dans l'avenir.
On a vu aussi des dossiers de faute professionnelle ou de négligence, surtout aux États-Unis, concernant des réclamations relatives à des logiciels, sans nécessairement qu'ils fassent intervenir l'IA.
Ça nous donne des indices de comment les dossiers relativement à l’IA pourraient être traités.
Dans ces dossiers des États-Unis, des plaintes ont été déposées contre les développeurs du logiciel à cause des défauts dans le code ou dans l'interface, des actions ont été déposées contre les hôpitaux pour la sélection que les hôpitaux ont faite, et puis sur la gestion de l'outil informatique.
Et il y a eu des actions contre des médecins pour leur prétendue faute dans l'utilisation du logiciel ou dans la prise en compte des recommandations cliniques.
Dans ces circonstances, s'il existe un contrat avec le fournisseur qui stipule que la détermination finale des soins incombe aux médecins, les tribunaux ont parfois tenu compte de ces clauses contractuelles pour faire porter toute la responsabilité aux médecins.
Ces décisions-là montrent que, indépendamment de l'intervention d'un outil d'IA, la responsabilité finale pourrait toujours incomber aux prestataires de soins de santé, étant donné que la common law se concentre habituellement à faire porter la responsabilité sur des personnes et non pas sur des machines.
Dre Larivière : Alors, on en arrive à la fin de notre portion de contenu.
Shoshanah, est-ce que vous avez un dernier mot par rapport à ce que devraient penser les médecins avant d'intégrer l'IA dans leurs pratiques?
Dre Deaton : Il faut quand même garder en tête qu'on n’a fait qu'effleurer la question de l'IA en médecine et c'est un domaine qui évoluera au fil du temps.
Mais ce que j'aimerais qu'on retienne d'aujourd'hui, c'est les éléments suivants :
L'objectif. Quel est l'objectif déclaré de la technologie d'IA et l'utilisation de cette technologie est-elle appropriée dans le contexte de votre pratique?
La fiabilité, c'est-à-dire l'utilisation efficace et sécuritaire de l'outil.
L'obtention d'une approbation auprès d'un organisme de réglementation peut certainement nous aider avec ça.
Donc, l'utilisation de l'IA…
Quand une telle organisation approuve ça, ça nous aide à établir la sécurité et l'efficacité.
Comme ces outils apprennent et évoluent au fil du temps, il faudrait contempler des mesures après le déploiement qui servent à la surveillance et au contrôle de la version du modèle, afin d'évaluer l'impact de ces changements.
Considérez la protection des renseignements personnels.
Disposez-vous de mesures adéquates pour protéger les renseignements personnels de vos patients?
N'oubliez pas de considérer les biais et demandez aux fournisseurs de donner l'information sur l'utilisation prévue du produit, son fonctionnement et ses limites.
Et avez-vous les détails nécessaires pour juger de la validité des données utilisées pour entraîner l'outil et s'il est adapté à votre patientèle?
Finalement, pensez au consentement.
Le consentement sera-t-il obtenu en précisant les risques, les avantages et les limites de l'outil?
Dre Larivière : Et Chantz, un dernier mot de votre côté?
M. Strong : Oui, l'intelligence artificielle, c'est encore à ses débuts.
Les organismes de réglementation sont encore en train de déterminer leur approche et on ne sait toujours pas comment les tribunaux vont aborder la question de la responsabilité.
Il y a donc encore beaucoup de zones grises, malheureusement.
Mais nous, à l’ACPM, on suit tout ça de très près parce qu'on sait que vous êtes intéressés dans ces technologies-là.
On espère d'avoir réussi à clarifier certains points et on espère que vous aurez compris que vous avez toujours déjà plusieurs des compétences nécessaires pour commencer à évaluer ces outils.
Ici, on va continuer à soutenir nos membres et à les conseiller au fur et à mesure que la situation évoluera.
Si vous avez des questions, sachez que l’ACPM est là et n'hésitez pas à appeler.
Dre Larivière : Un très grand merci pour ces rappels importants, Shoshanah, Chantz et Daniel.
Quel survol rapide d'une technologie qui, on l'espère bien, pourra nous offrir des bénéfices dans nos pratiques.
Je suis certaine, en tant que participants, que vous avez encore des questions, alors passons sans tarder à la période de questions-réponses.
Notre modératrice sera Élisabeth Boileau.
Elle est médecin d'urgence et détient des maîtrises en recherche, en sciences de la santé, et aussi en droit de la santé.
Elle a énormément d'expérience à développer et à présenter des programmes éducatifs pour nos membres et elle va nous guider dans cette prochaine portion du programme.
Alors, à toi Élisabeth.
Dre Élisabeth Boileau : Merci Katherine. Donc, juste un rappel que si vous voulez poser des questions, vous pouvez les entrer dans la section Questions-réponses, dans la barre d'outils au bas de Zoom.
Ceci dit, depuis le début du webinaire, on reçoit des questions en continu, donc les gens sont très engagés et on vous remercie pour vos questions.
Donc, on va commencer sans plus tarder par une première question que je vais adresser à Shoshanah, si ça te va?
Donc, une question qui revient beaucoup depuis le début de la séance :
Est-ce que l’ACPM assiste les membres quand il y a des enjeux liés à l'intelligence artificielle?
Donc, si un membre faisait l'objet d'une plainte au Collège ou d'une poursuite en lien avec l'utilisation de l'intelligence artificielle, est-ce qu’il serait admissible?
Dre Deaton : Oui, c'est une question très commune.
Donc, l’ACPM prête généralement assistance aux membres dans le cadre de problèmes médico-légaux liés à l'exercice de la médecine.
Et c'est important de savoir que l'Association examine et évalue soigneusement les facteurs et les nuances propres à chaque cas.
Puisque l'assistance qu'on offre dépend des particularités de chaque cas, les déterminations ne sont jamais faites d'avance et avant que surviennent les difficultés médico-légales.
Donc, qu'est-ce que ça veut dire?
Un outil n'a pas nécessairement besoin d'être approuvé par une organisation particulière, comme Santé Canada, pour être éligible à l'assistance de l’ACPM, tant que…
Excusez-moi.
Donc, cet outil n'a pas besoin d'être approuvé par Santé Canada, par exemple, pour être éligible à notre assistance, tant que l'usage de l'outil IA soit dans un contexte de travail professionnel, médical.
Dre Boileau : Super, merci. Je vais adresser la prochaine question à Katherine.
Donc, depuis le début de la séance, on a évoqué le fait que l'intelligence artificielle est en constante évolution.
On reçoit plusieurs questions dans le chat, à savoir quels sont les outils qui sont disponibles actuellement, dans la pratique médicale, quels logiciels sont disponibles et pour quels aspects de la pratique clinique est-ce qu'on peut utiliser l'intelligence artificielle à l'heure actuelle?
Dre Larivière : Alors, je peux répondre en disant que la technologie fondée sur l'IA, vraiment, ça vise à soutenir les soins cliniques.
Et on voit ça apparaître de plus en plus de façons différentes.
Alors, on l'utilise déjà.
On a déjà vu et on en a parlé durant la présentation, des scribes, donc on peut s'en servir pour réduire la charge administrative.
On peut aussi s'en servir pour améliorer la précision des diagnostics, pour optimiser la planification des traitements dans certaines spécialités et aussi de prévoir certains résultats des soins.
Alors, de façon plus spécifique c'est ça, comme exemple, on a des scribes, on a des aides à la décision clinique.
Il y a aussi des logiciels qui examinent les images cliniques qu'on peut recevoir, donc les images qui peuvent être le résultat de l'imagerie diagnostique ou d'images vidéo de coloscopie pour assister à la détection d'anomalies.
On voit aussi son usage en santé publique, donc en surveillance des infections.
Alors, on peut vraiment voir dans les différents domaines où l'intelligence artificielle commence à prendre sa place, que les usages sont à des niveaux de développement différents.
Donc, on peut voir qu'il y en a qui sont déjà en pratique et il y en a d'autres qui sont vraiment seulement au stage embryonnaire.
Puis, comme on l'a déjà dit, la réglementation aussi qui entoure l'usage de l'IA dans les différents domaines est variable puis change aussi à mesure que la technologie avance.
Alors, ça va être vraiment important pour les gens de rester à jour dans les nouveaux développements de qu'est-ce qui apparaît pour aider à la pratique, mais aussi de la façon que c'est réglementé.
Mais, il y a beaucoup, beaucoup de promesses pour l'IA dans la pratique clinique, dans les années, les jours, les décennies à venir.
Dre Boileau : Effectivement, on reçoit plusieurs questions sur l'utilisation de l'intelligence artificielle en santé publique, donc je suis contente que tu l'aies abordée.
On va passer à la prochaine question, qui va être pour Chantz.
Quand on parle des risques associés à l'usage d'IA, on entend souvent parler d'hallucinations.
C'est quoi une hallucination d'IA?
Puis, comment des risques peuvent en découler pour les médecins?
M. Strong : Oui.
Donc, quand l’IA a une hallucination, ça veut dire essentiellement que le logiciel a inventé une partie d'une réponse.
C'est un risque important pour les logiciels d’IA générative.
Nous avons déjà vu des exemples de ce problème lors de récentes actions en justice dans lesquelles les parties ont utilisé des outils d'IA pour rédiger les arguments juridiques.
Dans un cas largement rapporté, un plaignant poursuivait une compagnie aérienne en justice, affirmant qu'il avait été blessé par un chariot de service lors d'un vol.
Lorsque la compagnie aérienne a décidé de classer l'affaire, l'avocat du plaignant a déposé un mémoire, citant diverses décisions de justice pour s'opposer à la requête.
Mais malheureusement, aucun de ces cas n’existait en réalité, c'était des hallucinations.
L'avocat du plaignant avait utilisé un outil d’IA générative qui a inventé les cas et l'avocat n'a pas revérifié l'information.
Nous avons également vu l'IA générative utilisée par certains plaignants pour préparer des mémoires de recherche dans des affaires de négligence médicale, qui ont été rejetés par les tribunaux comme étant peu fiables.
Donc, essentiellement, une hallucination, c'est lorsque l'IA générative invente des choses.
Dre Boileau Merci. Donc effectivement, ça peut être problématique.
C'est quelque chose à quoi il faut porter attention. Merci d'avoir précisé.
On va passer à une question plus d'ordre légal, donc je vais l'adresser à Maître Boivin.
Une question qui revient depuis tout à l'heure, c’est :
Si jamais il y a une erreur qui est générée par l'intelligence artificielle, qui serait poursuivi dans ce cas-là?
Me Boivin : Oui, je ne suis pas surpris que c'est une question qui est posée, parce que c'est une question que la communauté juridique se pose beaucoup.
Étant donné que le cadre réglementaire de l'intelligence artificielle évolue sans cesse, il est difficile à l'étape actuelle d'établir exactement comment le cadre de responsabilité va être établi s'il y a un dérapage.
Mais, on peut quand même se fonder sur les principes actuels pour penser à certaines choses.
Si l'outil a failli à la tâche pour laquelle il a été conçu, la responsabilité peut être imputée à l'organisme qui a conçu, qui a créé le logiciel ou qui l’a commercialisé.
Mais on peut prévoir que ça va être difficile à établir, la preuve de l'erreur dans la conception, étant donné la complexité des algorithmes en intelligence artificielle.
Bon, si le problème c'est que l'outil a été mal utilisé ou a été assigné à la mauvaise fonction, la responsabilité peut être imputée à la personne qui l'a utilisé de la mauvaise façon ou à l'établissement qui a autorisé son utilisation dans un certain contexte.
Donc, dans le contexte de la santé, ça pourrait être un hôpital, par exemple.
Les médecins peuvent être aussi responsables en cas d'utilisation négligente du logiciel ou du non-respect des recommandations cliniques, que ce soit les recommandations cliniques que l’IA impose ou suggère, ou que ce soit les recommandations cliniques normales qui seraient non conformes à ce que l'IA pourrait suggérer.
Si une personne subit un préjudice et qu'elle intente une action en justice en lien avec des soins qui ont été prodigués avec l'IA qui s'est immiscée dans le processus, il est raisonnable de s'attendre à ce que toutes les parties qui ont participé aux soins et à l'établissement de… ou à l'inclusion de l'IA dans le processus, dans la trajectoire de soins, que tous ces gens-là soient nommés dans une procédure.
Dre Boileau : Merci beaucoup. On a reçu beaucoup, beaucoup de questions.
Par contre, c'est tout le temps qu'on a pour l'instant pour répondre à vos questions.
Donc, je vais repasser la parole à Katherine.
Dre Larivière : Merci beaucoup, Élisabeth!
Alors, ça nous amène à la fin de notre temps.
Comme Élisabeth l’a dit, on a eu beaucoup plus de questions qu'on n'a pas eu le temps de discuter.
Alors, peut-être que ça reviendra à un autre produit éducatif à développer pour le futur.
Alors, surveillez, je suis certaine qu'on aura des conseils qui vont évoluer avec le temps, avec ces outils-là.
Alors, encore un grand merci à Shoshanah, à Chantz puis à Daniel pour vos conseils très utiles aujourd'hui.
Et je souhaite à tous nos participants aujourd'hui une très bonne journée.
À la prochaine.