Le secteur de l’intelligence artificielle connaît une croissance fulgurante. De l’IA générative aux assistants vocaux, en passant par les maisons intelligentes, le commerce en ligne, les services financiers et la fabrication numérique, l’IA s’intègre rapidement à tous les aspects de notre quotidien. Cette nouvelle réalité suscite un intérêt croissant chez les scientifiques, qui s’intéressent de plus en plus aux systèmes d’IA et à leurs applications potentielles pour certaines populations et, plus largement, pour la société dans son ensemble.
Créé il y a quatre ans grâce à un don du Groupe financier BMO, le Programme de recherche en intelligence artificielle responsable BMO s’adresse aux étudiants et étudiantes, peu importe leur faculté, qui mènent des recherches sur l’intelligence artificielle responsable.
Géré par le Collectif de recherche mcgillois sur l’IA et la société – pôle de l’Université consacré à l’utilisation responsable de l’IA et à son incidence sur la société –, le Programme BMO se divise en deux volets : la recherche au premier cycle et la recherche aux cycles supérieurs.
Ting Wang (B. Sc. 2021, M. Sc. 2024), étudiante en première année de doctorat en médecine de famille et en soins primaires à l’Université McGill, est lauréate d’une bourse de recherche en intelligence artificielle responsable BMO. Ses travaux, situés au carrefour de l’IA et des soins de santé, « portent principalement sur les parcours de soins des personnes âgées atteintes de maladies cardiovasculaires et de démence », explique-t-elle. Ting Wang utilise des méthodes d’apprentissage automatique pour prévoir les besoins en ressources et les conséquences négatives, comme les hospitalisations fréquentes.
Ting Wang présente ses recherches.
Comme tous les participants au Programme, Ting Wang est encadrée par deux spécialistes issus de domaines différents. « Ces mentors m’ont fait découvrir des perspectives, des idées, des méthodes et même des cultures de recherche », souligne l’étudiante.
L’une de ces spécialistes est la professeure Samira A. Rahimi. Codirectrice du Collectif de recherche mcgillois sur l’IA et la société, hébergé par l’Institut sur les systèmes informatiques et les systèmes de données à l’Université McGill, la Pre Rahimi participe à la supervision du Programme de recherche en intelligence artificielle responsable BMO. Ses recherches interdisciplinaires portent sur l’IA dans les soins de santé primaires.
Pour la Pre Rahimi, l’importance de l’approche interdisciplinaire du programme et de la recherche sur l’IA en général est évidente. « Trop souvent, les scientifiques et les cliniciens travaillent en vase clos. Les experts en IA conçoivent des systèmes sans saisir pleinement les réalités de la pratique clinique, tandis que les cliniciens ont tendance à s’en tenir aux outils qu’ils connaissent et à se montrer parfois réticents aux nouvelles technologies. Il en résulte des théories et des outils qui ne trouvent jamais d’application concrète. »
L’IA responsable : définition
La Pre Rahimi souligne qu’à l’aube de l’IA, il n’existe pas de définition universelle de l’IA responsable.
Ce que l’on qualifie de « responsable » varie selon le contexte et le secteur. « Dans la recherche en soins de santé, nous devons faire preuve d’une grande prudence, car des vies sont en jeu, explique la Pre Rahimi. L’objectif est d’éliminer, ou de réduire le plus possible, le risque pour les patients et les prestataires de soins. La vigilance est de mise. »
Selon la Pre Rahimi, pour parvenir à une IA responsable, il faut concevoir des systèmes qui ne perpétuent pas les inégalités et les biais déjà présents dans le système de santé.
« Nous devons nous assurer que les outils fondés sur l’IA sont réellement accessibles aux cliniciens dans tout le système de santé, explique la Pre Rahimi. Il faut aussi se demander si ces outils sont bien présentés aux patients et si les cliniciens reçoivent une formation adéquate pour les utiliser. En réalité, la plupart des cliniciens n’ont pratiquement aucune formation en IA. Résultat? Nous leur fournissons des outils dont ils ne peuvent ni analyser ni interpréter pleinement les résultats. »
Samira Rahimi au symposium du Programme de bourses de recherche en intelligence artificielle responsable BMO.
« Si nous n’incluons pas tout le monde, nous avons le sentiment de ne pas avoir fait notre travail correctement, de ne pas avoir pleinement pris en compte toutes les expériences, perspectives et expertises », ajoute Ting Wang.
Ting Wang et la Pre Rahimi font remarquer que les systèmes d’IA ont plus de chances d’être implantés lorsqu’ils sont conçus selon une approche responsable et interdisciplinaire.
« L’IA ne peut pas remplacer l’expertise, l’empathie, et le jugement clinique d’un humain, mais elle peut assurément épauler les cliniciens en optimisant l’exécution de leurs tâches redondantes ou répétitives et en leur permettant ainsi de consacrer plus de temps à leurs patients », explique Ting Wang.
Les enjeux sont considérables. « Je pense que si nous omettons certains aspects lors de la conception, de la création et de la mise en œuvre des outils d’IA, nous allons creuser les inégalités en santé. »
Les audits dans le domaine de l’IA
L’été dernier, Jocelyn Wong (B.A. et B. Sc. 2025), lauréate d’une bourse de recherche en intelligence artificielle responsable BMO, s’est inspirée de sa mineure en études sur le genre, la sexualité, le féminisme et la justice sociale pour mener des recherches sur les pratiques d’audit en IA.
Elle a travaillé au laboratoire RAISE (Responsible Autonomy and Intelligent System Ethics)[FC1] , qui est rattaché à la Faculté de génie et dirigé par l’une de ses superviseures, la professeure AJung Moon. L’équipe interdisciplinaire du laboratoire RAISE s’emploie à maximiser l’utilité des robots et d’autres machines intelligentes tout en réduisant les risques pour la société.
Jocelyn Wong.
Jocelyn s’est penchée sur la façon dont on tient compte des différentes parties prenantes dans un audit sur un système d’IA. Au-delà du système d’IA lui-même, elle s’est notamment intéressée à l’identité des personnes, indépendamment du rôle qu’elles jouent dans l’organisation.
« Nous devons veiller à ce que les parties prenantes reflètent la société dans laquelle nous vivons, ainsi que la population appelée à utiliser le système d’IA. »
Étonnamment, l’expérience interdisciplinaire de Jocelyn Wong comportait quelques lacunes, qu’elle a dû combler. En présentant son projet aux étudiants et chercheurs du laboratoire RAISE, elle s’est rendu compte qu’elle devait revoir ses bases. « J’ai dû produire une définition du féminisme, du féminisme intersectionnel et du féminisme noir », précise-t-elle.
Ses collègues du laboratoire lui ont apporté une aide inestimable pour cette première expérience de recherche d’envergure.
En travaillant avec des ingénieurs aux approches et aux domaines de recherche divers, elle a pu bien se préparer pour le symposium du Programme, lors duquel les lauréats et lauréates d’une bourse de recherche en intelligence artificielle responsable BMO présentent leurs travaux à des personnes de différents horizons et disciplines.
« Les commentaires que j’ai reçus ont confirmé la pertinence de mes travaux. C’était génial », confie Jocelyn Wong.
La Pre Rahimi souligne que cet aspect de la recherche en IA occupe actuellement le devant de la scène. « Le moment est venu de mener davantage de travaux pour rendre l’IA sûre dans différents secteurs et pour faire en sorte que les systèmes soient créés et utilisés de façon responsable. »