Dans l’ensemble du pays, l’intelligence artificielle (IA) s’installe discrètement au cœur des processus de décision. Des universités mettent en place des cadres d’usage pour l’IA générative, des ministères fédéraux et provinciaux publient des lignes directrices pour l’IA dans les services publics, et Ottawa avance son projet de Loi sur l’intelligence artificielle et les données.
Derrière ce vocabulaire très technique — modèles, données, risques — se joue pourtant une question profondément politique : comment les institutions canadiennes, censées « prendre soin » du collectif, peuvent‑elles déléguer une partie de leurs décisions à des systèmes d’IA tout en demeurant redevables devant la population ?
Au moment où le Canada (et des provinces) affine ses choix réglementaires, il me semble essentiel de nommer ce que nous sommes en train d’installer : non pas seulement des outils, mais une infrastructure de décision qui reconfigure la manière dont l’État, les organismes publics et même les grandes organisations privées se préoccupent des citoyennes et citoyens — ou les laissent de côté.
Quand l’IA ajoute une couche de gouvernance
On décrit encore volontiers l’IA comme un simple outil. Dans les faits, que ce soit dans l’éducation, la santé, l’administration publique ou la justice, on lui délègue une part croissante des prises de décisions. À titre d’exemples, elle classe des dossiers, priorise des interventions, signale des « risques » ou oriente des trajectoires.
Dans les universités canadiennes, des systèmes d’IA sont déjà utilisés pour la correction, la détection du plagiat, le soutien à la rédaction ou l’orientation des parcours étudiants, pendant qu’on tente de concilier innovation pédagogique, liberté académique et encadrement de l’IA générative. Dans les systèmes de santé provinciaux, des outils d’aide au diagnostic, de gestion des listes d’attente et d’optimisation des trajectoires de soins contribuent à répartir des ressources rares et à décider qui sera vu, quand, et selon quelle priorité.
Dans l’administration publique, le gouvernement fédéral et plusieurs provinces se dotent de cadres pour « l’utilisation responsable de l’IA » : principes d’équité, de transparence, d’explicabilité, de respect des droits. Comme l’énonce la Stratégie d’intégration de l’intelligence artificielle dans l’administration publique 2021-2026, l’IA apparait comme un levier de modernisation de l’État et d’amélioration des services.
Mais une fois ces systèmes intégrés, ils deviennent largement invisibles pour le public — et parfois pour les décideurs eux‑mêmes, qui finissent par se fier aux tableaux de bord et aux scores de risque. Comme le souligne Steeve Jacob, professeur titulaire de science politique à l’Université Laval, et Sébastien Brousseau, coordonnateur du Pôle d’expertise en cybersécurité et impacts sociétaux (Obvia) dans un rapport publié en mai 2024 sur l’IA dans le secteur public :
« (…) À l’heure où les technologies d’intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilités associées aux systèmes d’IA (SIA) ne sont pas toujours clairement connues ou comprises par les décideurs, les usagers ou les employés du secteur public. »
Ce sont pourtant ces systèmes qui, concrètement, dessinent les chemins d’accès aux droits, aux services et aux opportunités. À cette échelle, l’IA agit déjà comme une infrastructure de décision canadienne.
Un enjeu pour l’égalité et la reddition de comptes
Cette infrastructure n’est pas neutre. Les travaux menés au Québec par le Conseil de l’Innovation du Québec confirment les impacts sociétaux de l’IA, tout comme les critiques adressées au projet de loi fédérale, à savoir les enjeux humains, sociaux et démocratiques.
Le premier risque est celui de l’opacité. Quand des décisions importantes — admissibilité à un programme, priorisation d’un dossier, évaluation d’un risque — reposent en partie sur des systèmes algorithmiques, il devient difficile, même pour les professionnels, d’expliquer clairement « comment » on en est arrivé là. Pour l’étudiante refusée, le patient reclassé ou le citoyen relégué au bas d’une liste, la décision peut paraître arbitraire. Dans une démocratie comme le Canada, vivre sous un régime de décisions que l’on ne peut ni comprendre ni faire expliquer est un problème majeur de légitimité.
Le deuxième risque est celui de l’injustice. Lorsque le gouvernement du Canada confirme, dans le cadre de sa Stratégie en matière d’intelligence artificielle, que « (…) l’IRCC utilisera l’IA de façon à ce qu’elle soit centrée sur l’humain et responsable, transparente et explicable, juste et équitable, sécurisée et respectueuse de la vie privée, et enfin, valide et fiable », c’est qu’il est conscient que l’IA peut reproduire ou amplifier des biais présents dans les données et les pratiques.
Sans vigilance, certains groupes — communautés autochtones, minorités racisées, personnes migrantes, personnes en situation de pauvreté — risquent d’être systématiquement désavantagés par des modèles entraînés sur un passé inégal. Dans un pays qui se dit engagé envers la réconciliation et l’égalité, laisser des systèmes opaques reconfigurer silencieusement l’accès aux droits, aux services ou à la protection sociale est politiquement explosif.
Troisième risque : la dilution des responsabilités. Lorsque des décisions sont contestées, il devient tentant de se retrancher derrière l’outil — « c’est le système », « c’est l’algorithme ».
Cette crainte a été justement énoncée par Madalina Busuioc, professeure de la Faculté des Sciences sociales et Humanités, Science politique et Administration publique du Vrije Unversiteit Amsterdam, qui souligne que cette situation questionne la notion même de responsabilité.
Qui est imputable ? Le fournisseur de la solution technologique, l’organisme public qui l’a déployée, le ministère qui a fixé le cadre, le législateur qui a adopté une loi permissive ? Si nous ne clarifions pas ces responsabilités — en droit et dans la pratique — nous fragilisons le principe même de reddition de comptes qui fonde la confiance dans les institutions canadiennes.
Ce qu’encadrer l’IA doit garantir
Pour autant, l’IA n’est pas condamnée à miner la démocratie canadienne. Elle peut aussi être un levier pour renforcer la justice, la transparence et l’équité, à condition que les cadres québécois et fédéral la reconnaissent explicitement comme une infrastructure civique, et non comme un simple produit technologique à réguler à la marge.
Trois exigences me semblent incontournables pour un encadrement crédible.
- Un droit pancanadien à la compréhension et à l’explication
Les lignes directrices canadiennes et des provinces sur l’IA dans le secteur public vont déjà dans le sens de l’explicabilité et de la transparence. Mais ces principes doivent être traduits en droits applicables : toute personne au Canada devrait pouvoir savoir si l’IA a été utilisée dans une décision qui la concerne, à quelles fins, à partir de quel type de données et selon quelles balises. Cela ne peut pas reposer uniquement sur la bonne volonté administrative; cela doit figurer au cœur des textes législatifs.
- Un droit réel à la contestation humaine et à la révision
Il ne suffit pas de savoir que l’IA a été utilisée dans un processus décisionnel : encore faut‑il pouvoir contester le résultat et obtenir une révision humaine, dans un cadre clair, accessible et équitable. Comme le soulignait le Commissariat à la protection de la vie privée au Canada, un encadrement canadien crédible suppose de créer des règles spécifiques pour la prise de décision automatisée afin d’assurer la transparence, l’exactitude, et l’équité et, implicitement, la traçabilité. Ce cadre imposerait aux entreprises une responsabilité démontrable en tout temps, pouvant être vérifiée, si nécessaire, sur place par des inspections proactives et d’autres mesures d’application. À titre d’exemples, cette vérification pourrait porter sur la vérification des registres des traitements des données et pour quelles finalités, la traçabilité des données et leurs impacts sur les personnes ou encore, une vérification des échantillons des décisions prises pour vérifier les risques de biais algorithmiques.
- Une participation citoyenne au cœur de la définition des usages de l’IA
Au Québec, la réflexion collective pilotée par le Conseil de l’innovation a montré que les citoyens sont capables de se prononcer de manière nuancée sur les usages acceptables ou non de l’IA. Au niveau canadien, le débat autour de la loi fédérale sur l’IA gagnerait à s’inspirer de cette approche : multiplier les consultations structurées, reconnaître le rôle des communautés autochtones, des groupes communautaires, des milieux de recherche et des organisations de la société civile dans la définition des zones « rouges », « jaunes » et « vertes » en matière d’usages.
À ces exigences, il faut ajouter la capacité d’actualisation et l’agilité : les systèmes d’IA, les modèles d’affaires et les attentes sociales évoluent rapidement. Les cadres juridiques doivent donc être conçus pour être révisés régulièrement — ce que recommandent déjà certains rapports — afin d’éviter que les lois ne deviennent, en quelques années, décalées par rapport aux pratiques sur le terrain.
Déjà lors de l’étude du document complémentaire de la Loi sur l’intelligence artificielle et les données (LIAD), des chercheurs avaient accueilli positivement la volonté du gouvernement canadien d’opter pour une approche agile.
Choisir comment nous voulons nous gouverner
La question n’est plus de savoir si nous voulons de l’IA dans nos institutions : elle est déjà là, intégrée aux stratégies de transformation numérique des gouvernements, aux plans de modernisation des services publics et aux modèles d’affaires de nombreuses entreprises canadiennes.
La vraie question, pour le Canada, est de décider comment nous voulons que cette infrastructure de décision s’articule avec nos principes démocratiques : égalité devant la loi, respect des droits, réconciliation, reddition de comptes, participation citoyenne.
Nous pouvons laisser les architectures techniques et commerciales décider, par défaut, de ce qui est important, urgent ou acceptable. Ou nous pouvons considérer l’IA comme une infrastructure civique à débattre, à encadrer et à ajuster, en gardant au centre la capacité de jugement, de délibération et de responsabilité — bref, ce qui fait que nous nous gouvernons encore nous‑mêmes, comme société démocratique.
Encadrer l’IA, ce n’est donc pas seulement encadrer une technologie. C’est encadrer la manière dont, comme pays, nous voulons continuer à prendre soin du collectif à l’ère de systèmes qui, par défaut, ne votent pas, ne délibèrent pas et ne rendent pas de comptes. Si le Canada veut être crédible lorsqu’il affirme vouloir devenir un leader en matière d’IA responsable, c’est en s’assurant que l’IA « (…) « soit encadrée par des valeurs, une éthique et des lois clairement définies. »

