{"id":303758,"date":"2026-03-16T06:30:00","date_gmt":"2026-03-16T10:30:00","guid":{"rendered":"https:\/\/policyoptions.irpp.org\/?post_type=issues&#038;p=303758"},"modified":"2026-03-13T11:05:39","modified_gmt":"2026-03-13T15:05:39","slug":"ia-democratie-canadienne","status":"publish","type":"issues","link":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/","title":{"rendered":"Qui d\u00e9cide vraiment \u00e0 l\u2019\u00e8re de l\u2019IA ?"},"content":{"rendered":"\n<p>Dans l\u2019ensemble du pays, l\u2019intelligence artificielle (IA) s\u2019installe discr\u00e8tement au c\u0153ur des processus de d\u00e9cision. Des <a href=\"https:\/\/esp.umontreal.ca\/fileadmin\/esp\/documents\/PDF\/Lignes_directrices_Utilisation_IA_Memoire_et_these_Octobre2024.pdf\">universit\u00e9s<\/a> mettent en place des cadres d\u2019usage pour l\u2019IA g\u00e9n\u00e9rative, des <a href=\"https:\/\/publications.gc.ca\/collections\/collection_2024\/sct-tbs\/BT48-37-2024-fra.pdf\">minist\u00e8res f\u00e9d\u00e9raux<\/a> et <a href=\"https:\/\/www.quebec.ca\/gouvernement\/numerique\/intelligence-artificielle-administration-publique\/portrait\">provinciaux<\/a> publient des lignes directrices pour l\u2019IA dans les services publics, et Ottawa avance son <a href=\"https:\/\/www.parl.ca\/documentviewer\/fr\/44-1\/projet-loi\/C-27\/premiere-lecture?col=2\">projet de Loi sur l\u2019intelligence artificielle et les donn\u00e9es.<\/a><\/p>\n\n\n\n<p>Derri\u00e8re ce vocabulaire tr\u00e8s technique \u2014 mod\u00e8les, donn\u00e9es, risques \u2014 se joue pourtant une question profond\u00e9ment politique&nbsp;: comment les institutions canadiennes, cens\u00e9es \u00ab\u2009prendre soin\u2009\u00bb du collectif, peuvent\u2011elles d\u00e9l\u00e9guer une partie de leurs d\u00e9cisions \u00e0 des syst\u00e8mes d\u2019IA tout en demeurant redevables devant la population\u2009?<\/p>\n\n\n\n<p>Au moment o\u00f9 le Canada (et des provinces) affine ses choix r\u00e9glementaires, il me semble essentiel de nommer ce que nous sommes en train d\u2019installer&nbsp;: non pas seulement des outils, mais une infrastructure de d\u00e9cision qui reconfigure la mani\u00e8re dont l\u2019\u00c9tat, les organismes publics et m\u00eame les grandes organisations priv\u00e9es se pr\u00e9occupent des citoyennes et citoyens \u2014 ou les laissent de c\u00f4t\u00e9.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Quand l\u2019IA ajoute une couche de gouvernance <\/h2>\n\n\n\n<p>On d\u00e9crit encore volontiers l\u2019IA comme un simple outil. Dans les faits, que ce soit dans l\u2019\u00e9ducation, la sant\u00e9, l\u2019administration publique ou la justice, on lui d\u00e9l\u00e8gue une part croissante des prises de d\u00e9cisions. \u00c0 titre d\u2019exemples, elle classe des dossiers, priorise des interventions, signale des \u00ab\u2009risques\u2009\u00bb ou oriente des trajectoires.<\/p>\n\n\n\n<p>Dans les universit\u00e9s canadiennes, des syst\u00e8mes d\u2019IA sont d\u00e9j\u00e0 utilis\u00e9s pour la correction, la d\u00e9tection du plagiat, le soutien \u00e0 la r\u00e9daction ou l\u2019orientation des parcours \u00e9tudiants, pendant qu\u2019on tente de concilier innovation p\u00e9dagogique, libert\u00e9 acad\u00e9mique et encadrement de l\u2019IA g\u00e9n\u00e9rative. Dans les syst\u00e8mes de sant\u00e9 provinciaux, des outils d\u2019aide au diagnostic, de gestion des listes d\u2019attente et d\u2019optimisation des trajectoires de soins contribuent \u00e0 r\u00e9partir des ressources rares et \u00e0 d\u00e9cider qui sera vu, quand, et selon quelle priorit\u00e9.<\/p>\n\n\n\n<p>Dans l\u2019administration publique, <a href=\"https:\/\/www.canada.ca\/fr\/gouvernement\/systeme\/gouvernement-numerique\/innovations-gouvernementales-numeriques\/utilisation-responsable-ai\/principes.html\">le gouvernement f\u00e9d\u00e9ral<\/a> et plusieurs provinces se dotent de cadres pour \u00ab\u2009l\u2019utilisation responsable de l\u2019IA\u2009\u00bb&nbsp;: principes d\u2019\u00e9quit\u00e9, de transparence, d\u2019explicabilit\u00e9, de respect des droits. Comme l\u2019\u00e9nonce la <a href=\"https:\/\/www.quebec.ca\/gouvernement\/politiques-orientations\/strategie-integration-ia-administration-publique-2021-2026\">Strat\u00e9gie d\u2019int\u00e9gration de l\u2019intelligence artificielle dans l\u2019administration publique&nbsp;2021-2026<\/a>, l\u2019IA apparait comme un levier de modernisation de l\u2019\u00c9tat et d\u2019am\u00e9lioration des services.<\/p>\n\n\n\n<p>Mais une fois ces syst\u00e8mes int\u00e9gr\u00e9s, ils deviennent largement invisibles pour le public \u2014 et parfois pour les d\u00e9cideurs eux\u2011m\u00eames, qui finissent par se fier aux tableaux de bord et aux scores de risque. Comme le souligne <a href=\"https:\/\/www.obvia.ca\/sites\/obvia.ca\/files\/ressources\/L%E2%80%99IA%20dans%20le%20secteur%20public_Cas%20d%E2%80%99utilisation%20et%20enjeux%20%C3%A9thiques-VF.pdf\">Steeve Jacob<\/a>, professeur titulaire de science politique \u00e0 l\u2019Universit\u00e9 Laval, et <a href=\"https:\/\/www.obvia.ca\/sites\/obvia.ca\/files\/ressources\/L%E2%80%99IA%20dans%20le%20secteur%20public_Cas%20d%E2%80%99utilisation%20et%20enjeux%20%C3%A9thiques-VF.pdf\">S\u00e9bastien Brousseau<\/a>, coordonnateur du P\u00f4le d\u2019expertise en cybers\u00e9curit\u00e9 et impacts soci\u00e9taux (Obvia) dans <a href=\"https:\/\/www.obvia.ca\/sites\/obvia.ca\/files\/ressources\/L%E2%80%99IA%20dans%20le%20secteur%20public_Cas%20d%E2%80%99utilisation%20et%20enjeux%20%C3%A9thiques-VF.pdf\">un rapport<\/a> publi\u00e9 en mai 2024 sur l\u2019IA dans le secteur public&nbsp;:<\/p>\n\n\n\n<p>\u00ab\u2009(\u2026) <em>\u00c0 l\u2019heure o\u00f9 les technologies d\u2019intelligence artificielle occupent une place grandissante dans la vie des citoyens et que les administrations publiques introduisent progressivement ces technologies au sein de leurs services, il semble que les fonctions et possibilit\u00e9s associ\u00e9es aux syst\u00e8mes d\u2019IA (SIA) ne sont pas toujours clairement connues ou comprises par les d\u00e9cideurs, les usagers ou les employ\u00e9s du secteur public.<\/em>\u2009\u00bb<\/p>\n\n\n\n<p>Ce sont pourtant ces syst\u00e8mes qui, concr\u00e8tement, dessinent les chemins d\u2019acc\u00e8s aux droits, aux services et aux opportunit\u00e9s. \u00c0 cette \u00e9chelle, l\u2019IA agit d\u00e9j\u00e0 comme une infrastructure de d\u00e9cision canadienne.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Un enjeu pour l\u2019\u00e9galit\u00e9 et la reddition de comptes<\/h2>\n\n\n\n<p>Cette infrastructure n\u2019est pas neutre. Les travaux men\u00e9s au Qu\u00e9bec par le <a href=\"https:\/\/conseilinnovation.quebec\/wp-content\/uploads\/2023\/10\/CIQ_Impacts_societe_IA_EDS-1.pdf\">Conseil de l\u2019Innovation du Qu\u00e9bec<\/a> confirment les impacts soci\u00e9taux de l\u2019IA, tout comme les critiques adress\u00e9es au projet de loi f\u00e9d\u00e9rale, \u00e0 savoir les enjeux humains, sociaux et d\u00e9mocratiques.<\/p>\n\n\n\n<p>Le premier risque est celui de l\u2019opacit\u00e9. Quand des d\u00e9cisions importantes \u2014 admissibilit\u00e9 \u00e0 un programme, priorisation d\u2019un dossier, \u00e9valuation d\u2019un risque \u2014 reposent en partie sur des syst\u00e8mes algorithmiques, il devient difficile, m\u00eame pour les professionnels, d\u2019expliquer clairement \u00ab\u2009comment\u2009\u00bb on en est arriv\u00e9 l\u00e0. Pour l\u2019\u00e9tudiante refus\u00e9e, le patient reclass\u00e9 ou le citoyen rel\u00e9gu\u00e9 au bas d\u2019une liste, la d\u00e9cision peut para\u00eetre arbitraire. Dans une d\u00e9mocratie comme le Canada, vivre sous un r\u00e9gime de d\u00e9cisions que l\u2019on ne peut ni comprendre ni faire expliquer est un probl\u00e8me majeur de l\u00e9gitimit\u00e9.<\/p>\n\n\n\n<p>Le deuxi\u00e8me risque est celui de l\u2019injustice. Lorsque le gouvernement du Canada confirme, dans le cadre de sa <a href=\"https:\/\/www.canada.ca\/fr\/immigration-refugies-citoyennete\/organisation\/transparence\/strategie-intelligence-artificielle.html\">Strat\u00e9gie en mati\u00e8re d\u2019intelligence artificielle<\/a>, que \u00ab\u2009(\u2026) <em>l\u2019IRCC utilisera l\u2019IA de fa\u00e7on \u00e0 ce qu\u2019elle soit centr\u00e9e sur l\u2019humain et responsable, transparente et explicable, juste et \u00e9quitable, s\u00e9curis\u00e9e et respectueuse de la vie priv\u00e9e, et enfin, valide et fiable<\/em>\u2009\u00bb, c\u2019est qu\u2019il est conscient que l\u2019IA peut reproduire ou amplifier des biais pr\u00e9sents dans les donn\u00e9es et les pratiques.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><a class=\"\" href=\"https:\/\/policyoptions.irpp.org\/fr\/2025\/10\/approche-canada-ia\/\">Le Canada doit miser sur l\u2019IA durable<\/a><\/p>\n<\/blockquote>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p><a class=\"\" href=\"https:\/\/policyoptions.irpp.org\/fr\/2025\/12\/reconciliation-ia-medias-sociaux\/\">La r\u00e9conciliation \u00e0 l\u2019\u00e8re de l\u2019IA et des m\u00e9dias sociaux<\/a><\/p>\n<\/blockquote>\n\n\n\n<p>Sans vigilance, certains groupes \u2014 communaut\u00e9s autochtones, minorit\u00e9s racis\u00e9es, personnes migrantes, personnes en situation de pauvret\u00e9 \u2014 risquent d\u2019\u00eatre syst\u00e9matiquement d\u00e9savantag\u00e9s par des mod\u00e8les entra\u00een\u00e9s sur un pass\u00e9 in\u00e9gal. Dans un pays qui se dit engag\u00e9 envers la r\u00e9conciliation et l\u2019\u00e9galit\u00e9, laisser des syst\u00e8mes opaques reconfigurer silencieusement l\u2019acc\u00e8s aux droits, aux services ou \u00e0 la protection sociale est politiquement explosif.<\/p>\n\n\n\n<p>Troisi\u00e8me risque&nbsp;: la dilution des responsabilit\u00e9s. Lorsque des d\u00e9cisions sont contest\u00e9es, il devient tentant de se retrancher derri\u00e8re l\u2019outil \u2014 \u00ab\u2009c\u2019est le syst\u00e8me\u2009\u00bb, \u00ab\u2009c\u2019est l\u2019algorithme\u2009\u00bb.<\/p>\n\n\n\n<p>Cette crainte a \u00e9t\u00e9 justement \u00e9nonc\u00e9e par <a href=\"https:\/\/www.administration-numerique.chaire.ulaval.ca\/print\/pdf\/node\/169\">Madalina Busuioc<\/a>, professeure de la Facult\u00e9 des Sciences sociales et Humanit\u00e9s, Science politique et Administration publique du Vrije Unversiteit Amsterdam, qui souligne que cette situation questionne la notion m\u00eame de responsabilit\u00e9.<\/p>\n\n\n\n<p>Qui est imputable\u2009? Le fournisseur de la solution technologique, l\u2019organisme public qui l\u2019a d\u00e9ploy\u00e9e, le minist\u00e8re qui a fix\u00e9 le cadre, le l\u00e9gislateur qui a adopt\u00e9 une loi permissive\u2009? Si nous ne clarifions pas ces responsabilit\u00e9s \u2014 en droit et dans la pratique \u2014 nous fragilisons le principe m\u00eame de reddition de comptes qui fonde la confiance dans les institutions canadiennes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Ce qu\u2019encadrer l\u2019IA doit garantir<\/h2>\n\n\n\n<p>Pour autant, l\u2019IA n\u2019est pas condamn\u00e9e \u00e0 miner la d\u00e9mocratie canadienne. Elle peut aussi \u00eatre un levier pour renforcer la justice, la transparence et l\u2019\u00e9quit\u00e9, \u00e0 condition que les cadres qu\u00e9b\u00e9cois et f\u00e9d\u00e9ral la reconnaissent explicitement comme une infrastructure civique, et non comme un simple produit technologique \u00e0 r\u00e9guler \u00e0 la marge.<\/p>\n\n\n\n<p>Trois exigences me semblent incontournables pour un encadrement cr\u00e9dible.<\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li><strong>Un droit pancanadien \u00e0 la compr\u00e9hension et \u00e0 l\u2019explication<\/strong>&nbsp;<br><a href=\"https:\/\/www.tbs-sct.canada.ca\/pol\/doc-fra.aspx?id=32592\">Les lignes directrices canadiennes<\/a> et <a href=\"https:\/\/cdn-contenu.quebec.ca\/cdn-contenu\/adm\/min\/cybersecurite_numerique\/Publications\/Strategie_IA\/Enonce_IA.pdf\">des provinces<\/a> sur l\u2019IA dans le secteur public vont d\u00e9j\u00e0 dans le sens de l\u2019explicabilit\u00e9 et de la transparence. Mais ces principes doivent \u00eatre traduits en droits applicables&nbsp;: toute personne au Canada devrait pouvoir savoir si l\u2019IA a \u00e9t\u00e9 utilis\u00e9e dans une d\u00e9cision qui la concerne, \u00e0 quelles fins, \u00e0 partir de quel type de donn\u00e9es et selon quelles balises. Cela ne peut pas reposer uniquement sur la bonne volont\u00e9 administrative; cela doit figurer au c\u0153ur des textes l\u00e9gislatifs.<\/li>\n<\/ol>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Un droit r\u00e9el \u00e0 la contestation humaine et \u00e0 la r\u00e9vision&nbsp;<\/strong><br>Il ne suffit pas de savoir que l\u2019IA a \u00e9t\u00e9 utilis\u00e9e dans un processus d\u00e9cisionnel&nbsp;: encore faut\u2011il pouvoir contester le r\u00e9sultat et obtenir une r\u00e9vision humaine, dans un cadre clair, accessible et \u00e9quitable. Comme le soulignait le <a href=\"https:\/\/www.priv.gc.ca\/fr\/a-propos-du-commissariat\/ce-que-nous-faisons\/consultations\/consultations-terminees\/consultation-ai\/reg-fw_202011\/?wbdisable=true\">Commissariat \u00e0 la protection de la vie priv\u00e9e au Canada<\/a>, un encadrement canadien cr\u00e9dible suppose de cr\u00e9er des r\u00e8gles sp\u00e9cifiques pour la prise de d\u00e9cision automatis\u00e9e afin d\u2019assurer la transparence, l\u2019exactitude, et l\u2019\u00e9quit\u00e9 et, implicitement, la tra\u00e7abilit\u00e9. Ce cadre imposerait aux entreprises une responsabilit\u00e9 d\u00e9montrable en tout temps, pouvant \u00eatre v\u00e9rifi\u00e9e, si n\u00e9cessaire, sur place par des inspections proactives et d\u2019autres mesures d\u2019application. \u00c0 titre d\u2019exemples, cette v\u00e9rification pourrait porter sur la v\u00e9rification des registres des traitements des donn\u00e9es et pour quelles finalit\u00e9s, la tra\u00e7abilit\u00e9 des donn\u00e9es et leurs impacts sur les personnes ou encore, une v\u00e9rification des \u00e9chantillons des d\u00e9cisions prises pour v\u00e9rifier les risques de biais algorithmiques.<\/li>\n<\/ol>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Une participation citoyenne au c\u0153ur de la d\u00e9finition des usages de l\u2019IA<\/strong>&nbsp;<br>Au Qu\u00e9bec, la r\u00e9flexion collective pilot\u00e9e par le <a href=\"https:\/\/conseilinnovation.quebec\/intelligence-artificielle\/reflexion-collective\/\">Conseil de l\u2019innovation<\/a> a montr\u00e9 que les citoyens sont capables de se prononcer de mani\u00e8re nuanc\u00e9e sur les usages acceptables ou non de l\u2019IA. Au niveau canadien, le d\u00e9bat autour de la loi f\u00e9d\u00e9rale sur l\u2019IA gagnerait \u00e0 s\u2019inspirer de cette approche&nbsp;: multiplier les consultations structur\u00e9es, reconna\u00eetre le r\u00f4le des communaut\u00e9s autochtones, des groupes communautaires, des milieux de recherche et des organisations de la soci\u00e9t\u00e9 civile dans la d\u00e9finition des zones \u00ab\u2009rouges\u2009\u00bb, \u00ab\u2009jaunes\u2009\u00bb et \u00ab\u2009vertes\u2009\u00bb en mati\u00e8re d\u2019usages.<\/li>\n<\/ol>\n\n\n\n<p><\/p>\n\n\n\n<p>\u00c0 ces exigences, il faut ajouter la capacit\u00e9 d\u2019actualisation et l\u2019agilit\u00e9&nbsp;: les syst\u00e8mes d\u2019IA, les mod\u00e8les d\u2019affaires et les attentes sociales \u00e9voluent rapidement. Les cadres juridiques doivent donc \u00eatre con\u00e7us pour \u00eatre r\u00e9vis\u00e9s r\u00e9guli\u00e8rement \u2014 ce que recommandent d\u00e9j\u00e0 certains rapports \u2014 afin d\u2019\u00e9viter que les lois ne deviennent, en quelques ann\u00e9es, d\u00e9cal\u00e9es par rapport aux pratiques sur le terrain.<\/p>\n\n\n\n<p>D\u00e9j\u00e0 lors de l\u2019\u00e9tude du <a href=\"https:\/\/ised-isde.canada.ca\/site\/innover-meilleur-canada\/fr\/loi-lintelligence-artificielle-donnees-liad-document-complementaire\">document compl\u00e9mentaire de la Loi sur l\u2019intelligence artificielle et les donn\u00e9es (LIAD)<\/a>, des chercheurs avaient accueilli positivement la volont\u00e9 du gouvernement canadien d\u2019opter pour une approche agile.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Choisir comment nous voulons nous gouverner<\/h2>\n\n\n\n<p>La question n\u2019est plus de savoir si nous voulons de l\u2019IA dans nos institutions&nbsp;: elle est d\u00e9j\u00e0 l\u00e0, int\u00e9gr\u00e9e aux strat\u00e9gies de transformation num\u00e9rique des gouvernements, aux plans de modernisation des services publics et aux mod\u00e8les d\u2019affaires de nombreuses entreprises canadiennes.<\/p>\n\n\n\n<p>La vraie question, pour le Canada, est de d\u00e9cider comment nous voulons que cette infrastructure de d\u00e9cision s\u2019articule avec nos principes d\u00e9mocratiques&nbsp;: \u00e9galit\u00e9 devant la loi, respect des droits, r\u00e9conciliation, reddition de comptes, participation citoyenne.<\/p>\n\n\n\n<p>Nous pouvons laisser les architectures techniques et commerciales d\u00e9cider, par d\u00e9faut, de ce qui est important, urgent ou acceptable. Ou nous pouvons consid\u00e9rer l\u2019IA comme une infrastructure civique \u00e0 d\u00e9battre, \u00e0 encadrer et \u00e0 ajuster, en gardant au centre la capacit\u00e9 de jugement, de d\u00e9lib\u00e9ration et de responsabilit\u00e9 \u2014 bref, ce qui fait que nous nous gouvernons encore nous\u2011m\u00eames, comme soci\u00e9t\u00e9 d\u00e9mocratique.<\/p>\n\n\n\n<p>Encadrer l\u2019IA, ce n\u2019est donc pas seulement encadrer une technologie. C\u2019est encadrer la mani\u00e8re dont, comme pays, nous voulons continuer \u00e0 prendre soin du collectif \u00e0 l\u2019\u00e8re de syst\u00e8mes qui, par d\u00e9faut, ne votent pas, ne d\u00e9lib\u00e8rent pas et ne rendent pas de comptes. Si le Canada veut \u00eatre cr\u00e9dible lorsqu\u2019il affirme vouloir devenir un leader en mati\u00e8re d\u2019IA responsable, c\u2019est en s\u2019assurant que l\u2019IA <a href=\"https:\/\/www.canada.ca\/fr\/gouvernement\/systeme\/gouvernement-numerique\/innovations-gouvernementales-numeriques\/utilisation-responsable-ai.html\">\u00ab\u2009(\u2026) \u00ab\u2009soit encadr\u00e9e par des valeurs, une \u00e9thique et des lois clairement d\u00e9finies.\u2009\u00bb<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dans l\u2019ensemble du pays, l\u2019intelligence artificielle (IA) s\u2019installe discr\u00e8tement au c\u0153ur des processus de d\u00e9cision. Des universit\u00e9s mettent en place des cadres d\u2019usage pour l\u2019IA g\u00e9n\u00e9rative, des minist\u00e8res f\u00e9d\u00e9raux et provinciaux publient des lignes directrices pour l\u2019IA dans les services publics, et Ottawa avance son projet de Loi sur l\u2019intelligence artificielle et les donn\u00e9es. Derri\u00e8re [&hellip;]<\/p>\n","protected":false},"featured_media":303760,"template":"","meta":{"_acf_changed":false,"content-type":"","ep_exclude_from_search":false,"apple_news_api_created_at":"2026-03-16T10:30:07Z","apple_news_api_id":"c64c53b0-04c0-434f-98b8-ce1c76832955","apple_news_api_modified_at":"2026-03-16T10:30:07Z","apple_news_api_revision":"AAAAAAAAAAD\/\/\/\/\/\/\/\/\/\/w==","apple_news_api_share_url":"https:\/\/apple.news\/AxkxTsATAQ0-YuM4cdoMpVQ","apple_news_cover_media_provider":"image","apple_news_coverimage":0,"apple_news_coverimage_caption":"","apple_news_cover_video_id":0,"apple_news_cover_video_url":"","apple_news_cover_embedwebvideo_url":"","apple_news_is_hidden":"","apple_news_is_paid":"","apple_news_is_preview":"","apple_news_is_sponsored":"","apple_news_maturity_rating":"","apple_news_metadata":"\"\"","apple_news_pullquote":"","apple_news_pullquote_position":"","apple_news_slug":"","apple_news_sections":[],"apple_news_suppress_video_url":false,"apple_news_use_image_component":false},"categories":[],"tags":[],"article-status":[9449],"irpp-category":[4250,4222,4339],"section":[],"irpp-tag":[7105,9463],"class_list":["post-303758","issues","type-issues","status-publish","has-post-thumbnail","hentry","irpp-category-democratie","irpp-category-intelligence-artificielle","irpp-category-loi-et-justice","irpp-tag-gouvernement-numerique","irpp-tag-ia"],"acf":[],"apple_news_notices":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v25.8 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?<\/title>\n<meta name=\"description\" content=\"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?\" \/>\n<meta property=\"og:description\" content=\"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/\" \/>\n<meta property=\"og:site_name\" content=\"Policy Options\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/IRPP.org\" \/>\n<meta property=\"og:image\" content=\"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2230\" \/>\n\t<meta property=\"og:image:height\" content=\"1186\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:site\" content=\"@irpp\" \/>\n<meta name=\"twitter:label1\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data1\" content=\"8 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/\",\"url\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/\",\"name\":\"L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?\",\"isPartOf\":{\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg\",\"datePublished\":\"2026-03-16T10:30:00+00:00\",\"description\":\"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?\",\"breadcrumb\":{\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage\",\"url\":\"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg\",\"contentUrl\":\"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg\",\"width\":2230,\"height\":1186,\"caption\":\": L\u2019IA n\u2019est pas condamn\u00e9e \u00e0 miner la d\u00e9mocratie canadienne. Elle peut aussi \u00eatre un levier pour renforcer la justice, la transparence et l\u2019\u00e9quit\u00e9.\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/policyoptions.irpp.org\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Qui d\u00e9cide vraiment \u00e0 l\u2019\u00e8re de l\u2019IA ?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/policyoptions.irpp.org\/fr\/#website\",\"url\":\"https:\/\/policyoptions.irpp.org\/fr\/\",\"name\":\"Policy Options\",\"description\":\"Institute for Research on Public Policy\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/policyoptions.irpp.org\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?","description":"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/","og_locale":"fr_FR","og_type":"article","og_title":"L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?","og_description":"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?","og_url":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/","og_site_name":"Policy Options","article_publisher":"https:\/\/www.facebook.com\/IRPP.org","og_image":[{"width":2230,"height":1186,"url":"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_site":"@irpp","twitter_misc":{"Est. reading time":"8 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/","url":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/","name":"L\u2019IA dans les d\u00e9cisions publiques : qui est responsable\u2009?","isPartOf":{"@id":"https:\/\/policyoptions.irpp.org\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage"},"image":{"@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage"},"thumbnailUrl":"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg","datePublished":"2026-03-16T10:30:00+00:00","description":"L\u2019IA influence d\u00e9j\u00e0 les d\u00e9cisions publiques. Quels enjeux pour la d\u00e9mocratie, la transparence et la reddition de comptes\u2009?","breadcrumb":{"@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#primaryimage","url":"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg","contentUrl":"https:\/\/policyoptions.irpp.org\/wp-content\/uploads\/2026\/03\/AI-regulation-e1773413951815.jpg","width":2230,"height":1186,"caption":": L\u2019IA n\u2019est pas condamn\u00e9e \u00e0 miner la d\u00e9mocratie canadienne. Elle peut aussi \u00eatre un levier pour renforcer la justice, la transparence et l\u2019\u00e9quit\u00e9."},{"@type":"BreadcrumbList","@id":"https:\/\/policyoptions.irpp.org\/fr\/2026\/03\/ia-democratie-canadienne\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/policyoptions.irpp.org\/fr\/"},{"@type":"ListItem","position":2,"name":"Qui d\u00e9cide vraiment \u00e0 l\u2019\u00e8re de l\u2019IA ?"}]},{"@type":"WebSite","@id":"https:\/\/policyoptions.irpp.org\/fr\/#website","url":"https:\/\/policyoptions.irpp.org\/fr\/","name":"Policy Options","description":"Institute for Research on Public Policy","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/policyoptions.irpp.org\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"}]}},"_links":{"self":[{"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/issues\/303758","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/issues"}],"about":[{"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/types\/issues"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/media\/303760"}],"wp:attachment":[{"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/media?parent=303758"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/categories?post=303758"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/tags?post=303758"},{"taxonomy":"article-status","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/article-status?post=303758"},{"taxonomy":"irpp-category","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/irpp-category?post=303758"},{"taxonomy":"section","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/section?post=303758"},{"taxonomy":"irpp-tag","embeddable":true,"href":"https:\/\/policyoptions.irpp.org\/fr\/wp-json\/wp\/v2\/irpp-tag?post=303758"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}