(English version available here)

Comme c’est souvent le cas lorsqu’une percée technologique vient chambouler l’aventure humaine, les possibilités stupéfiantes de l’intelligence artificielle (IA) ont pris un peu partout les gouvernements au dépourvu.

Fouettés par l’urgence d’encadrer une avancée au potentiel aussi vertigineux, ils se sont lancés dans des initiatives qui, à ce jour, apparaissent éparses et de portée variable.

Plusieurs États ont déjà publié des énoncés d’intentions, dont le Royaume-Uni et le Japon, mais c’est l’Union européenne qui a été la première à soumettre une législation de l’IA avec une proposition de règlement, en avril 2021.

Bruxelles se démarque par une approche globale, qui divise le marché des systèmes d’IA en quatre niveaux de risques. On en retient l’interdiction de certains usages (un système d’IA qui exploiterait les vulnérabilités dues à l’âge ou au handicap, par exemple) et l’introduction d’exigences très strictes dans le déploiement de systèmes identifiés à haut risque.

De son côté, le gouvernement américain n’est pas parvenu à faire adopter un projet de législation spécifique présenté à la Chambre des représentants, l’Algorithmic Accountability Act. Quatre organismes fédéraux ont toutefois précisé, dans une déclaration commune parue en avril dernier, leurs efforts concertés de lutte contre la discrimination et les biais dans les systèmes automatisés et l’IA.

Un premier pas au Canada

Au Canada, en parallèle des discussions sur les aspects éthiques, le tout premier geste d’encadrement de l’IA a été la Directive sur la prise de décisions automatisée, adoptée en 2019 par le gouvernement fédéral.

Cette directive a pour objectif de réduire les risques liés à l’usage de l’IA et de garantir que le gouvernement fédéral utilise cette technologie (ce qu’il fait pour le triage des demandes de visa de résident temporaire présentées depuis l’étranger, entre autres) dans le respect des principes fondamentaux du droit administratif, comme la transparence, la responsabilisation, la légalité et l’équité procédurale.

La directive présente toutefois des limites et ne saurait suffire à encadrer définitivement l’IA au Canada. Elle n’est en effet qu’un instrument de politique qui omet certains domaines, comme la matière criminelle, et qui ne s’applique pas à certains organismes fédéraux, comme l’Agence du revenu du Canada.

La LIAD, pièce de résistance

Le ministre de l’Innovation, des Sciences et de l’Industrie a présenté en juin le projet de loi C-27. La troisième partie de ce projet de loi, la Loi sur l’intelligence artificielle et les données (LIAD) vise à encadrer la conception, le développement, l’utilisation et la commercialisation des systèmes d’IA pour en interdire les usages susceptibles de causer un préjudice sérieux aux personnes.

Un premier écueil est que la LIAD ne s’applique pas aux institutions fédérales. Les domaines de la défense nationale, du renseignement de sécurité et de la sécurité des télécommunications sont également exclus, de même que toute autre personne responsable d’un ministère ou d’un organisme fédéral ou provincial et désignée par règlement.

Au bout du compte, la LIAD se limite à réglementer les entreprises privées en vertu de compétences constitutionnelles fédérales qui limitent son champ d’application « (aux) échanges et (au) commerce internationaux et interprovinciaux en matière de systèmes d’intelligence artificielle ».

Puisque la technologie ne s’arrête évidemment pas aux frontières, ne faudrait-il pas que les gouvernements provinciaux et fédéral entament des discussions? Un projet de loi sur l’IA se dessine au Québec, mais on ne détecte aucune volonté de collaboration avec le gouvernement fédéral pour le moment.

Une approche sous l’angle des risques

Dans la lignée de la proposition de règlement européen, la LIAD s’intéresse à toute technique d’IA conçue pour générer du contenu ou dégager des prédictions, des recommandations ou des décisions. Elle approche l’enjeu sous l’angle des risques générés par l’IA, ce que les pays du G7 semblent également vouloir faire.

Le projet de loi canadien vise à encadrer les systèmes d’IA à « incidence élevée » et spécifiquement les « risques de préjudice ou de résultats biaisés », alors que le texte européen cible les risques élevés pour « la santé, la sécurité et les droits fondamentaux ».

Dans la vision canadienne, le responsable du système d’IA serait tenu d’identifier « l’incidence élevée », mais sans considération particulière du secteur d’activité – contrairement au projet européen qui établit une liste exhaustive de systèmes d’IA à haut risque par domaine (justice, immigration, éducation et sécurité, entre autres).

Le préjudice d’un individu peut être physique, psychologique ou économique. Les résultats sont considérés comme biaisés si le système d’IA défavorise, directement ou indirectement et sans justification, un individu sur le fondement d’un ou plusieurs motifs prévus par la Loi canadienne sur les droits de la personne ou de leur effet combiné.

Plus flou, mais plus flexible

L’approche canadienne apparaît plus floue, mais elle offrirait l’avantage d’une meilleure flexibilité que l’esquisse européenne. Encore faudrait-il, toutefois, que la qualification des risques soit suffisamment décrite et que le niveau « d’incidence élevée » soit clairement fixé. Sur ce point, et en de nombreux endroits du texte, la LIAD renvoie à de futurs règlements du ministère de l’Innovation, Sciences et Développement économique Canada. Ceci engendre beaucoup d’incertitude et confère un important rôle décisionnel au pouvoir exécutif.

Un document complémentaire datant de mars 2023 apporte des clarifications utiles permettant aux entreprises d’évaluer le risque « d’incidence élevée » de leur système d’IA (par exemple, les risques de préjudices physiques ou psychologiques ou la gravité des préjudices potentiels).

Ce document identifie également des types précis de systèmes d’IA devant faire l’objet d’une attention particulière, notamment les systèmes biométriques utilisés pour identifier des individus et prévoir leurs comportements, ainsi que les systèmes capables d’influencer le comportement humain à grande échelle.

Il est toutefois nécessaire que ces critères de qualification des risques soient ajoutés dans la loi.

L’épineuse question de la responsabilité

La LIAD énonce une pluralité de personnes susceptibles d’être responsables (concepteur, développeur, gestionnaire d’exploitation), ce qui a l’avantage d’englober la multitude des activités menées dans la mise en œuvre de cette technologie et la diversité des façons de le faire.

Pour en arriver à un juste partage de la responsabilité, il faudra cependant déterminer au cas par cas le rôle de chacun. Cette tâche fondamentale est rendue difficile aujourd’hui avec l’arrivée de modèles d’IA générative comme ChatGPT, qui peuvent être manipulés et adaptés à des utilisations non prévues à l’origine. Cela oblige à considérer le rôle de ceux qui déploient le système, et non plus seulement celui du concepteur initial.

L’enjeu est de taille, car les responsables assument des obligations en amont du déploiement des systèmes : ils seraient imputables de la transparence des mesures prises pour atténuer les risques de préjudice et de biais. Le manquement aux obligations constitue une infraction criminelle passible d’amendes pouvant atteindre 25 millions $ ou 5 % des recettes globales brutes, si ce dernier montant est plus élevé.

Élargir le débat

Enfin, puisque les systèmes d’IA concerneront à peu près tout le monde, un débat démocratique ne s’impose-t-il pas ? Les discussions autour de la LIAD sont nombreuses et opposent les partisans et les détracteurs de cette loi, mais elles restent pour le moment cantonnées aux experts.

Les prochains débats à la Chambre des communes (Comité permanent de l’industrie et de la technologie) seront l’occasion d’améliorer le texte et, si la LIAD est adoptée, il faudra au moins deux ans pour que des mesures et des règles soient établies. Durant cette période, le gouvernement entend mener des consultations et publier des projets de règlement.

Le débat démocratique devra alors être mené sérieusement pour que la loi adoptée soit non seulement claire et agile, mais aussi légitime.

La route est encore longue, tant sur le fond que sur la méthode, mais il faut se réjouir de voir que la nécessité d’un encadrement législatif a été entendue. C’est dans l’intérêt d’un leadership canadien pour la promotion d’une IA éthique, responsable et – souhaitons-le – équitable.

À lire dans cette série :

L’IRPP TIENT UN WEBINAIRE (GRATUIT) SUR L’INTELLIGENCE ARTIFICIELLE LE 5 OCTOBRE PROCHAIN, À 13 h (HE).

Cliquez ici pour vous inscrire!

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Anne-Sophie Hulin
Anne-Sophie Hulin est professeure à la faculté de droit de l’Université de Sherbrooke et Titulaire de la Chaire justice sociale et intelligence artificielle (Fondation Abeona, ENS-PSL, OBVIA).

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License