(English version available here)
Comment le Québec devrait-il encadrer l’intelligence artificielle (IA) ? Après avoir consulté plusieurs centaines d’experts, le Conseil de l’innovation du Québec a récemment déposé son rapport Prêt pour l’IA, qui semble marquer les prémices d’une loi-cadre sur l’IA dans la province. Cela fait suite à un processus de consultation réunissant plusieurs experts et de ce qu’on a qualifié de forum public sur l’IA.
Saluons tout d’abord cette initiative, car une loi provinciale permettrait au Québec d’imposer son leadership en matière d’IA responsable. Toutefois, il ne faudrait pas que ce futur projet de loi reproduise les lacunes ou certains travers de son équivalent fédéral, ou pire, qu’il en crée de nouveaux.
Rappelons que la récente consultation initiée par Ottawa concernant un code de conduite pour les systèmes d’intelligence artificielle générative a fait l’objet de vives critiques, notamment en raison de son manque de transparence. L’absence de consultations pour la version initiale de la Loi sur l’intelligence artificielle et les données (LIAD) a, au même titre, été jugée particulièrement préoccupante.
Le Québec pourrait éviter ces erreurs au niveau provincial, en remplissant certains des objectifs clés d’une consultation, tels que l’éducation du public et l’engagement démocratique.
C’est la raison pour laquelle il convient, dès à présent, de pointer du doigt les éventuels écueils que cet encadrement pourrait rencontrer.
Observons en premier lieu la manière dont le rapport du Conseil de l’innovation du Québec a été façonné, à commencer par la tenue de son forum public sur l’IA du 2 novembre dernier. Loin de faire place au débat, on nous a plutôt présenté un narratif déjà familier sur l’IA au Québec et au Canada, encadré par un petit nombre de chercheurs et de praticiens – un panel d’experts choisis selon des critères opaques et manquant cruellement de diversité.
Ce forum proposait des pistes de réflexion sur différentes perspectives liées aux impacts attendus de l’IA sur la société, entre autres : « les impacts de l’intelligence artificielle sur le travail et le marché de l’emploi québécois » ou encore « le rôle du Québec dans l’encadrement international de l’IA et comme chef de file du développement et du déploiement responsables de l’IA ». À défaut d’un espace de dialogue au sein duquel les parties prenantes – citoyens, société civile, experts, recherche universitaire, entreprise, etc. – pouvaient échanger et partager leurs idées ou opinions, il s’agissait plutôt d’un enchaînement de discours autorisant, au mieux, quelques brèves questions de la part du public.
Favoriser l’innovation tout en protégeant le public
Par ailleurs, le Québec devra éviter de succomber à la crainte qu’un encadrement trop strict de l’IA ne freine l’innovation. Cette rhétorique est revenue à maintes reprises durant les discussions ayant conduit au rapport du Conseil de l’innovation. Certes, il faut laisser libre cours à l’innovation, mais cela ne doit pas se faire au détriment de la protection du public.
Cette crainte d’une régulation suggère des risques conflictuels à l’instar de ceux que l’on a vus émerger récemment au Canada entre des géants de la technologie et les médias d’information. Tout laisse à penser que si les pratiques des géants du Web avaient été mieux encadrées dès le départ, certaines dérives – dont le blocage de nouvelles sur certaines plateformes – ne se seraient pas produites.
Cela étant, prenons ces éléments comme des retours d’expériences à considérer lors des prochains débats sur l’encadrement de l’IA au Québec, qui approchent à grands pas. Autrement dit, puisque les algorithmes sont à nos portes, voyons-y une occasion de proposer une réglementation adéquate et, somme toute, de prévenir plutôt que de guérir.
Miser sur la transparence et la protection des droits
Aussi, aux premiers balbutiements de l’IA générative, le gouvernement du Québec aurait intérêt à instaurer un encadrement adapté aux dérives technologiques présentes et à venir, en établissant notamment des principes de gouvernance et de transparence des données algorithmiques.
Tout comme ingurgiter de la nourriture nocive pourrait nuire gravement à l’état de notre santé, alimenter les algorithmes avec des données biaisées (ou dont l’usage n’est pas encadré) peut être dangereux. Pensons à l’accroissement des inégalités ou de toute autre dérive à même de présenter un danger pour les citoyens et d’entraver le bon fonctionnement de la démocratie.
Il suffit de penser à la discrimination orchestrée par des systèmes d’IA qui se sont appuyés sur des données préexistantes pour le moins problématiques. L’un des cas les plus frappants est celui de l’entreprise Amazon qui s’était dotée d’un logiciel intelligent dont l’algorithme empêchait injustement le recrutement de femmes adéquatement qualifiées. Mentionnons également COMPAS, un outil utilisé par les tribunaux américains pour évaluer la probabilité qu’un accusé devienne récidiviste, arbitrairement défavorable envers la communauté afro-américaine.
Les risques afférents à la démocratie se retrouvent pour leur part dans l’accroissement d’une désinformation propagée par certains algorithmes, difficile à contrôler et que l’on sait particulièrement dangereuse notamment en période électorale. Imaginons l’impact que de tels systèmes pourraient avoir sur la société s’ils venaient à être utilisés par un plus grand nombre de personnes, et pas toujours les mieux intentionnées.
Comprenons que si les biais humains sont issus de nos valeurs morales (qui peuvent par exemple être le fruit de nos croyances, de l’environnement dans lequel nous évoluons, ou autres), les biais des systèmes d’IA proviennent principalement des données de traitement algorithmique, qui sont pour ainsi dire le fondement des « valeurs morales » de ces robots. En outre, nous devrions être en mesure d’analyser l’état des données à travers lesquelles les algorithmes opèrent, c’est-à-dire de faciliter l’ouverture de leurs données, lorsque cela est nécessaire.
Comme je le suggère pour le projet de loi fédéral C-27 et sa LIAD, le Québec devrait également interdire les systèmes pouvant porter atteinte aux droits et libertés, au principe de non-discrimination et au droit à la dignité, ou encore faire obstacle aux valeurs d’égalité et de justice. Cela concerne, par exemple, les systèmes de reconnaissance biométrique, dont les dangers ont été mis en lumière par le rapport du Commissariat à la protection de la vie privée du Canada sur l’utilisation par la GRC de Clearview AI. Pensons aussi aux systèmes de notation sociale de personnes physiques à l’initiative ou pour le compte des autorités publiques, à l’image du crédit social expérimenté en Chine, dont l’émergence aurait le potentiel de restreindre la liberté des individus et d’engendrer de nouvelles formes d’inégalité sociale.
Prévenir les ravages de l’hypertrucage
Les systèmes à l’origine de l’hypertrucage (deepfake) devraient faire l’objet d’une attention particulière.
L’année dernière, l’ancien ministre du Patrimoine canadien Pablo Rodriguez avait nommé un groupe d’experts pour réfléchir à un projet de loi sur les préjudices en ligne, prenant notamment en compte les photos et vidéos hypertruqués, la désinformation, et tout autre logiciel en mesure de diffuser des faussetés. En novembre dernier, les membres de ce groupe d’experts ont appelé le gouvernement à accélérer la présentation de cette loi sur les « préjudices posés par les plateformes numériques », en raison d’un risque grandissant de mise en danger des enfants canadiens, victimes d’atteintes à leur vie privée et de harcèlement en ligne sur les plateformes qu’ils utilisent quotidiennement.
Cela est d’autant plus pertinent que dernièrement, des images hypertruquées et explicites ont mis en scène des élèves d’une école de Winnipeg via des photos recueillies à partir des médias sociaux.
Bien que le récent projet de loi C-63 considère enfin les hypertrucages de nature sexuelle, notamment à l’égard des enfants, il est curieux que la LIAD n’ait, au préalable, émis aucune réserve à l’encontre des dérives de l’usage de systèmes d’IA destinés à la création d’hypertrucages, et spécifiquement ceux pouvant porter atteinte à la démocratie. À défaut, il existe néanmoins des mesures relatives aux risques qui prévoient que le responsable d’un système à incidence élevée établit, conformément aux règlements, des mesures visant à cerner, évaluer et atténuer les risques de préjudice ou de résultats biaisés que pourrait entraîner l’utilisation du système d’intelligence artificielle.
Dans ce contexte, si le Québec se montre moins permissif que le fédéral envers ces systèmes – en imposant notamment des sanctions propres à la création et/ou la propagation d’hypertrucages malveillants –, ou de tout autre programme algorithmique éthiquement discutable en mesure d’avoir une incidence sur les droits humains, alors il pourrait s’imposer comme l’un des principaux fers de lance de l’IA responsable. Et ce, d’autant plus si le Québec inclut les institutions gouvernementales dans l’encadrement de cette technologie, contrairement à la LIAD qui se limite, hélas, pour l’instant au secteur privé.
En somme, seule une collaboration accrue entre les différents experts québécois en matière d’IA, dans une dynamique pluridisciplinaire, permettra d’aboutir à une proposition de régulation solide en faveur d’une IA responsable dont le potentiel pourrait être reconnu à l’échelle internationale. C’est maintenant que le Québec, où on a vu naître l’influente Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, a un rôle primordial à jouer.