(English version available here)
Il ne se passe plus une semaine sans que les potentialités et les risques de l’intelligence artificielle (IA) alimentent l’actualité.
La technologie infusait déjà notre quotidien depuis un moment au travers des algorithmes des applications de nos téléphones, mais le déploiement public de ChatGPT, un agent conversationnel, fut autant une onde de choc qu’une prise de conscience collective et généralisée des multiples préoccupations sociales que soulève l’IA.
Le droit n’a pas été épargné, et l’attention générée par le phénomène a mis en lumière différents enjeux juridiques susceptibles de caractériser le déploiement de l’intelligence artificielle. On peut penser notamment aux violations de la vie privée et des données personnelles, aux biais des algorithmes, aux atteintes à la propriété intellectuelle et aux risques de désinformation, pour n’en citer que quelques-uns.
S’y ajoute l’utilisation dans un contexte professionnel, qu’il s’agisse de la délégation de certaines tâches ou de la reconfiguration du marché du travail à laquelle on peut s’attendre. Ou, encore, des violations de secrets d’affaires par des salariés imprudents dans leur utilisation de systèmes d’IA générative, et qui dévoileraient les contrats ou d’autres secrets de leur entreprise. Un exemple qui vient à l’esprit serait l’utilisation d’un outil comme ChatGPT pour demander de répondre ou de créer du contenu à partir de faits ou situations de personnes susceptibles d’être confidentiels.
Comme le Far West
Alors que l’opacité de l’IA s’intensifie avec l’abandon du code source libre pour la version 4 de ChatGPT (qui n’est accessible qu’aux abonnés), le modèle se trouve continuellement alimenté et entraîné par ses utilisateurs au gré de l’ajout de quantités massives de données et de corrections itératives. Dans ce contexte, la crainte d’une intelligence artificielle totalement hors de contrôle – au moins pour les utilisateurs finaux – se renforce. Une centaine d’experts ont ainsi appelé à une mise sur pause mondiale des recherches sur l’IA afin d’en responsabiliser ses acteurs et de mieux l’encadrer. Un des pionniers de l’apprentissage au Canada, Geoffrey Hinton, a aussi démissionné de Google afin de pouvoir exprimer librement ses inquiétudes.
Force est de constater que ChatGPT a pu se déployer partout dans le monde sans aucun contrôle préalable ni autorisation quelconque. Ceci vaut pour toute application intégrant de l’IA, au point que certains parlent de « Far West » technologique pour qualifier la situation actuelle.
Un droit trop fragmenté
Pourtant, l’IA n’échappe pas au droit déjà en vigueur. La difficulté réside dans le fait que l’encadrement de l’IA requiert de recourir à plusieurs branches du droit et types de règles qui relèvent de la compétence provinciale ou fédérale, ce qui en complique sa mise en œuvre ou la rend inefficace.
Ainsi, la protection de la vie privée peut être en partie assurée par des lois, fédérales ou provinciales, sur les renseignements personnels. Ces lois encadrent les nombreuses données nécessaires au fonctionnement de l’IA et susceptibles d’identifier des personnes. À titre d’exemple, un algorithme destiné à la détection du décrochage scolaire au secondaire déployé par un centre de services scolaires a été critiqué par la Commission d’accès à l’information du Québec pour sa non-conformité aux (nouvelles) dispositions de la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels.
En matière d’hypertrucage, aussi, le droit canadien offre différentes voies de recours pour obtenir réparation des torts causés en cas d’usage préjudiciable sinon malveillant, de cette technologie : diffamation, usurpation d’identité, atteinte à la vie privée ou encore violation du droit d’auteur. Des dispositions du Code criminel pourraient également s’appliquer dans un contexte pornographique, et particulièrement pédopornographique. Mais outre la réponse juridique éparse, la détection d’un hypertrucage représente un défi en soi.
Un droit insuffisant
Même si on trouve le bon chemin juridique, le droit ne sera pas nécessairement adapté ou suffisant pour encadrer l’ensemble des enjeux que soulève l’IA. Le droit se révèle aussi en décalage avec les nouveaux usages technologiques : les IA génératives de contenus – comme ChatGPT pour les textes ou Dall-E pour les images – ébranlent en tout point l’écosystème du droit d’auteur et de la création.
L’application de la loi peut aussi s’avérer compromise pour des raisons de procédure ou de preuve. Les règles de responsabilité contractuelle et extracontractuelle (dans le cas d’éventuels dommages) peuvent être mobilisées pour tenter d’imposer des obligations aux entreprises qui mettent sur le marché des systèmes d’IA, mais le succès est loin d’être garanti. La pluralité des acteurs et la complexité de la chaîne de valeur dans l’entraînement, la conception, l’adaptation et le déploiement à petite ou large échelle des systèmes d’IA, sans parler de la fourniture des données, risque d’entraîner des difficultés sans fin dans la désignation des responsables et la détermination de leur part de responsabilité.
Les droits fondamentaux garantis par la Charte canadienne des droits et libertés peuvent jouer un rôle dans l’encadrement de l’IA : les droits à la vie privée, à l’égalité et à la dignité; les libertés d’expression, d’opinion et de manifestation; enfin, les garanties procédurales, dont l’accès à la justice et le principe de contradiction. Par exemple, l’utilisation de drones effectuant de la reconnaissance faciale brimerait-il le droit de manifester?
Si la diversité des droits garantis par la Charte ouvre diverses voies de recours aux justiciables, il n’est cependant pas facile de s’en prévaloir. D’abord, la Charte n’est pas invocable entre acteurs privés (quoique la Charte québécoise, elle, le soit). Ensuite, la valeur constitutionnelle de ces droits s’accorde mal avec des outils technologiques au fonctionnement souvent obscur. En particulier, la preuve des atteintes aux droits fondamentaux par des systèmes algorithmiques complexes et opaques sera souvent impossible à rapporter.
Il n’est donc pas suffisant de dire que nous disposons de la Charte canadienne pour que les droits et libertés des personnes soient effectivement préservés face au déploiement de l’IA. La façon dont les préjudices surviennent montre qu’il est souvent trop tard pour agir après coup et qu’il est impossible de remettre dans leur état précédent des personnes qui seraient, par exemple, victimes de discrimination algorithmique. Le droit échouerait donc ici du point de vue de la protection des individus.
En conséquence, bien que l’IA ne fasse pas face à un vide juridique, les règles existantes ne répondent pas suffisamment aux principaux risques générés par cette technologie. Pour preuve, plusieurs législateurs dans le monde, y compris au Canada, envisagent d’adopter un cadre légal dédié pour assurer juridiquement le respect de principes de transparence, d’équité, de sécurité, de fiabilité et de conformité aux lois en vigueur, le tout sous un contrôle humain.
Ceci suppose de s’approprier la technologie et d’imposer des obligations dans sa conception, son entraînement, sa validation, son déploiement et son utilisation finale. Cet encadrement doit être global et aller bien au-delà d’une prise en compte juridique ponctuelle et éparse de certains effets négatifs sur les individus et la population. En somme, le temps d’une législation spécifique à l’IA est bel et bien venu.
À lire dans cette série :
- L’éthique de l’intelligence artificielle attend le droit, par Jocelyn Maclure et Alexis Morin-Martel
- Le risque d’attendre pour encadrer l’IA est plus grand que celui d’agir trop vite, par Jennifer Quaid
- Qui a compétence sur l’intelligence artificielle : Ottawa ou les provinces?, par Benoît Pelletier
- Comment légiférer sur l’intelligence artificielle au Canada, par Céline Castets-Renard et Anne-Sophie Hulin
L’IRPP TIENT UN WEBINAIRE (GRATUIT) SUR L’INTELLIGENCE ARTIFICIELLE LE 5 OCTOBRE PROCHAIN, À 13 h (HE).
Cliquez ici pour vous inscrire!