Il faut aborder rapidement la question des données massives, qui heurtent de plein fouet les fondements des lois de protection des données personnelles.

L’actualité récente bruisse des effets et incidences de l’intelligence artificielle (IA) sur l’emploi, la finance, la santé, le droit, etc. Il convient bien entendu de raison garder, mais on pressent des changements importants. Or il importe de s’assurer que ceux-ci se feront dans le meilleur intérêt de tous et que les disruptions induites par l’IA n’entraînent pas une dégradation des conditions socioéconomiques d’une partie de la population ou des atteintes démesurées aux droits. Sans prétendre à l’exhaustivité, examinons quelques effets ou conséquences de l’IA dans le champ de la seule justice.

On peut d’abord affirmer qu’une approche strictement éthique de l’IA apparaît insuffisante en raison du caractère très fluide de l’éthique et de son absence de sanction. Un cadre régulatoire, qui se fondera sur les principes juridiques existants, semble nécessaire, quitte à le compléter en raison de la nature inédite de certaines situations posées par l’IA (par exemple, la question de la responsabilité civile de la voiture autonome).

La cyberjustice

La cyberjustice pourrait être définie comme le recours aux technologies de l’information, dans leur sens le plus large et comprenant donc l’IA, pour faciliter le traitement, l’organisation et la communication de l’information juridique et judiciaire dans le monde de la justice. Voilà un secteur où l’IA a déjà fait son entrée. On pense à certains outils algorithmiques utilisés devant les tribunaux américains pour déterminer la sentence d’une personne trouvée coupable, afin d’aider le juge à décider si une personne doit être détenue ou non durant les procédures, ou encore aux outils de justice prédictive qui proposent une prédiction statistique du résultat possible d’un litige. À la lumière de plusieurs enquêtes journalistiques aux États-Unis, dont celle de ProPublica, on note que certains de ces outils révèlent des biais discriminatoires envers des populations pauvres, racisées ou autrement marginalisées. Les préjugés et les biais du développeur, mais surtout ceux qui se retrouvent dans les données appelées à nourrir l’algorithme, sont ainsi incorporés dans l’outil. Comment assurer que l’outil algorithmique reflète les principes de la justice fondamentale, comme la présomption d’innocence, la non-discrimination ou l’équité générale du procès ?

Il semble difficile à ce stade d’enchâsser dans l’outil les valeurs sous-jacentes aux principes juridiques. Ainsi que plusieurs l’ont souligné, l’apprentissage profond est une technique capable d’établir des corrélations, mais plus difficilement une relation causale susceptible de mieux étayer le résultat final (le cheminement d’un raisonnement). Il existe, au surplus, une tension entre l’efficience et l’efficacité, qualités sous-jacentes de ces outils souvent mises en avant, et la nature stricte des principes de justice fondamentale. Ces derniers instituent un processus, souvent lourd, qui se préoccupe peu de l’efficacité entendue dans une perspective managériale de diminution des coûts et d’accroissement de la productivité. Ainsi le temps de la justice n’est pas celui de l’efficacité.

Au même temps, une tension entre les principes eux-mêmes se fait parfois jour, et on peut citer en exemple le droit à un procès dans un délai raisonnable qui connaît une tension avec le droit à une défense pleine et entière. Ce simple exemple illustre les tensions inhérentes au droit lui-même, auxquelles s’ajoutent des tensions entre le droit et certaines exigences managériales ou sociales qui doivent alors être prises en compte par l’algorithme. On pressent la difficulté de l’exercice : instiller un sens des valeurs et une appréciation fine des droits et de leurs tensions dans des contextes factuels multiples qui se déploient eux-mêmes dans des configurations culturelles particulières.

Les outils de justice prédictive sont soumis à ces difficultés majeures et, pour l’heure, ils peuvent seulement être des aides à la décision pour le juge, l’avocat ou le justiciable. Une appréciation statistique ou quantitative des chances de « gagner » une affaire constitue certes un outil à manipuler avec prudence, d’autant, encore une fois, qu’il se révèle incapable de présenter le raisonnement à la source du résultat. De même, le recours à un algorithme prédictif peut avoir pour résultat de figer la jurisprudence, puisque l’affaire soumise à l’algorithme puise dans les résultats passés et propose alors un simple écho de ceux-ci, faisant alors échec à la capacité inventive et novatrice du juge chargé d’apprécier les particularités d’une affaire.

Les bonnes pratiques de développement algorithmiques

Il importe ainsi d’élaborer des pratiques de développement algorithmique qui incorporent des dispositifs contre la discrimination, les biais et les préjugés raciaux, ethniques, religieux, sexuels etc., mais intègrent également des dispositifs positifs de protection des droits fondamentaux, des droits des consommateurs et des citoyens dans leurs relations avec l’administration publique. Ces outils doivent aussi révéler le raisonnement qui fonde leurs résultats.

Il est beaucoup question de la transparence des algorithmes : donner la capacité aux acteurs de disséquer l’algorithme afin de le contester. Cette capacité se heurte souvent à des intérêts propriétaires. Elle soulève la question de l’institutionnalisation de l’IA. Comment assurer au plan des politiques publiques une approche cohérente, respectueuse des droits, soucieuse d’assurer un partage équitable des données détenues par les autorités publiques et désireuse de faciliter une introduction harmonieuse de l’IA dans les divers processus de l’activité humaine ?

Certains ont proposé la création d’une agence des algorithmes, à l’image de la Federal Drug Administration aux États-Unis qui examine, teste et approuve des médicaments couverts par des brevets et des droits de propriété intellectuelle. Un tel organisme pourrait aussi exercer des fonctions de certification et de standardisation pour les objets fondés sur l’IA et interagissant dans l’environnement humain (voiture autonome, drone, robot, etc.).

Le partage des données

Il existe, à l’heure actuelle, un déséquilibre délétère en ce qui concerne les données, ingrédient essentiel des techniques d’IA. Les données les plus intéressantes au plan de leur contenu et de leur référencement se trouvent dans les mains des géants du Web (Facebook, Google), grâce aux services gratuits qu’ils offrent et qui leur permettent de collecter une masse formidable d’informations. Ils vendent parfois certains jeux de données (ou y donnent accès), mais les conservent en général à leur seul bénéfice, arguant, comble de l’ironie, que les rendre accessibles constituerait une atteinte au droit à la vie privée des personnes fichées.

La question de l’accès aux données et du partage des données détenues par les autorités publiques est sans doute celle qu’il convient d’aborder le plus rapidement possible. Les données publiques constituent une source de qualité, car elles sont en général bien référencées. Un accès incontrôlé et sans condition à ces informations risque fort de déboucher sur une privatisation de facto des données publiques et rendre plus difficile leur utilisation par tous. Il convient alors d’accorder une attention particulière aux politiques d’accès et de traitement des données détenues par les autorités publiques québécoise et canadienne. Les données publiques sont un bien commun non susceptible d’appropriation.

À cette question cruciale s’ajoute celle de la protection des données personnelles dans un monde soumis à une logique algorithmique. À cet égard, les cadres législatifs actuels au Québec et au Canada sont complètement dépassés. Une réflexion majeure s’avère nécessaire. Que vaut en effet le consentement dans un écosystème (Internet, Internet des objets) qui offre des services gratuits en échange d’une collecte de données personnelles et d’un profilage algorithmique de la personne ? Que valent les principes individuels de traitement et de gestion des données personnelles dans un écosystème où les données deviennent collectives et dans lequel l’objectif est de recueillir un maximum d’information, alors que les principes des lois de protection des données s’articulent autour de la notion de minimisation (collecte des seules données nécessaires au but poursuivi), de limitation dans le temps (effacement des données une fois le but poursuivi atteint) ou, encore, de finalité ? Les données massives, ingrédient essentiel des techniques d’apprentissage profond, heurtent de plein fouet les fondements des lois de protection des données personnelles. Tant et si bien qu’il est légitime de se demander si le droit à la vie privée, malmené par les géants du Web et par les exigences de sécurité des États, n’est plus qu’une vue de l’esprit.

L’IA apparaît comme une évolution majeure dans le traitement de l’information. Elle est porteuse de grands espoirs et, comme toute technologie, d’aléas et de dangers qu’il convient de circonscrire et de corriger afin d’en assurer un déploiement conforme au droit, à ses valeurs et principes, et au bien commun. La réflexion est déjà entamée. Elle doit se poursuivre et permettre à toutes les parties prenantes d’y participer. Les autorités publiques ne doivent pas se limiter à financer les technologies d’IA. Il serait sans doute judicieux que les gouvernements fédéral et provinciaux songent à assurer une veille technologique et encouragent les projets de recherche en sciences sociales qui ont pour ambition de réfléchir aux incidences de l’IA afin de proposer les mécanismes susceptibles d’en assurer un déploiement conforme au bien commun.

Cet article fait partie du dossier Dimensions éthiques et sociales de l’intelligence artificielle.

Photo : Shutterstock / Phonlamai Photo


Souhaitez-vous réagir à cet article ? Joignez-vous aux débats d’Options politiques et soumettez-nous votre texte en suivant ces directives. | Do you have something to say about the article you just read? Be part of the Policy Options discussion, and send in your own submission. Here is a link on how to do it.