Il faut mettre en œuvre des politiques publiques qui diminuent les risques de discrimination, favorisent la transparence et tiennent compte du contexte social dans lequel l’IA est déployée.

Les progrès récents de l’intelligence artificielle (IA) reposent sur deux facteurs clés : l’augmentation de la capacité de calcul des ordinateurs, qui autorise le développement d’algorithmes d’apprentissage de plus en plus performants, et la disponibilité de données massives, qui permet à ces algorithmes d’acquérir des connaissances toujours plus précises et complexes.

La principale promesse économique et sociétale de l’IA est la création de nouveaux services et produits, faciles d’accès et peu coûteux. Ces développements permettront notamment d’améliorer les soins de santé, de rendre plus efficaces les transports et de faciliter l’accès à des services personnalisés. Cependant, afin de s’assurer que toute la société bénéficie pleinement de ce potentiel, il est nécessaire de prendre en compte les inégalités qui pourraient accompagner ces développements. Elles toucheront avant tout les individus, mais auront aussi une incidence à l’échelle industrielle et mondiale.

Inégalités entre citoyens

Les données massives sont principalement composées de données personnelles. Il existe donc une tension très forte entre le droit fondamental à la vie privée et l’appétit actuel pour la collecte et l’utilisation de grandes masses de données. Le concept même de données massives, facilitant l’interconnexion de données provenant de sources très différentes, rend clairement obsolètes certains mécanismes classiques de protection, comme demander le consentement à une personne pour chaque analyse effectuée à partir de ses données personnelles. Il est donc nécessaire de concevoir de nouvelles approches respectueuses de la vie privée qui soient mieux adaptées au contexte actuel.

Un autre problème éthique que soulève le développement de l’IA est le manque de transparence de la prise de décision. En effet, la structure complexe des algorithmes d’apprentissage, tels que les réseaux de neurones profonds, rend difficiles la compréhension et la justification des décisions prises par ces algorithmes. Par exemple, lors d’un refus de prêt ou d’emploi, la personne concernée n’aura probablement pas connaissance des informations prises en compte et ne sera pas avisée de la logique du raisonnement ayant conduit à cette décision. Malgré l’impact que la décision peut avoir, ses possibilités de recours seront limitées. Cette situation peut conduire à une perte de contrôle des citoyens sur leur vie numérique, un phénomène que les chercheurs Antoinette Rouvroy et Thomas Berns ont nommé « gouvernementalité algorithmique ».

De plus, les algorithmes d’apprentissage reproduisent en général les biais que contiennent les données, induisant potentiellement de la discrimination envers certains groupes de la population. Par exemple, dans le cas de la prédiction de récidive, l’étude de ProPublica a révélé que, bien que les algorithmes utilisés ne prennent pas en compte directement l’origine ethnique des prévenus, les modèles appris peuvent néanmoins faire preuve de discrimination en raison des corrélations fortes entre cette caractéristique et d’autres attributs.

Dans un autre contexte, celui de la maltraitance des enfants, la chercheuse américaine Virginia Eubanks a démontré comment la collecte de données sur l’usage de services sociaux publics plutôt que privés peut induire un effet discriminatoire important sur le traitement de familles à revenus modiques par les services de protection de la jeunesse. Il faut donc être attentif aux biais dans les données et s’assurer que les modèles appris ne conduisent pas à des formes de discrimination, qu’elles soient directes ou indirectes. D’où la nécessité d’une supervision humaine des choix éthiques et politiques qui pondèrent les considérations de performance.

Inégalités et acteurs industriels

Nous sommes actuellement dans une situation de quasi-monopole où les données sont concentrées dans les mains de quelques géants, notamment Google et Facebook. Ceux-ci ont aussi accès à des ressources considérables, soit une puissance de calcul extrêmement importante, des experts parmi les meilleurs au monde et des connaissances théoriques à la fine pointe. Cette concentration rend clairement difficile l’ascension de tout nouvel acteur à cause du haut coût d’entrée.

De plus, beaucoup de ces grands acteurs se sentent investis d’un rôle politique. Ainsi, le groupe Alphabet, qui regroupe Google et toutes ses filiales, s’est donné comme mission de « rendre le monde autour de nous universellement accessible et utile », alors que Facebook a pour but de « rapprocher le monde ». La vision mise en avant par ces grands groupes aura forcément une influence sur les développements futurs de l’IA et un impact sur la société. Malgré la réglementation encadrant la collecte et l’utilisation des données personnelles, le rapport de force est tel que ces acteurs parlent d’égal à égal avec des gouvernements, affaiblissant ainsi les pouvoirs des autorités publiques.

Inégalités à l’échelle globale

Comme dans le monde industriel, l’accès aux ressources (données, puissance de calcul et expertise) est un obstacle majeur à la répartition équitable des avancées de l’IA. L’accès des acteurs publics aux données contribuerait pourtant au développement des pays émergents. Leur analyse permettrait par exemple de mieux comprendre les attentes des populations jeunes et en croissance, et de soutenir ainsi le processus démocratique. De plus, les législations qui encadrent la mise en œuvre de systèmes intelligents et protègent la vie privée des citoyens sont très variables entre pays, et elles sont souvent moins protectrices dans les pays émergents. Ce rapport de force pourrait conduire au pillage des ressources numériques locales.

Une autre source d’inégalités provient du déséquilibre entre le volume de données textuelles disponibles selon les langues. En effet, les langues d’usage de nombreux pays émergents sont souvent des langues pour lesquelles le corpus textuel disponible est de très petite taille. Par exemple, la version de Wikipédia en bambara contient moins de 500 articles pour une langue parlée par environ 15 millions de locuteurs, et celle en swahili compte moins de 40 000 articles pour 50 à 100 millions de locuteurs, alors que la version anglaise de Wikipédia présente plus de 5 millions d’articles. Or la richesse du corpus textuel disponible détermine la performance des systèmes basés sur l’apprentissage. On doit donc s’interroger sur la pertinence des résultats offerts par des systèmes bâtis soit à partir d’une langue étrangère (en général l’anglais), soit à partir d’un très faible volume de données textuelles dans la langue d’usage. Il y a ainsi un risque de biais culturel flagrant en raison de l’utilisation de systèmes intelligents qui s’appuient sur des modèles certes performants, mais issus du monde occidental.

Quelques propositions de politiques publiques

Le développement de l’IA exigera l’actualisation de nombreux domaines du droit, depuis la propriété intellectuelle à la protection de la vie privée, en passant par le droit de la consommation et celui de la concurrence. Plutôt que de chercher à énumérer les législations devant être mises à jour, nous nous concentrons ci-après sur quelques propositions phares de politiques publiques.

Tout d’abord, il devient de plus en plus clair que le développement de l’IA entraînera le déplacement d’emplois et même l’obsolescence de plusieurs d’entre eux, ce qui nécessitera des politiques de soutien aux travailleurs concernés.

Pour éviter une perte de contrôle des citoyens sur leur vie numérique, des mesures doivent aussi être prises en matière de littératie numérique pour former l’ensemble de la population. Un minimum de littératie est nécessaire pour que chacun comprenne les enjeux éthiques et sociétaux émergents avec les avancées de l’IA.

Plusieurs nouvelles responsabilités incombent aux entreprises. En vertu des multiples lois anti-discrimination canadiennes, elles doivent s’assurer que leurs employés sont formés à détecter et à éviter d’éventuelles décisions discriminatoires provenant de l’application de systèmes intelligents. La communauté des spécialistes de l’IA doit également favoriser une plus grande diversité de ses membres pour limiter les biais inconscients que peuvent avoir les producteurs de technologies.

Au-delà d’indispensables politiques d’appui à la formation de professionnels hautement qualifiés, les gouvernements peuvent aussi contribuer au développement de l’IA en s’associant à diverses entreprises pour automatiser certains processus gouvernementaux. Pour cela, les développements en « sources ouvertes » sont à privilégier plutôt que des solutions fondées sur des algorithmes propriétaires. Ils permettront d’éviter que les gouvernements soient captifs de contrats de service dont les coûts de sortie sont très importants, et assureront l’équité du traitement de l’ensemble des dossiers en question.

Enfin, les gouvernements peuvent favoriser le développement de l’IA responsable en conditionnant l’octroi de subventions ou d’avantages financiers à des entreprises respectant certains impératifs éthiques et sociétaux. Cela pourrait s’appliquer tant aux subventions locales qu’aux partenariats développés avec des acteurs de pays émergents.

Une véritable culture de la transparence doit s’établir, en ce qui concerne à la fois les données recueillies que le fonctionnement des algorithmes d’apprentissage qui les utilisent, en particulier dans le cas de décisions sur des services essentiels. La production de « données ouvertes » devrait être favorisée quand elle ne met pas en danger la vie privée des citoyens. Si la divulgation explicite des codes sources n’est pas toujours appropriée (par exemple lorsqu’il s’agit de protéger des secrets commerciaux ou de conserver l’efficacité d’outils de détection de la fraude), il est cependant crucial que les citoyens puissent obtenir une explication intelligible de la logique sous-jacente à la décision prise.

Il est aussi impératif que les gens jouissent d’un contrôle effectif sur leurs données personnelles. Pour ce faire, il faut renforcer les droits fondamentaux en matière de respect de la vie privée en généralisant notamment le droit des citoyens de savoir quelles données une entreprise possède sur eux, et comment elle les utilise et les dissémine, ainsi que le droit de demander la correction ou l’effacement de certaines données. Tous les acteurs clés de notre vie démocratique devraient respecter de telles exigences. Ainsi, un électeur a le droit de connaître l’ensemble des données que les partis politiques fédéraux possèdent sur lui. Autrement, on laisse la voie libre à toutes sortes de manipulations.

Les risques d’inégalités induits par le développement de l’IA commandent aussi la création de nouveaux organismes publics, semblables aux commissions des droits de la personne que l’on trouve aux ordres fédéraux et provinciaux, mais jouissants d’une expertise technique spécialisée. Ces instances auraient notamment le mandat d’auditer les systèmes intelligents utilisés par leurs gouvernements respectifs et pourraient offrir leur expertise lors de plaintes de particuliers à l’encontre d’entreprises ou d’autorités publiques.

Si le développement de l’IA a le potentiel de réduire certaines inégalités qui résultent de préjugés et de stéréotypes de décideurs, il peut aussi les accentuer et les systématiser. Il est donc important d’être vigilant dans la façon dont ses outils sont déployés et de conserver un esprit critique face aux promesses de ces nouvelles technologies. En plus d’investissements publics considérables dans la recherche et le développement en matière d’IA, il est tout aussi important d’investir massivement dans la recherche interdisciplinaire portant sur les enjeux éthiques, sociaux, économiques, politiques, juridiques et artistiques de l’IA. Ainsi, le futur de l’IA ne saurait être dépourvu de l’humanisme qui doit la guider.

Cet article fait partie du dossier Dimensions éthiques et sociales de l’intelligence artificielle.

Photo : Shutterstock / kentoh


Do you have something to say about the article you just read? Be part of the Policy Options discussion, and send in your own submission. Here is a link on how to do it. | Souhaitez-vous réagir à cet article ? Joignez-vous aux débats d’Options politiques et soumettez-nous votre texte en suivant ces directives.