(English version available here)

ChatGPT a connu un succès énorme et instantané dès sa sortie, en novembre 2022. Plusieurs l’ont adopté sans hésiter pour leur travail, l’école et la maison. Qu’il s’agisse de générer du code informatique, des courriels, des horaires, des itinéraires de voyage ou rédiger des textes, ses possibilités semblent infinies.

Mais comme d’autres grands modèles linguistiques qui utilisent des algorithmes d’intelligence artificielle (IA) pour produire du texte, des images, du son ou de la vidéo, cette technologie n’est pas isolée de nos réalités sociales et politiques. En somme, ChatGPT et d’autres formes d’intelligence artificielle générative ou traditionnelle peuvent renforcer les inégalités en reproduisant les préjugés et stéréotypes dont les groupes marginalisés sont l’objet.

Les inquiétudes – fondées – sur le potentiel de l’IA à perpétuer les inégalités circulent depuis des années. Elles deviennent de plus en plus pertinentes à mesure que celle-ci prend plus de place dans nos vies. Afin de répondre à ces préoccupations, des chercheurs et les défenseurs des droits de la personne proposent d’élaborer des politiques en matière d’IA qui mettent l’accent sur l’équité et la responsabilité.

Quand l’IA est construite sur nos préjugés

Le potentiel de l’IA est immense. Elle peut améliorer notre productivité, nos prévisions et nos décisions, ce qui peut contribuer à réduire les inégalités. Nous avons tous des préjugés inconscients qui influencent nos choix et nos actions. Par contre, il peut être difficile de comprendre comment nous en sommes arrivés à ces choix et ces actions, et si nos préjugés ont joué un rôle. Puisque l’IA peut être programmée, vérifiée et modifiée, elle peut en théorie nous aider à être plus précis et plus justes.

Par exemple, des chercheurs ont étudié comment l’IA peut contribuer à rendre le traitement des demandes d’asile plus équitable ou à mieux diagnostiquer les maladies. Une étude récente montre que des consultants qui utilisent la version plus récente de ChatGPT, GPT-4, obtiennent de meilleurs résultats que ceux qui ne l’utilisent pas. Les personnes présentant des déficits de compétences étaient particulièrement susceptibles d’en bénéficier, ce qui pourrait permettre d’égaliser les chances des personnes qui n’ont pas accès à des formations poussées.

Mais l’IA est construite à partir de données générées par des bases constituées d’informations existantes, comme des images, des textes et des données historiques. Elle intègre donc nos préjugés. Ses effets sur les groupes marginalisés sont généralement méconnus alors même qu’ils se perpétuent, puisque la technologie semble objective et neutre. Notre rapport sur les recherches en matière d’IA décrit la façon dont elle peut contribuer aux inégalités, et ce qui peut être fait pour les atténuer.

Les données utilisées dans le développement de l’IA jouent un rôle clé. ChatGPT a été entraîné sur de nombreuses bases de données textuelles, dont Wikipédia. Une kyrielle de recherches et d’articles récents ont montré que cet agent conversationnel peut reproduire des stéréotypes sexistes et racistes, sans aucune intention des programmeurs. Par exemple, ChatGPT a associé les garçons à la science et la technologie, et les filles à la créativité et l’émotion. Il a suggéré qu’un « bon scientifique » est un homme blanc, et a produit sans hésiter des contenus racistes. Dans des traductions du bengali et d’autres langues comportant des pronoms neutres, ChatGPT a remplacé ces pronoms par des pronoms genrés.

Ces exemples montrent que les groupes sous-représentés, dénaturés ou omis dans les données continueront d’être marginalisés par l’IA formée à partir de ces mêmes données. La recherche montre que l’utilisation de données plus représentatives peut réduire considérablement les biais des résultats. Mais dans des situations complexes, et surtout dans le cas de l’IA générative, les programmeurs peuvent ne pas être en mesure d’expliquer comment des résultats particuliers sont obtenus. Il peut donc être difficile de les vérifier et de les corriger.

Quand l’IA renforce les inégalités

Les produits utilisant l’IA peuvent également être conçus et utilisés de façon à renforcer les inégalités. Alexa (Amazon) et Siri (Apple) sont deux exemples bien connus : ils sont nommés et désignés en tant que femmes. Des chercheurs ont analysé comment ces assistants numériques dotés d’IA, qui semblent être des aides innovants, incarnent en même temps des stéréotypes dépassés sur les femmes à la maison.

La recherche du profit peut également conduire les entreprises à utiliser l’IA pour reproduire le sexisme et le racisme. La chercheuse Safiya Noble a étudié la façon dont les recherches sur Google pour le terme « filles noires » ont priorisé des résultats qui objectivent sexuellement les filles et les femmes noires, parce qu’ils étaient produits par un algorithme dont l’objectif principal est de générer de la publicité.

Les conséquences sont importantes. La capacité de ChatGPT à perpétuer les stéréotypes peut sembler insignifiante, mais la répétition des préjugés et de la marginalisation renforce leur existence. Les rôles inégaux des hommes et des femmes sont créés par la répétition des normes et des attentes en matière de genre; il en va de même pour les stéréotypes raciaux. L’IA qui n’est pas construite de manière équitable peut nuire à la capacité de vivre en toute sécurité et sans discrimination.

En 2018, des chercheurs ont montré que la technologie de reconnaissance faciale est moins efficace sur les peaux foncées parce qu’elle a été entraînée sur une base d’images limitée. Cela peut conduire à des erreurs d’identification et à des conséquences dangereuses pour les personnes racisées, comme l’a révélé un reportage du New York Times sur l’arrestation injustifiée d’hommes noirs. L’omniprésence de l’IA, combinée à un manque de compréhension de son fonctionnement et des moyens de la rendre équitable, peut masquer l’étendue des dégâts qu’elle peut causer. Cela la rend potentiellement plus dommageable à l’équité que si des humains accomplissaient les mêmes tâches.

Le rôle des politiques publiques

Les politiques publiques à tous les niveaux de gouvernement peuvent contribuer à façonner la manière dont l’IA est créée et utilisée. Elles peuvent exiger que les impacts sur l’équité soient évalués et que les risques soient signalés avant et après le lancement d’un produit ou service alimenté par l’intelligence artificielle. Elles peuvent également exiger la transparence en ce qui a trait à la conception et aux données, et de toute disparité dans celles-ci. Enfin, elles peuvent exiger que le public soit informé lorsque l’IA est utilisée.

Ces politiques devraient être élaborées avec la participation de diverses communautés et d’experts pluridisciplinaires, qui ont des connaissances et des points de vue différents sur l’IA. Cela permettrait de s’assurer que ses risques et effets sont pris en compte dès le départ, plutôt qu’une fois que le mal est fait. Cela rendrait aussi les développeurs responsables de leurs produits.

La loi européenne sur l’intelligence artificielle, qui n’est pas encore adoptée, serait la première loi exhaustive exigeant que les systèmes d’IA soient classés en fonction des risques. Certains outils et programmes seraient interdits s’ils présentent des risques inacceptables, comme la manipulation de groupes vulnérables. D’autres présentant des niveaux de risque moins élevés, notamment une IA générative comme ChatGPT, seraient soumis à l’obligation de rendre les sources des données plus transparentes.

Des discussions semblables ont lieu au Canada avec le projet de Loi sur l’intelligence artificielle et les données, et aux États-Unis avec le « Projet de Charte des droits de l’IA » (Blueprint for an AI Bill of Rights).

Certains ont suggéré que la réglementation pourrait étouffer l’innovation. Les politiques pourraient aussi ne pas être en mesure de suivre la vitesse à laquelle l’IA se développe. Les normes de l’industrie devront évoluer pour qu’elles priorisent l’équité, la sécurité et d’autres considérations sociales, mais l’innovation ne doit pas se faire au détriment des considérations sociales. Développer l’IA dans le but de réduire les inégalités est en soi innovant.

La question qui se pose à propos est de savoir comment entraîner l’IA pour qu’elle s’aligne sur nos normes sociales et nos valeurs. Construire une intelligence artificielle qui donne la priorité à des valeurs telles que l’équité permettrait de créer des produits plus utiles qui desserviraient mieux l’ensemble de la population. Les développeurs qui se concentrent sur les groupes qui ont été historiquement marginalisés dans la conception de l’IA (au lieu d’aborder leurs intérêts en réaction) seront innovants, tout en contribuant à une société plus juste.

L’IA est utilisée dans tous les secteurs, et les nouvelles technologies comme ChatGPT sont de plus en plus intégrées dans nos vies. En même temps, les inégalités se creusent un peu partout. Les politiques publiques et organisationnelles qui mettent l’accent sur une IA équitable et sûre sont cruciales pour la construction d’un monde plus juste.

Notre récente série sur l’intelligence artificielle :

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Carmina Ravanera est associée principale de recherche à l’Institute for Gender and the Economy de la Rotman School of Management de l’Université de Toronto, et coauteure du récent rapport L’avenir de l’emploi : Le travail à distance propulsera-t-il ou entravera-t-il l’avancement de l’égalité?
Sarah Kaplan est professeur émérite et directrice de l’Institute for Gender and the Economy à la Rotman School of Management de l’Université de Toronto, et coauteure du récent rapport L’avenir de l’emploi : Le travail à distance propulsera-t-il ou entravera-t-il l’avancement de l’égalité?

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License