(English version available here)

L’élaboration des politiques devrait être l’affaire de toute la société, y compris des élus, des fonctionnaires, des universitaires, des chefs d’entreprise, des groupes de la société civile et des particuliers. En théorie, chacun d’entre nous devrait pouvoir y participer.

Ces jours-ci, de nombreuses personnes assistent à des conférences portant sur l’intelligence artificielle (IA), au Canada et dans le monde entier.

En tant que société, nous débattons de politique et de science, et nous essayons de déterminer comment composer avec cette nouvelle technologie et ses nouveaux risques. Des centaines de juridictions élaborent des politiques et des réglementations et modifient les lois existantes pour atteindre cet objectif.

Les champs d’intérêt représentés sont vastes. Ils couvrent l’éducation, les grandes entreprises, la santé, les systèmes judiciaires, le droit, l’ingénierie, les médias, la traite des êtres humains, la discrimination, les préjugés, les identités nationales et, dans une moindre mesure quoiqu’en croissance, la diversité. Les artistes se font également entendre.

Tous ces points de vue sont importants, mais beaucoup d’absents demeurent. Nous devons toutefois inclure ces perspectives pour déterminer ce que ces groupes pensent, ce dont ils ont besoin ou ce qu’ils veulent, car les décideurs politiques ne peuvent pas et ne doivent pas prendre de décisions sur des questions complexes et importantes sans les entendre.

Ce qui manque peut-être à l’élaboration des politiques en matière d’IA, c’est la subsidiarité, un principe juridique présent dans la plupart des systèmes juridiques nationaux et des grandes institutions. Il signifie que les décisions doivent être prises par les personnes qui seront affectées par celles-ci.

La réglementation de l’IA est complexe et d’une grande portée: elle est trop importante pour être gérée par un petit nombre de groupes ou d’experts. C’est la nature même des situations qui touchent l’ensemble de la société.

Au Québec, nous avons historiquement toujours fait montre d’un fort esprit de subsidiarité, ce qui a contribué à l’établissement de nos lois à tous les paliers. Pourquoi n’en serait-il pas de même pour la discussion sur les technologies du futur?

Série : Comment encadrer l’intelligence artificielle?

Des voix absentes

Qui est donc absent (ou presque) des conversations sur l’élaboration des politiques de l’AI canadiennes et mondiales ? Qui, malgré son importance dans la société ou ses besoins, semble plus silencieux dans cette discussion ?

Comme dans d’autres enjeux à l’échelle de la société, les groupes considérés comme faisant partie de la diversité sont sous-représentés. Bien qu’ils s’organisent pour se faire entendre, ils ne sont pas proportionnellement représentés dans les conférences sur l’élaboration des politiques en matière d’IA.

Par exemple, les groupes traditionnellement marginalisés tels que les immigrants et les communautés LGBTQ continuent d’être peu représentés, voire absents de ces forums. Les femmes dans l’IA sont aussi sous-représentées et moins bien payées.

Les personnes qui souffrent d’un handicap physique ou de l’âge, ou qui vivent loin du lieu où les décisions sont prises, peuvent également avoir du mal à participer à ces échanges.

Les groupes socialement défavorisés – dont certains n’ont pas le droit de vote, mais sont déjà affectés par la prise de décision automatisée – comme les jeunes, les personnes en situation de pauvreté, les prisonniers, les travailleurs étrangers temporaires et la main-d’œuvre mondiale de l’IA – sont tous largement privés d’une voix lors des conférences sur l’IA et dans les médias.

Bien qu’il y ait de nombreuses reconnaissances de territoires, il n’y a pas non plus d’intégration perceptible des points de vue autochtones sur la propriété et le pouvoir. En outre, des outils éprouvés permettant de prendre des décisions collectives face à des risques collectifs sont peu utilisés. Étant donné que le Canada compte plus de 700 Premières Nations, il est nécessaire d’avoir une vision autochtone de ce qu’est l’IA et de la manière dont elle pourrait être utile à toutes les communautés.

En outre, la vie non humaine n’est pas représentée dans ces conversations. Quels sont les droits des autres mammifères ? Ou ceux des poissons ? Comment ces développements technologiques pourraient-ils favoriser ou entraver leur épanouissement sur Terre ? Des groupes de personnes se sont organisés pour représenter ces intérêts dans les discussions sur le climat et ils devraient également être invités aux conversations sur l’IA.

Les petites entreprises sont également oubliées. Elles n’ont pas les moyens d’assister à des événements internationaux, de connaître toutes les personnes impliquées ou de suivre les opportunités de consultation. Il faut tenir compte de leur réalité.

Lors d’événements à l’organisation coûteuse, les chercheurs présentent leurs travaux à des auditoires composés de représentants des gouvernements et des grandes entreprises, tandis que les petites entreprises doivent se concentrer sur la poursuite de leurs activités. Soixante-huit pour cent des Canadiens du secteur privé travaillent dans des petites entreprises. Leur voix compte, et les grandes entreprises ne représentent pas les intérêts des petites entreprises.

La sécurité et l’IA

Plus inquiétant encore, les dirigeants et les stratèges militaires, la police et les entreprises de sécurité privée ne semblent pas non plus entendus. Bien qu’il y ait quelques conférences privées avec des entreprises de défense, nos forces de sécurité sont presque totalement absentes des conversations publiques sur l’IA. Elles peuvent être présentes dans le public, mais il est rare qu’elles montent sur scène ou qu’elles participent à des tables rondes.

Pourtant, d’après certaines indications, ce qui est rapporté dans les médias est peu représentatif des applications militaires réelles de l’AI.

Par exemple, il n’est pas connu que des robots tirent en Ukraine sans intervention humaine ou que des robots autonomes à quatre pattes patrouillent aujourd’hui aux frontières pour chasser les réfugiés.

Il est aussi méconnu que l’IA est capable d’aider les gouvernements et les criminels à fabriquer des armes biologiques. Qu’il existe des essaims de drones utilisés dans les zones de conflit et dans les pays en voie de développement. Des essaims de drones miniaturisés sont en train d’être élaborés.

De nombreux gouvernements ont refusé à plusieurs reprises de signer des traités de non-prolifération pour les armes autonomes ou les « robots d’abattage », ce à quoi le Canada a montré quelques signes de soutien, sans plus.

Certains chercheurs canadiens, dont Geoffrey Hinton et Yoshua Bengio, ont expressément demandé au Canada d’interdire la militarisation rapide de l’IA. La chercheuse Petra Molnar a retracé l’expérimentation technologique historique et actuelle dans des espaces contestés tels que les zones de guerre, les prisons et les frontières privilégiées par les migrants.

Les entreprises de sécurité privée constituent un secteur potentiellement propice à l’expérimentation de technologies dangereuses.

Le Canada compte deux fois plus d’agents de sécurité privés que de policiers. Une grande variété d’applications d’IA se déploie actuellement dans les entreprises et les institutions. Peut-être que les représentants techniques des entreprises de sécurité n’assistent pas aux conférences afin d’éviter les critiques.

Des aspects éclipsés

Toutes ces personnes et tous ces groupes sont absents de manière disproportionnée des conférences sur les politiques en matière d’IA, y compris les plus importantes, telles que les sommets mondiaux sur l’IA de 2023 à Montréal et Amsterdam, les sommets américains de 2023 à Las Vegas et New York, et le sommet britannique sur la sécurité de 2023 à Londres. Les conférences plus modestes ont tendance à se concentrer davantage sur un petit nombre de sujets et de groupes.

Des sujets entiers sont également absents de la conversation sur l’IA. Par exemple, nous devons parler de la catégorie de risques potentiellement catastrophiques de cette technologie.

Pour commencer, il n’est pas nécessaire que la technologie devienne sensible ou qu’elle soit vivante pour que ces risques se concrétisent. Pourtant, à quelques exceptions près (comme le sommet britannique sur la sécurité), la tendance est au silence en évoquant l’hystérie induite par Hollywood ou les subterfuges des entreprises technologiques. Ces deux phénomènes existent, mais en se concentrant sur ceux-ci, on laisse de côté des personnes comme les scientifiques et les groupes d’intérêt qui sont bien informés et préoccupés.

Les géants de la technologie et les criminels peuvent bénéficier d’une réglementation laxiste et d’une mise en œuvre qui prend principalement en compte les effets du marché. Le domaine de la gestion stratégique est clair sur ce point : les risques potentiellement graves sont mieux gérés à l’avance grâce à des mesures d’atténuation. Ces mesures étant coûteuses, des pressions politiques et économiques s’exercent souvent pour qu’elles soient évitées. Elles sont néanmoins nécessaires à l’IA.

Quelques pistes de réflexion pour inclure d’autres voix

Il existe de nombreux moyens. Le Canada dispose d’une boîte à outils particulièrement complète. Les pratiques de consultation, les places publiques, les initiatives scolaires visant à entendre les jeunes, l’accès quasi universel à l’internet pour les forums publics… la liste est longue.

En matière d’IA, il serait possible d’accélérer l’émission de visas pour les spécialistes étrangers qui consacrent leur temps et leur énergie à travailler avec nous sur ces questions importantes.

Par exemple, les délégués africains à la conférence « Shaping AI for Just Futures », qui s’est tenue à Ottawa en octobre, étaient présents pour expliquer, notamment, que nos chaînes d’approvisionnement commencent et se terminent dans leurs pays, là où les minéraux sont extraits, où de nombreux systèmes d’IA sont modérés et où les marchés des technologies d’occasion prospèrent – le tout, à un certain prix.

La réglementation ne suffit pas à protéger les personnes. Nous avons besoin d’une réglementation canadienne pour contrôler les abus des sociétés canadiennes à l’étranger. C’est répréhensible. Pourtant, il est presque impossible d’imaginer ce qui n’est pas porté à notre attention.

Autre exemple : nous pourrions apporter un soutien financier significatif et facile d’accès pour que les petites entreprises puissent assister à des conférences politiques dans leur domaine.

Il incombe aux organisateurs de conférences et aux décideurs politiques de veiller à ce que toutes les parties intéressées soient entendues, afin que les décideurs politiques prennent connaissance de l’ensemble des besoins et des préoccupations en matière d’IA.

Ce processus est d’une grande richesse. Pensez à ce que nous pourrions apprendre des historiens des changements de paradigmes technosociaux ? Ou d’un groupe d’activistes climatiques ayant travaillé sur des politiques au sein de ces mêmes systèmes ? Ou des spécialistes du Kaianere’kó:wa, la grande loi de paix de la confédération Haudenosaunee, sur la manière de gouverner par consensus sur les grandes questions ?

La principale solution est d’ordre pratique : les organisateurs et les décideurs politiques doivent faire preuve d’humilité et d’écoute, et ils doivent être en mesure de réellement réunir tout le monde autour de la table.

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Tammy Mackenzie
Tammy est Directrice et responsable technique chez Polyaula, maman, défenderesse des droits de la personne, écologiste, titulaire d’un MBA en stratégie, PME et durabilité. Elle est aussi une doctorante indépendante travaillant sur les systèmes et les leviers de pouvoir.

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License

Recherches connexes du Centre d’excellence

Elections During a Health Crisis: Voter Involvement and Satisfaction across Pandemic Elections in Canada

par Allison Harell et Laura B. Stephenson 17 mai 2022