(English version available here)

Les décideurs qui examinent les utilisations de l’intelligence artificielle (IA) réfléchissent à ce que nous voulons réaliser en tant que société et à ce que nous devons protéger, mais il n’est pas généralement reconnu que les applications de l’IA requièrent des quantités importantes de ressources naturelles, de main-d’œuvre et de capital.

Ces décideurs – y compris les citoyens, les entreprises, fonctionnaires et les élus – doivent être bien guidés quant à la réglementation de l’IA et à ses conséquences potentielles. Comment ces personnes peuvent-elles acquérir les connaissances dont ils ont besoin ?

En ce qui a trait au calendrier, nous n’avons pas raté le train de la réglementation de l’IA. Il a fallu plus de 100 ans à l’industrie aérienne pour atteindre les normes de sécurité actuelles. Nous avons appris de ce processus que la réglementation prend du temps.

Le projet de Loi sur l’intelligence artificielle et les données (LIAD) est débattu par un comité parlementaire cet automne. Des discussions et des travaux en comités sont également en cours dans plusieurs provinces et au sein d’autres institutions. La proposition comprend un cadre de réglementation pour les prochaines années.

Il y a tout de même urgence. Les applications d’IA développées par l’industrie touchent à des problèmes graves, tels les méfaits de guerre, les soins de santé personnalisés, la protection de la vie privée et bien d’autres encore. Les enjeux sont importants.

Des ressources naturelles à grande échelle

Du côté des ressources naturelles, tout est à grande échelle, qu’il s’agisse de la fabrication de composantes ou des besoins en énergie pour les calculs et les applications. Nous n’avons pas les ressources nécessaires pour répondre à la demande pour du matériel informatique neuf.

L’empreinte carbone du secteur des technologies est de 1,8 à 3,9 % du total, et les applications d’intelligence artificielle consomment plus d’énergie, en plus d’être plus intensives du point de vue des émissions de GES. : la consommation d’électricité des centres de données devrait être multipliée par 200 d’ici à 2028. De plus, une conversation moyenne dans ChatGPT consomme environ 500 ml d’eau, principalement pour refroidir ses milliers de serveurs.

On ne peut pas compter sur les mesures (nécessaires) d’efficacité prises par les entreprises pour nous sauver. L’éthicien et ex-chercheur chez Google Timnit Gebru et ses collègues ont montré que plusieurs entreprises sur le marché sont en concurrence pour construire des applications qui demandent des capacités de calculs de plus en plus grandes, même si cela signifie une utilité réduite, des coûts plus élevés et des risques accrus.

Les décideurs publics pensent également aux efforts présents et futurs pour atténuer le changement climatique et s’y adapter, mais les groupes d’intérêt industriels ont dominé sa réglementation. En conséquence, cela n’a pas fonctionné comme prévu.

La production massive de technologies spécialisées et gourmandes en ressources risque de causer encore plus de problèmes pour l’environnement, alors que la réglementation de l’IA est menée par les souhaits de l’industrie.

La journaliste et militante écologiste Naomi Klein soutient que nous devons dépasser le battage médiatique et garantir que l’IA ne nuit pas. Comme pour l’élaboration des politiques climatiques, les défis de la réglementation de l’IA sont avant tout économiques et politiques, et non une question de manque d’outils techniques ou d’informations.

De fréquents abus des travailleurs

En ce qui a trait à la main-d’œuvre, les abus contre les travailleurs et les communautés dans l’extraction de terres rares pour les composantes informatiques sont monnaie courante.

Au Canada, l’accent est mis sur le développement des talents en IA, notamment les chercheurs et experts en science des données, mais l’externalisation sauvage demeure la norme. Cela va du développement au déploiement, et comprend le traitement médiocre et coercitif des mineurs et des ouvriers d’usine, les licenciements massifs dans le secteur technologique et les milliers de travailleurs temporaires qui y œuvrent.

Certains modèles d’IA nécessitent des milliers d’annotateurs et d’intégrateurs de données embauchés à des tarifs dérisoires et dans de mauvaises conditions de travail, qui ne respectent pas les normes minimales pour un travail équitable, comme le note le rapport Fairwork Cloudwork Ratings 2023.

Les régulateurs doivent mieux évaluer qui participe à l’élaboration des applications proposées et dans quelles conditions ces employés peuvent être embauchés. C’est important, parce que la situation actuelle n’est pas socialement durable, viole les droits du travail et est contraire à l’éthique à tous égards.

Élargir l’accès au capital

En termes financiers, l’IA coûte cher. À certains endroits, cela a justifié de ne soutenir que les plus grandes institutions et entreprises dans l’adoption de l’IA. Par exemple, les 800 millions $ de fonds publics consacrés au développement de l’écosystème québécois de l’IA ont généré 3000 emplois bien rémunérés par année. Mais un programme québécois pour l’implantation de projets par l’entremise d’Invest-AI ne soutient que des projets pour les entreprises dont le chiffre d’affaires annuel est supérieur à 1 million $, excluant d’office la plupart des microentreprises et petites entreprises. A peu d’exceptions, les plus grandes entreprises ont préférence.

L’accès préférentiel aux grandes entreprises et institutions, au lieu de donner du pouvoir aux petites entreprises et à la société civile, limite la prise décisions aux besoins de ces grands groupes. En 2021, seulement 3,7 % des entreprises canadiennes avaient adopté l’IA.

De plus, il est dangereux de combiner un potentiel de profit soutenu par l’État avec une mauvaise compréhension des coûts et des risques. Les régulateurs doivent veiller à ce que le financement gouvernemental soit dépensé pour de nouveaux projets d’IA avec la contribution, le consentement et la surveillance du public. L’idée selon laquelle seuls les experts peuvent discuter de l’IA est de courte vue.

Poser des questions

L’IA est multidisciplinaire et elle n’est pas complètement prévisible. Aucune personne ni aucun groupe n’est capable d’imaginer tous les coûts et conséquences potentiels de son utilisation. L’éducation et la participation des communautés, des groupes de travailleurs et des petites entreprises sont cruciales.

Surtout, l’écoute des parties prenantes assure la validité et la pertinence d’une application proposée. Il n’est pas nécessaire qu’elles soient des experts. On peut par exemple demander aux ainés ce qu’ils pensent d’un assistant robot fonctionnant avec un niveau d’erreur donné pour la planification de la prise de médicaments. Dans le cas de délinquants ou de victimes de crime, choisiraient-ils une condamnation automatique, étant donné que les algorithmes de détermination de la peine évaluent certaines personnes en fonction des caractéristiques démographiques de leurs voisins? Les réponses permettraient de déterminer si une application proposée vaut les coûts prévus en ressources naturelles, en main-d’œuvre et en capital.

Les décideurs publics devraient poser plusieurs questions à propos de toute application de l’IA : est-elle rentable en termes de ressources? Les parties prenantes ont-elles été suffisamment entendues? Les risques ont-ils été examinés et atténués? Avons-nous tenu compte des incertitudes futures? Existe-t-il une bonne documentation sur les données et les descriptions du modèle? Y a-t-il une demande? Et surtout, est-ce nécessaire? Trop souvent, l’analyse de profitabilité d’une application ne détermine pas si elle est censée améliorer les solutions existantes.

Une analyse axée sur les ressources peut aider à mettre en évidence la gravité potentielle de l’utilisation de l’IA que les décideurs politiques, la société et le secteur technologique prendront en considération. Cela dit, il n’est pas possible de prévoir tous les coûts, compromis et risques.

En terres inconnues, il sera important de garder à l’esprit les principes de prudence et d’humilité.

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Tammy Mackenzie
Tammy est Directrice et responsable technique chez Polyaula, maman, défenderesse des droits de la personne, écologiste, titulaire d’un MBA en stratégie, PME et durabilité. Elle est aussi une doctorante indépendante travaillant sur les systèmes et les leviers de pouvoir.
Kai-Hsin Hung
Kai est doctorant à HEC Montréal en recherche sur les données, les chaînes de valeur et le travail. Il est aussi membre du Centre de recherche interuniversitaire sur la mondialisation et le travail.

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License