Le développement de l’intelligence numérique ― c’est-à-dire la mise au point d’innovations numériques avancées comme celles réalisées dans le secteur de l’intelligence artificielle ― constitue un enjeu prioritaire pour de nombreux pays qui, comme le Canada, estiment que les véhicules autonomes, les analyseurs d’images, les agents conversationnels ou les techniques d’optimisation des chaînes d’approvisionnement auront des effets économiques et sociaux majeurs.
Les bénéfices de l’intelligence numérique n’émergeront cependant pas automatiquement. Par exemple, une organisation doit généralement apporter de nombreux changements à ses processus (une opération souvent bien plus coûteuse et délicate sur les plans social, organisationnel et humain que technique) avant que l’implantation d’une technologie ne se traduise par une hausse de sa productivité.
Il est de plus indéniable que l’intelligence numérique n’aura pas seulement des effets sociétaux positifs. Elle aura des retombées indésirables, parfois inattendues. Par exemple, les algorithmes de recrutement peuvent donner lieu à la discrimination raciale à l’insu des organisations qui les utilisent, la reconnaissance faciale peut servir à surveiller les citoyens, et les générateurs d’images et de textes peuvent être utilisés pour créer de fausses nouvelles de plus en plus convaincantes.
Les connaissances produites en sciences humaines et sociales sont nécessaires pour maximiser les effets positifs de l’intelligence numérique et contrer ses effets négatifs. Ce sont ces connaissances ― en droit, en psychologie, en philosophie, en administration, en sociologie, en relations industrielles — qui permettent aux organisations publiques et privées (notamment aux universités) de lancer de nouveaux modèles d’affaires et de développement basés sur l’exploitation de l’intelligence artificielle, et à leur personnel d’en faire une appropriation efficace et socialement responsable.
Les universités se trouvent au premier plan pour ce qui est de la production de connaissances de pointe en sciences humaines et sociales. Elles sont, en principe, bien placées pour soutenir l’adoption efficace et responsable de l’intelligence numérique dans nos sociétés. Malheureusement, leur capacité à anticiper les retombées possibles de l’intelligence numérique, à alimenter le débat public sur cette question névralgique et à influencer les décisions et les actions des organisations peut être limitée par divers facteurs :
- L’avancement de la carrière des chercheurs en sciences humaines et sociales dépend plus souvent de leur capacité à obtenir des subventions ou à publier des articles dans des revues spécialisées que de leur contribution à la résolution de problèmes concrets.
- Le décalage entre les priorités et les façons de faire des chercheurs en sciences humaines et sociales et celles des organisations qui conçoivent ou utilisent les technologies rend souvent leur collaboration difficile. Par exemple, l’inclusion précoce de chercheurs en éthique à un projet numérique permettrait d’éviter des dérapages ultérieurs. Mais souvent, on évite de faire appel à eux parce que les développeurs craignent que cette inclusion mène au non-respect des échéances.
- Les chercheurs en sciences humaines et sociales ont de plus en plus de difficulté à demeurer au fait des avancées techniques en intelligence numérique à cause du rythme effréné auquel les nouvelles connaissances apparaissent et les innovations voient le jour.
Pour devenir de véritables meneurs dans l’arène numérique, les universités devront prendre un ensemble de mesures vigoureuses.
D’abord, elles devront se doter d’un programme de soutien actif à la participation de leurs chercheurs au débat public sur l’intelligence numérique et reconnaître pleinement la contribution de ceux qui y prendront part. La démarche adoptée pour élaborer la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle ― produite grâce à l’appui du rectorat de l’Université de Montréal et la collaboration étroite de chercheurs et de participants de la société civile ― constitue un exemple du leadership actif que les universités peuvent jouer.
Dans une veine similaire, Mila, un centre de recherche réputé en apprentissage automatique, et Algora Lab, un laboratoire d’éthique rattaché à l’Université de Montréal, piloteront prochainement, sous les auspices de l’UNESCO, les activités de délibération sur les recommandations relatives à la gouvernance de l’intelligence artificielle, rédigées par un groupe d’experts. Selon CScience IA, une plateforme d’information consacrée à la recherche et à la formation, Mila et Algora Lab
… mèneront à cet effet une soixantaine d’ateliers en ligne, dans 25 pays, grâce notamment à un réseau d’ambassadeurs locaux spécialement formés.
Au cours de ce processus participatif, ce sont plus de 500 citoyennes et citoyens qui seront appelés, en face à face, à commenter et à livrer leur point de vue sur de futures normes internationales en matière d’éthique de l’IA.
Ensuite, les universités devront veiller à former des citoyens en mesure de faire preuve d’esprit critique devant les promesses des fournisseurs de solutions technologiques ainsi que des travailleurs capables de contribuer à l’élaboration de solutions qui tirent le maximum du potentiel de l’intelligence numérique. Elles devront également offrir une formation en sciences humaines et sociales plus complète et cohérente aux futurs chercheurs et professionnels du numérique.
Il faudra aussi que les universités créent des modèles pédagogiques qui permettent aux étudiants de prendre part, sur le terrain, à l’expérimentation de méthodes collaboratives de mise au point d’innovations technologiques responsables. Elles devront adapter et transformer les programmes d’études offerts dans les domaines dans lesquels le numérique aura des répercussions. Un bon exemple à ce sujet est une initiative des établissements postsecondaires de Montréal, le PIA (Pôle montréalais d’enseignement supérieur en intelligence artificielle), qui soutient la révision des programmes en sciences infirmières et en gestion pour mieux préparer les étudiants à l’arrivée de l’intelligence artificielle. Et comme les préjugés que contiennent les outils d’intelligence numérique sont en partie attribuables au manque de diversité des équipes qui les créent, les universités devront prendre des mesures énergiques pour que les cohortes d’étudiants en technologie incluent davantage de représentants des groupes qui y sont sous-représentés, notamment les femmes et les membres des communautés culturelles.
Les universités devront se doter d’un programme de soutien actif à la participation de leurs chercheurs au débat public sur l’intelligence numérique et reconnaître pleinement la contribution de ceux qui y prendront part.
Finalement, les universités devront valoriser l’établissement de partenariats de recherche sur le thème de l’intelligence numérique responsable, regroupant les chercheurs de différents secteurs et disciplines, de même que les producteurs numériques, les organisations qui recourent aux technologies et d’autres acteurs comme les syndicats, les organismes publics ou les sociétés d’investissements. Créer de tels partenariats et les faire fonctionner efficacement ne sera pas facile. Les participants universitaires et non universitaires auront besoin du plein soutien des universités pour élaborer des approches de collaboration favorables à l’atteinte des objectifs de l’ensemble des parties prenantes. Il faudra ainsi élaborer des modèles qui permettent aux scientifiques d’accéder à des données de qualité tout en préservant leur liberté académique, et aux organisations de s’approprier rapidement de nouvelles connaissances stratégiques.
Des efforts en ce sens ont été entrepris au Québec, où 18 universités et collèges ont mis sur pied, avec l’appui des Fonds de recherche du Québec, l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). Cet organisme regroupe plus de 200 chercheurs (en intelligence numérique, en sciences humaines et sociales, et en santé) et 125 partenaires et membres (dont des centres de recherche, des jeunes pousses, de grandes sociétés, des syndicats et des organismes publics) qui coopèrent dans divers projets (concernant, par exemple, le recours responsable à l’intelligence artificielle en assurance ou la lutte contre la COVID-19).
En raison de ses répercussions dans tous les secteurs d’activité, l’intelligence numérique est une question trop importante pour être laissée à un seul groupe d’acteurs, qu’il s’agisse des entreprises, des centres de recherche sur l’intelligence artificielle ou d’autres technologies, ou des gouvernements.
Les universités doivent assumer un leadership plus affirmé dans les efforts que mènent les États et les organisations pour implanter le numérique de façon responsable. Pour ce faire, il faut qu’elles redoublent d’ardeur pour intervenir résolument dans le débat public, former des citoyens et des travailleurs pour qu’ils aient une bonne compréhension des défis sociaux, organisationnels et humains, et coopérer de près avec l’entreprise privée, le secteur public et la société civile afin de réaliser des projets structurants et de bâtir, grâce à l’intelligence numérique, des sociétés plus prospères, mais aussi plus justes.
Cet article reprend en partie des idées contenues dans le rapport Innovative University: Renewing the Role of Universities in the Digital Innovation and Artificial Intelligence Ecosystem, codirigé par Catherine Régis et Jean-Louis Denis et présenté à l’alliance internationale U7+ par des chercheurs de l’Université de Montréal et des représentants de 12 universités (de France, du Royaume-Uni, de l’Inde et du Japon).