(English version available here)

Le 30 novembre 2022 a marqué l’arrivée fracassante du système d’intelligence artificielle ChatGPT dans l’espace public.

Ce modèle de traitement des langues naturelles de grande taille (Large Language model) modifie notre façon d’utiliser les moteurs de recherche et permet avec plus ou moins de succès d’automatiser des tâches allant de la programmation informatique aux suggestions de recettes, de lecture ou de voyage. Son aptitude à produire instantanément des dissertations sur une multitude de sujets a aussi causé bien des maux de tête aux corps enseignants de toute la planète. Certains considèrent même qu’il s’agit d’un pas supplémentaire vers une intelligence artificielle générale qui pourrait échapper au contrôle des humains.

Où est le cadre éthique?

Si ChatGPT impressionne et terrifie dans une égale mesure, son arrivée aura suscité une prise de conscience collective des enjeux éthiques et politiques réels que représentent le développement et la mise en marché de systèmes faisant usage d’intelligence artificielle (IA).

Le Canada ne fut pas totalement pris au dépourvu par l’arrivée des IA génératives. En effet, le projet de loi C-27 du gouvernement fédéral, qui propose une loi spécifiquement dédiée à l’IA et en particulier à la gestion des « systèmes à incidence élevée », en était déjà à l’étape de sa première lecture en juin 2022. Néanmoins, force est de constater que ChatGPT a accéléré de manière significative l’impulsion politique derrière le projet de se doter d’un cadre éthique et législatif plus robuste.

Le sentiment d’urgence a aussi pris de l’ampleur au printemps dernier suite à une lettre ouverte signée par plus d’un millier d’experts, dont le chercheur montréalais Yoshua Bengio, et appelant à un moratoire d’au moins six mois sur le développement de systèmes plus puissants que GPT-4, le temps d’élaborer des protocoles de sécurité qui puissent être adoptés par les développeurs.

Tout en déplorant le ton et le propos hyperboliques des rédacteurs du Future of Life Institute qui ont rédigé la lettre ouverte, nous croyons aussi que le chantier de l’encadrement éthique, juridique et politique de l’IA doit être l’une des priorités des gouvernements et des organisations internationales. Le gouvernement québécois, notamment, semble être conscient de l’importance d’agir puisqu’il a mandaté le Conseil de l’innovation du Québec de lancer une réflexion collective sur les divers enjeux que soulève l’IA.

Il nous semble primordial de prendre en compte les propositions mises de l’avant par les chercheurs œuvrant en éthique de l’IA, un champ théorique et pratique en pleine effervescence. De manière générale, les cadres éthiques spécifiques à des secteurs d’activité professionnelle peuvent viser deux objectifs distincts : servir de fondement à la création d’un cadre juridique contraignant ou permettre aux praticiens et utilisateurs de développer un savoir-faire éthique guidant leur pratique.

Dans le contexte spécifique de l’industrie de l’IA, il y a de bonnes raisons d’être sceptiques quant à l’efficacité de développer ce savoir-faire éthique en l’absence de règles contraignantes. Près d’une centaine de codes d’éthique (non contraignants) ont été adoptés par de grandes entreprises d’IA dans les cinq dernières années, et ils mettent presque tous de l’avant les mêmes principes (bienfaisance, équité, imputabilité, transparence, respect de l’autonomie et de la vie privée, etc.). Des études montrent cependant que l’effet concret de ces codes sur les pratiques est généralement faible.

Passer des principes à la pratique

Des principes abstraits peuvent demeurer flous en l’absence de règles guidant leur application: il ne suffit pas de mettre de l’avant de grands principes comme la transparence et la responsabilité pour qu’ils se traduisent automatiquement dans la pratique.

Dans les domaines ou l’habilitation éthique fonctionne, comme la médecine, le célèbre « d’abord, ne pas nuire » tiré du serment d’Hippocrate enjoint les médecins à une compréhension bien particulière de leur rôle et constitue ainsi une forme d’idéal internalisé pour eux. C’est un bon point de départ. Malgré tout, si l’éthique médicale en restait à des principes aussi peu concrets, nous aurions de bonnes raisons d’être sceptiques quant à leur efficacité réelle.

Heureusement, la pratique de la médecine est fortement encadrée par la loi. Un principe abstrait tel que le respect de l’autonomie des patients peut se décliner en une série de règles et procédures plus explicites à respecter, comme la nécessité d’obtenir un consentement libre, continu et éclairé aux soins proposés.

Pour guider adéquatement la pratique, les principes abstraits doivent être complétés par des règles plus précises et circonscrites permettant de lier le général et le particulier, dont des normes juridiques et des obligations déontologiques. Ainsi, dans le cas de la médecine, la présence de normes coercitives pouvant être imposées par un ordre professionnel (le Collège des médecins) contribue fortement à la détermination des principes abstraits et favorise l’émergence d’un savoir-faire éthique.

Par opposition, la grande majorité des experts impliqués dans le développement et la mise en marché de systèmes d’IA ne sont pas régis par un ordre professionnel et il n’existe aucune loi encadrant spécifiquement leurs activités (bien que certaines lois sectorielles d’application générale balisent partiellement celles-ci). Il n’existe donc aucune structure légale spécifique cohérente qui pourrait les guider dans leur interprétation des principes.

Considérant ce problème de la sous-détermination des principes, on ne peut s’étonner qu’une notion abstraite telle que la transparence en vienne à avoir des interprétations si variées. C’est sans parler de la difficulté à arbitrer les conflits de valeurs que peut susciter l’utilisation de l’IA.

La menace du blanchiment éthique

Un deuxième problème qu’entraîne la prolifération des cadres éthiques en l’absence de droit positif est celui du « blanchiment éthique ». Cela se produit lorsque les cadres éthiques élaborés par des entreprises privées ne visent pas réellement à baliser leurs pratiques, mais plutôt à redorer leur image tout en minimisant la perception du public qu’il est nécessaire de se doter de droit contraignant pour réguler leurs activités. Sans prêter aux entreprises des intentions malicieuses, plusieurs études montrent que les principes abstraits non contraignants peuvent facilement être ignorés ou interprétés d’une manière intéressée par celles-ci.

Les entreprises qui implantent une démarche éthique rigoureuse doivent être louées, en particulier quand elles le font sans y être contraintes par la loi. Cependant, lorsque les risques de dérive et d’inaction sont aussi élevés, on ne peut miser uniquement sur la bonne foi. La fonction sociale des entreprises est la production de biens et services dans la perspective d’en tirer un profit, et non de servir directement le bien commun et la justice. Un État de droit démocratique doit ainsi délimiter le champ des pratiques commerciales acceptables pour les rendre compatibles avec l’intérêt collectif.

Une condition nécessaire

Les critiques de l’éthique de l’IA réduisent celle-ci à son instrumentalisation par des acteurs de l’industrie. Or, comme d’autres l’ont souligné, l’éthique peut guider le droit lorsque celui-ci est dépassé par la rapidité des transformations sociales. Ainsi, c’est pour des considérations éthiques que nous appelons à prioriser le développement d’un encadrement légal de l’IA qui soit beaucoup plus contraignant et à ne pas s’en remettre exclusivement à l’autorégulation éthique sur la base de grandes déclarations consensuelles.

Développer un cadre légal plus étendu et cohérent est, selon nous, une condition nécessaire pour qu’un savoir-faire éthique puisse émerger à l’échelle de l’industrie, tout en évitant le blanchiment éthique. L’adoption du projet de loi C-27 est nécessaire, le Québec doit aussi se positionner en tête de file des provinces en adoptant son propre cadre législatif de l’IA, à l’intérieur de ses champs de compétences.

À lire dans cette série :

L’IRPP TIENT UN WEBINAIRE (GRATUIT) SUR L’INTELLIGENCE ARTIFICIELLE LE 5 OCTOBRE PROCHAIN, À 13 h (HE).

Cliquez ici pour vous inscrire!

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Jocelyn Maclure
Jocelyn Maclure est professeur de philosophie à l’Université McGill et titulaire de la Chaire Jarislowsky sur la nature humaine et la technologie. Il est le président de la Commission de l’éthique en science et en technologie du Québec.
Alexis Morin-Martel
Alexis Morin-Martel est étudiant au doctorat en philosophie à l’Université McGill, détenteur d’un baccalauréat en droit et membre chercheur étudiant à l’Observatoire sur les impacts sociaux de l’IA et du numérique (OBVIA).

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License