Il y a quelques mois, l’Arabie saoudite accordait la citoyenneté à Sofia, un robot humanoïde doté d’une intelligence artificielle (IA) lui permettant de converser — plus ou moins bien — avec des êtres humains. Au-delà de son impact médiatique et de son caractère ironique (beaucoup de travailleurs immigrés saoudiens se voient refuser la citoyenneté), le cas du robot Sofia soulève une question fondamentale : quel statut moral ou juridique devrait-on accorder à une IA ?

Les frontières de la moralité et du droit sont parfois mouvantes. On traite actuellement les IA comme de simples machines, des instruments au service des êtres humains. Mais ne s’agirait-il pas là d’un manque de considération morale ? Il y a quelques décennies à peine, on faisait peu de cas du mauvais traitement des animaux ou de l’environnement. Or les perceptions ont changé et nos pratiques ont évolué, autant sur le plan juridique que sur celui des politiques publiques. Que faut-il en penser ? On peut envisager au moins quatre types d’arguments, qui plaident en faveur de quatre formes de statut moral.

Tout d’abord, on peut faire appel à l’idée d’un devoir indirect, celui d’éviter un tort provenant d’une conséquence indirecte. Ainsi, Emmanuel Kant, le philosophe rationaliste du siècle des Lumières, pensait que nous n’avions pas de devoir moral direct envers les animaux parce qu’ils n’étaient pas des personnes. En revanche, il jugeait qu’il existait un devoir indirect de ne pas maltraiter un animal pour ne pas cultiver un mauvais penchant, voire une tendance criminogène.

De façon analogue, on pourrait condamner la « maltraitance » envers les robots en raison d’un devoir indirect. Ce type d’argument peut s’appliquer à l’usage des robots sexuels, c’est-à-dire des robots humanoïdes (ou non) destinés à gratifier leur utilisateur d’un plaisir sexuel. Utiliser ces robots pour simuler un viol, par exemple, est problématique si cela contribue à la culture du viol ou conduit à maltraiter des partenaires sexuels humains. Nous aurions alors un devoir indirect de ne pas maltraiter les robots sexuels.

Toutefois, ce type d’argument ne suffit pas à accorder un statut moral ou juridique particulier à une IA. Sur le plan juridique, des devoirs indirects peuvent mener à condamner certaines pratiques impliquant des robots, voire la production de ces robots, mais ils ne justifient pas, par exemple, qu’un robot soit émancipé de la catégorie des biens meubles en droit civil, c’est-à-dire des biens que l’on peut déplacer, par exemple une table ou un grille-pain.

Peu de gens sont prêts à reconnaître qu’ils ont des devoirs (directs) envers les plantes ou les bactéries.

Un deuxième type d’argument s’appuie sur l’idée qu’il faut accorder un statut moral à tous les êtres vivants et, par extension, à tous les systèmes pouvant créer, reproduire et échanger de l’information. En éthique environnementale, on peut envisager un statut moral pour un être vivant comme une plante ou une bactérie, même si cet organisme n’est pas conscient de son existence et ne ressent rien. Les tenants de cette position, le biocentrisme, accordent une valeur intrinsèque à tous les êtres vivants et ne placent pas l’être humain au centre des systèmes de valeurs. Ainsi, l’éthicien Richard Taylor défend notamment l’idée que nous avons des devoirs envers les organismes vivants, indépendamment des bénéfices pour les êtres humains de préserver ces organismes.

Les IA peuvent créer, sélectionner et échanger de l’information. Elles communiquent entre elles, elles communiquent avec des êtres humains et, surtout, elles peuvent avoir un but. Si l’on s’entend pour y voir un critère suffisant du vivant, alors un programme informatique, même s’il n’a pas de dimension biologique ou organique particulière, pourrait bien être qualifié de vivant. Selon l’approche biocentriste, il se verrait par là accorder un statut moral.

Cette position demeure toutefois difficile à tenir. Tout d’abord, le biocentrisme est un courant assez marginal et repose sur des prémisses que plusieurs trouvent contre-intuitives. En effet, peu de gens sont prêts à reconnaître qu’ils ont des devoirs (directs) envers les plantes ou les bactéries. Ensuite, il ne va pas du tout de soi qu’on puisse assimiler des IA à des êtres vivants. Les êtres vivants ont un « corps » constitué de matière organique. Les IA, en revanche, sont désincarnées : ce ne sont que des lignes de codes et du traitement d’information. Attribuer une valeur intrinsèque à la vie, comme le fait un biocentriste, ne conduit donc pas forcément à donner un statut moral particulier à une IA au prétexte qu’elle traite de l’information. Enfin, quand bien même une position biocentriste serait justifiée pour les IA, il est difficile de voir quelles pourraient en être les implications morales et juridiques. Les auteurs qui explorent cette voie (comme Luciano Floridi) reconnaissent habituellement que la valeur morale d’un système d’information est minimale et qu’elle pourrait facilement être contrebalancée par d’autres considérations. Bref, on est loin de pouvoir fonder une politique publique sur ce type d’argument.

On peut alors penser à une troisième idée : pourquoi ne pas accorder un statut moral et juridique aux IA quand elles seront suffisamment intelligentes ? Nous avons créé des IA très performantes dans des tâches spécialisées comme jouer au go ou reconnaître un visage, mais nous sommes encore loin d’une intelligence générale similaire à celle d’un être humain, laquelle est plurielle et ne se résume pas au quotient intellectuel. Il semble en particulier très difficile d’enseigner le « sens commun » à une machine. En dessous d’un certain seuil d’intelligence, n’est-il pas légitime d’instrumentaliser les IA en les traitant comme de simples machines ?

Pourtant, quand bien même une IA serait autant voire plus intelligente qu’un humain, il ne va pas de soi que cela lui confère un statut moral et juridique particulier. Pourquoi le fait d’être plus ou moins intelligent serait-il moralement pertinent ? Dans un contexte humain, on ne considère habituellement pas qu’il est plus grave de faire du tort à un individu qui est plus intelligent qu’un autre. De même, on ne confère pas un statut moral inférieur à une personne parce qu’elle est moins intelligente qu’une autre.

The inner workings of government
Keep track of who’s doing what to get federal policy made. In The Functionary.
The Functionary
Our newsletter about the public service. Nominated for a Digital Publishing Award.

Si la question du statut moral et juridique des IA est complexe, c’est parce qu’elle pousse à approfondir notre compréhension de l’esprit humain et non humain.

Si la question du statut moral et juridique des IA est complexe, c’est parce qu’elle pousse à approfondir notre compréhension de l’esprit humain et non humain. C’est le point de départ du quatrième argument. Il ne faut pas confondre l’intelligence d’une part et la sentience ou la conscience de l’autre. L’intelligence peut sembler être un critère pertinent parce que, chez l’être humain, elle semble aller de pair avec une grande capacité à ressentir des choses comme du plaisir, de la douleur ou des émotions. Mais une personne moins intelligente ne ressentira pas moins de plaisir ou de douleur. On peut alors se demander quel critère, l’intelligence ou la sentience, est le plus important.

En éthique animale, c’est le plus souvent le critère de la sentience qui est retenu pour étendre les limites du cercle de notre considération morale. Selon la déclaration de Cambridge sur la conscience, un texte signé en 2012 et faisant état des connaissances les plus à jour en cognition animale, « les humains ne sont pas seuls à posséder les substrats neurologiques de la conscience ». Les mammifères, les oiseaux ou les pieuvres possèdent également ces substrats et sont donc des êtres sentients. Selon ce dernier argument, c’est précisément parce que les animaux non humains sont capables de ressentir de la douleur que nous devons tenir compte de leur intérêt à ne pas souffrir lorsque nous prenons des décisions qui les concernent.

Sur le plan juridique et des politiques publiques, on voit apparaître à l‘échelle internationale des législations qui interdisent des pratiques (fermes à fourrure, production de foie gras) parce qu’elles causent de la souffrance à des animaux, et ce, indépendamment des bénéfices ou des inconvénients pour les êtres humains. Dès lors, pourquoi une IA sentiente au même degré que certains animaux non humains ne pourrait-elle pas jouir d’un statut moral ou juridique similaire ? Comment pourrait-il être acceptable de la maltraiter ou de la faire souffrir ?

Reste qu’à l’heure actuelle, il n’existe pas d’IA que l’on peut qualifier de sentiente ou de consciente. Même si certaines IA perçoivent et interprètent les émotions humaines et peuvent les simuler, cela ne signifie pas qu’elles ressentent quoi que ce soit. Du point de vue moral, il n’y a donc pas de raison directe d’empêcher de maltraiter un robot si la souffrance est seulement simulée (mais, comme nous l’avons vu, il peut y avoir des raisons indirectes).

L’éthique animale est l’un des premiers domaines à s’être posée la question de l’extension du cercle de la moralité. Si l’on se fie aux idées prévalentes dans cette discipline, la sentience offrirait le critère le plus fort pour conférer un statut moral et juridique à une IA. Au-delà de sa capacité à échanger de l’information ou de son niveau d’intelligence, il serait difficile de ne pas tenir compte des intérêts d’une IA pouvant ressentir du plaisir, de la douleur ou des émotions. Mais ce n’est pas (encore) le cas pour des IA. Si cela advenait, une approche basée sur l’éthique animale suggère que nous devrions conférer un statut moral et juridique aux IA afin de protéger leurs intérêts à ne pas souffrir.

Cet article fait partie du dossier Dimensions éthiques et sociales de l’intelligence artificielle.

Photo : Shutterstock / By Andrey_Popov


Souhaitez-vous réagir à cet article ? Joignez-vous aux débats d’Options politiques et soumettez-nous votre texte en suivant ces directives| Do you have something to say about the article you just read? Be part of the Policy Options discussion, and send in your own submission. Here is a link on how to do it. 

Martin Gibert
Martin Gibert est chercheur en éthique de l’intelligence artificielle  à l’Université de Montréal. Il a publié l’Imagination en morale (Hermann, 2014) et Voir son steak comme un animal mort (Lux, 2015).
Dominic Martin
Dominic Martin is professor of ethics at the School of Management at l’Université du Québec à Montréal. He is interested in the new challenges posed by artificial intelligence in relation to social justice, the economy and business.

You are welcome to republish this Policy Options article online or in print periodicals, under a Creative Commons/No Derivatives licence.

Creative Commons License