Au cours des dernières années, on a accordé de plus en plus d’attention aux possibilités offertes par les nouvelles technologies en matière de soutien au déploiement de l’aide humanitaire. On compte aujourd’hui plus de 80 millions de personnes dans le monde qui ont été contraintes de fuir leur foyer ou leur pays en raison d’un conflit armé, d’autres événements provoqués par l’homme ou de catastrophes naturelles. Deux choix s’offrent à ces personnes déplacées : attendre d’être en mesure de rentrer chez elles en toute sécurité ou demander l’asile dans un autre pays. Dans les deux cas, le processus est souvent ardu. Nombreux sont ceux qui sont obligés de résider dans des camps pendant des années, voire des décennies.

Plusieurs organisations viennent à leur secours. Dans le cas des réfugiés, l’aide est coordonnée par les Nations unies, par l’entremise d’agences telles que l’Agence des Nations unies pour les réfugiés (HCR) et le Programme alimentaire mondial (PAM), qui assument différentes responsabilités. Pour remplir leur mission, elles font de plus en plus appel aux technologies en intelligence artificielle, notamment pour suivre les dossiers et prévoir les catastrophes.

Dans ce domaine, l’utilisation de l’intelligence artificielle et d’autres technologies présente d’énormes avantages. Le recours à la modélisation pour prédire l’arrivée des réfugiés dans certains camps, par exemple, peut aider ces agences à mieux se préparer. La prédiction de catastrophes naturelles ou d’épidémies permet également d’atténuer l’impact de ces événements, ce qui est indispensable alors que nous sommes touchés à la fois par une crise climatique et par une crise sanitaire mondiales. Un certain nombre d’innovations, notamment la gestion de l’identité par chaînes de blocs et l’identification biométrique, ont également été mises au point afin d’aider les réfugiés à gérer leurs dossiers personnels.

Les réfugiés font partie des personnes les plus vulnérables à l’échelle mondiale. Il importe donc d’accorder une attention particulière à notre manière de collecter leurs données et d’utiliser des technologies qui leur seraient bénéfiques.

Les réfugiés font partie des personnes les plus vulnérables à l’échelle mondiale. Il importe donc d’accorder une attention particulière à notre manière de collecter leurs données et d’utiliser des technologies qui leur seraient bénéfiques. Par exemple, lorsqu’ils entrent pour la première fois dans un camp de réfugiés, les migrants sont invités à répondre à une série de questions délicates concernant leur âge, leur origine ethnique, leur religion et leur orientation sexuelle, afin de déterminer leur niveau de vulnérabilité. Les personnes les plus à risque sont prioritaires dans le triage au camp et dans le soutien aux demandes de statut de réfugié. Cependant, comme l’a montré la chercheuse Dragana Kaurin, la confidentialité des données peut être très faible, les questions étant posées en public et les données stockées dans des environnements non protégés. Une fois que ces informations sont accessibles, les demandeurs d’asile sont davantage exposés à divers risques. Les agressions sexuelles, la violence ethnique ou religieuse et le recrutement d’enfants soldats sont courants dans ces situations d’extrême précarité.

En outre, les réfugiés qui présentent une demande d’asile au Canada, aux États-Unis et dans l’Union européenne doivent désormais fournir des données biométriques, soit une photo et des empreintes digitales. Les photos sont maintenant analysées à l’aide de logiciels de reconnaissance faciale qui utilisent l’intelligence artificielle. Or les taux d’erreur de ces logiciels ont été documentés. Les chercheurs Joy Buolamwini et Timnit Gebru, par exemple, ont constaté que les logiciels de reconnaissance faciale courants étaient expérimentés sur des visages composés à plus de 83 % de personnes de race blanche et à 77 % d’hommes, ce qui entraînait des erreurs d’identification pouvant atteindre 46 % chez les femmes de couleur. Dragana Kaurin relève chez des demandeurs d’asile plusieurs cas d’identifications erronées qui, dans certains cas, ont entraîné le rejet des demandes.

Les technologies de reconnaissance faciale sont utilisées couramment lors du contrôle aux frontières. Le Canada partage d’ailleurs avec les États-Unis un système de surveillance qui lui permet d’identifier les personnes suspectes qui arrivent en sol canadien. Selon la journaliste Hilary Beaumont, le Canada est en train de piloter des systèmes de reconnaissance faciale qui sont déjà utilisés aux États-Unis. Cependant, ces systèmes soulèvent plusieurs questions sur le plan des droits humains, notamment le taux potentiel d’erreurs et le peu de régulation entourant cette technologie. Les migrants et les personnes déplacées n’étant pas en mesure de protéger leurs droits technologiques, il revient aux pays d’accueil de s’assurer que ces droits sont respectés.

Cependant, les personnes déplacées qui traversent nos frontières ne sont pas priorisées en matière de protection des données et de la vie privée. Leur statut de non-citoyens canadiens et des considérations en matière de sécurité font en sorte que l’on a tendance à négliger leurs droits. Ces personnes sont pourtant en situation d’extrême vulnérabilité et mériteraient qu’on leur accorde plus d’attention, et non moins.

À l’intérieur de nos frontières, l’application de traçage Alerte COVID, déployée récemment par notre gouvernement, permet une comparaison saisissante. Pour la mettre au point, les gouvernements national et provinciaux ont mené de vastes consultations auprès de citoyens canadiens et d’experts en matière de protection de la vie privée, et tous ont demandé des mesures de protection très strictes. Les Canadiens ont exprimé de nombreuses préoccupations, notamment le risque que le gouvernement puisse suivre leurs déplacements, la possibilité d’être identifiés par d’autres personnes et surtout, l’importance du contrôle de leurs renseignements médicaux.

La principale différence entre les demandeurs d’asile et les citoyens canadiens est que ces derniers peuvent exprimer clairement et en toute sécurité leurs préférences en matière de vie privée. De leur côté, les demandeurs d’asile ne sont pas en mesure d’exiger le respect de leur vie privée ou de négocier les biais algorithmiques. À ce titre, ils ont très peu de recours lorsque des technologies sont élaborées à leur intention. Si l’utilisation de la collecte de données et des technologies prédictives dans le traitement des demandes d’asile est justifiée, elle doit être effectuée avec la plus grande prudence.

Le Canada peut jouer un rôle de premier plan dans ce domaine. Tout d’abord, il peut participer activement à l’élaboration et à la mise en œuvre de moyens de protection plus solides en matière de technologies pour les réfugiés à l’échelle mondiale. Il pourrait être le chef de file dans l’établissement d’une convention internationale pour les droits des réfugiés qui comprendrait les droits numériques. Son engagement pourrait également prendre la forme d’une modification de la Convention de 1951 relative aux droits des réfugiés et de la Convention de 1954 relative aux droits des apatrides, qui ont été élaborées bien avant les préoccupations actuelles sur les nouvelles technologies.

Ensuite, le Canada devrait examiner sa propre utilisation de ces technologies, notamment en ce qui concerne les systèmes de surveillance qu’il partage avec les États-Unis, et s’assurer que toutes les personnes inscrites dans ces systèmes sont protégées. Pour finir, il devrait offrir aux réfugiés les mêmes mesures de protection de la vie privée et des droits humains que celles qu’il applique à ses propres citoyens. La leçon à tirer de l’application Alerte COVID, c’est qu’elle nous montre quelles sont les caractéristiques de confidentialité souhaitées par les citoyens si on leur donne réellement le choix.

Souhaitez-vous réagir à cet article ? Joignez-vous aux discussions d’Options politiques et soumettez-nous votre texte , ou votre lettre à la rédaction! 
Eleonore Fournier-Tombs
Eleonore Fournier-Tombs est directrice du Laboratoire pour l’inclusion technologique et coordonnatrice de la Chaire de recherche sur l’intelligence artificielle responsable à l’échelle mondiale à l’Université d’Ottawa.

Vous pouvez reproduire cet article d’Options politiques en ligne ou dans un périodique imprimé, sous licence Creative Commons Attribution.

Creative Commons License