L'IFDH demande plus de transparence sur l'utilisation des algorithmes par les autorités

L'Institut Fédéral des Droits Humains (IFDH) a soumis cette semaine un avis dans lequel il demande plus de transparence sur l'utilisation des algorithmes et de l'intelligence artificielle par les autorités. « Un algorithme n'est pas infaillible. Il peut avoir certains préjugés et faire des erreurs », explique Martien Schotsmans, directrice de l’IFDH.  « La transparence est donc extrêmement importante pour éviter que de telles erreurs ne conduisent à des violations des droits humains. » 

Impact sur les droits humains 

Les algorithmes sont souvent utilisés pour automatiser certaines décisions ; il suffit de penser à l'algorithme de Facebook, qui en ce moment suscite à nouveau une vive polémique. Mais les autorités utilisent également des algorithmes : pour choisir une école pour des enfants, prédire la criminalité ou pour la reconnaissance faciale dans les espaces publics, où on ne sait pas toujours comment et dans quel but la reconnaissance faciale est utilisée. Cela permet aux autorités de réaliser d'importants gains d'efficacité, mais n'est pas entièrement sans risque, comme cela a été récemment démontré aux Pays-Bas. L'identification incorrecte de la fraude sociale par des algorithmes a mis de nombreuses familles dans la détresse et conduit à la chute du gouvernement.  

Un algorithme n'est pas infaillible. Il peut avoir certains préjugés et faire des erreurs. La transparence est donc extrêmement importante pour éviter que de telles erreurs ne conduisent à des violations des droits humains.

En Belgique, les individus ne savent souvent pas pour quelles décisions les autorités utilisent des algorithmes. En outre, la manière dont un algorithme traite les données personnelles n'est pas toujours claire. Sur ces deux questions, l’IFDH estime qu'il est nécessaire d’améliorer la transparence afin de  garantir le respect des droits humains. 

Une proposition de loi comme première étape 

L’IFDH a soumis cette semaine un avis sur une proposition de loi qui vise à rendre plus transparente l'utilisation des algorithmes par l’administration. « La proposition de loi est un premier pas intéressant vers la création d'un cadre pour l'utilisation de l'intelligence artificielle et des algorithmes par les services publics », déclare Schotsmans. « Toutefois, l'obligation de transparence pourrait être étendue à toutes les autorités publiques fédérales. Actuellement, le pouvoir judiciaire, la police, l'armée et les services de renseignement ne sont pas concernés par la proposition de loi, alors qu'ils sont également susceptibles d’utiliser des technologies qui présentent des risques pour les droits humains, comme la reconnaissance faciale. Cette question est également très présente au niveau européen. Au Parlement Européen, une résolution a été adoptée cette semaine pour réglementer plus strictement l'utilisation de l'intelligence artificielle par la police et le pouvoir judiciaire.

La proposition de loi prévoit également une exception pour les ‘secrets protégés par la loi’. L’IFDH trouve cette formulation trop imprécise. Selon l'institut, cela pourrait conduire à restreindre fortement le champ d'application de la loi, par exemple si une entreprise privée développe une technologie pour le gouvernement. L'obligation de transparence pourrait ici être mise de côté afin de ne pas violer la propriété intellectuelle ou le secret des affaires. 

Enfin, l’IFDH préconise également la création d'un registre public dans lequel seraient répertoriés les usages d’intelligences artificielles par les autorités. Toute personne devrait pouvoir consulter ce registre pour en savoir plus sur les systèmes utilisés, leur marge d'apprentissage autonome et la nature des données sur lesquelles se fonde cet apprentissage. 
 

back to top