S’il est adopté, ce projet de loi approuvé par les sénateurs au mois de janvier légalisera l’utilisation d’un système de vidéosurveillance de masse intrusive assistée par l’intelligence artificielle pour la première fois dans l’histoire de la France – et de l’Union européenne. Cette architecture de surveillance colossale est, d’après les législateurs français, «expérimentale» et sera employée en vue d’assurer la sécurité lors des Jeux. Amnesty International redoute toutefois que ce projet de loi n’étende les pouvoirs de police en élargissant l’arsenal des équipements de surveillance du gouvernement, et ce de façon permanente.
«Réapprovisionner l’appareil de sécurité avec une surveillance de masse pilotée par intelligence artificielle est un projet politique dangereux, qui pourrait déboucher sur de graves violations des droits humains. Chaque action dans l’espace public sera aspirée dans un vaste filet de surveillance, ce qui portera atteinte aux libertés civiques fondamentale», a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.
«Les législateurs français n’ont pas réussi à démontrer que cette législation satisfait aux principes de nécessité et de proportionnalité, pierres angulaires permettant de garantir que les mesures de sécurité et de surveillance ne menacent pas les droits à la liberté de réunion et d’association, ainsi que le droit à la vie privée et à la non-discrimination. Si le besoin de sécurité pendant l’événement est tout à fait compréhensible, le droit international s’applique évidemment lors des JO. Dans leur forme existante, ces applications générales de surveillance de masse pilotée par l’IA piétinent allégrement le droit à la vie privée notamment.»
Si des mesures de surveillance de masse pilotée par l’IA sont mises en place, des millions de personnes – qu’elles se dirigent vers des stades ou se rendent en transports publics sur les sites de ce grand événement sportif – seront suivies et surveillées. Des algorithmes d’IA scannent et enregistrent les données de toutes les personnes se trouvant dans leur rayon d’action. L’omniprésence des caméras de vidéosurveillance et des drones lors des Jeux, permettant aux responsables de détecter les activités «suspectes» ou «anormales» dans la foule, est à ce titre particulièrement problématique.
«Ces définitions trop générales établies par les responsables de l’État pour catégoriser les activités "suspectes" ou "anormales" dans la foule sont très préoccupantes. Il est urgent que nous nous interrogions : qui fixe la norme de ce qui est "normal" ? Ceux qui décident de la définition des activités "anormales ou suspectes" dans les sociétés ont également le pouvoir d’exacerber l’effet dissuasif sur la dissidence et la contestation, et de renforcer la discrimination à l’égard de communautés déjà ciblées», a déclaré Agnès Callamard.
Les menaces en termes de droits humains que posent le développement et l’utilisation de l’IA par des entreprises privées et des autorités publiques dans l’Union européenne (UE) sont bien connues.
«Ces technologies amplifient les pratiques racistes lors des opérations de maintien de l’ordre et menacent le droit de manifester. Les minorités ethniques – notamment les personnes migrantes et de couleur – sont les plus exposées au risque d’être ciblées par certains outils de surveillance, particulièrement les systèmes de reconnaissance faciale», a déclaré Agnès Callamard.
Ce projet de loi est une menace pour la vie privée et les droits humains, mais trahit également l’esprit de la législation de l’Union européenne (UE) sur l’Intelligence artificielle, un texte d’importance mondiale qui vise à réglementer l’IA et à protéger les droits fondamentaux dans l’UE, dont la France est un membre influent.
«Le projet de la France d’employer des mesures de surveillance intrusives durant les Jeux olympiques doit mettre la puce à l’oreille de l’UE. La toute première apparition d’un tel dispositif de sécurité sur son territoire pourrait au bout du compte fausser la législation du bloc européen sur l’IA, et risquer de déclencher une crise des droits humains du fait de la violation à grande échelle des droits de millions de personnes, surveillées à leur insu et sans leur consentement, et potentiellement ciblées par des technologies expérimentales de surveillance de masse. Pendant la durée de ses négociations sur la législation sur l’IA, l’UE doit bloquer l’utilisation de ces technologies à des fins de surveillance de masse et de contrôle discriminatoire des populations civiles. Nous demandons également l’interdiction des systèmes de reconnaissance faciale utilisés à des fins de surveillance de masse», a déclaré Agnès Callamard.
Si la France légalise la surveillance de masse au niveau national, l’un des plus grands événements sportifs de la planète risque de se muer en l’une des plus grandes violations du droit à la vie privée.
Complément d’information
Le texte du projet de loi a été approuvé par le Sénat le 31 janvier et a franchi un obstacle législatif le 8 mars après le vote de la commission.
Dans une lettre ouverte à l’initiative du European Center for Not-for-Profit Law, 38 organisations de la société civile, dont Amnesty International, appellent les législateurs français à rejeter le projet de loi au motif qu’il autorise une surveillance intrusive.
Amnesty International, aux côtés d’une coalition d’organisations de la société civile menée par le Réseau européen des droits numériques (EDRi), milite en faveur de règlements respectueux des droits humains au sein de l’UE concernant les technologies et pratiques d’intelligence artificielle.
Amnesty International a publié un rapport sur l’utilisation de milliers de caméras de vidéosurveillance dotées de systèmes de reconnaissance faciale à travers la ville de New York, la plupart étant utilisées dans des quartiers à forte population de couleur ; la reconnaissance faciale amplifie la discrimination lors des opérations policières.
Au lendemain des Jeux olympiques de Londres en 2012, de nombreuses mesures de surveillance mises en place pour assurer la sécurité de l’événement sont devenues permanentes.