Le gouvernement français souhaite expérimenter à grande échelle des caméras de surveillance dotées d’IA lors des JO de Paris en 2024


Pour détecter en temps réel les comportements suspects.

L’Assemblée nationale française a approuvé jeudi l’utilisation de caméras de surveillance assistées par l’IA pour assurer la sécurité lors des Jeux olympiques de Paris en 2024. Le gouvernement français soutient que cette vidéosurveillance sera utile pour repérer les comportements suspects, y compris les bagages non supervisés et le déclenchement d’alarmes pour avertir des mouvements de foule tels que les bousculades. Mais l’idée est critiquée par les groupes de défense des droits de l’homme qui affirment que la France crée un dangereux précédent dans l’UE en mettant en place un tel arsenal de surveillance. Ils craignent que les caméras restent après les JO de 2024.

Le dispositif de sécurité prévu par Paris dans le cadre des Jeux olympiques d’été de 2024 suscite le mécontentement et l’indignation des groupes de défense des droits de l’homme, mais également d’autres gouvernements dans l’UE et ailleurs dans le monde. Le gouvernement français souhaite en effet utiliser à titre expérimental des caméras de surveillance assistées par l’IA pour assurer la sécurité des manifestations sportives, récréatives et culturelles. Les autorités françaises ont affirmé que, par leur ampleur ou leurs circonstances, elles sont particulièrement exposées au risque d’actes de terrorisme ou de menaces graves pour la sécurité des personnes.

Cette surveillance couvrira la période des Jeux olympiques et paralympiques de Paris en 2024 et s’étendra jusqu’au 30 juin 2025. Approuvé par les sénateurs français en janvier dernier, le projet de loi a fait l’objet d’un vote en commission au début du mois. Jeudi, l’Assemblée nationale française a adopté l’article 7 du projet de loi, qui autorise l’analyse automatisée des vidéos de surveillance provenant de caméras fixes et de drones. Cependant, l’initiative du gouvernement français fait l’objet d’une forte constatation aussi bien en France qu’à l’international. Le texte peut encore être contesté devant la plus haute juridiction constitutionnelle du pays.

Les critiques considèrent le projet de loi comme une atteinte flagrante aux libertés civiles vitales, un fait qu’ils jugent “décevant” venant d’une démocratie telle que la France. La semaine dernière, un groupe d’une quarantaine de législateurs européens, principalement de gauche, a demandé à ses homologues français de voter contre le texte. Il ont averti dans une lettre que “la France créerait un précédent de surveillance d’un type jamais vu en Europe, en utilisant le prétexte des JO”. Selon les observateurs, avant même l’adoption du texte jeudi, les députés avaient déjà déposé 770 amendements au vaste projet de loi, dont beaucoup visaient l’article 7.

Comme mentionné plus haut, cette section prévoit que les vidéos enregistrées par les systèmes de surveillance existants ou nouveaux, y compris les caméras montées sur des drones, soient “traitées par des algorithmes”. Les logiciels d’IA détecteraient en temps réel des événements prédéterminés susceptibles de poser ou de révéler un risque d’actes terroristes ou d’atteintes graves à la sécurité, tels que des mouvements de foule inhabituels ou des sacs abandonnés. En cas de correspondance, les systèmes signaleraient alors ces événements à la police ou à d’autres services de sécurité présents sur les lieux, qui pourraient décider d’une intervention.

Les opposants s’inquiètent du fait que le projet de loi met le pied dans la porte pour une surveillance future. Les organisations telles qu’Amnesty International France, La Quadrature du Net, European Center for Not-for-Profit Law (ECNL), European Digital Rights (EDRi) et 34 autres groupes de défense des droits s’opposant au plan de surveillance par l’IA ont contesté le projet de loi dans une lettre ouverte. Dans la lettre, l’ENCL et ses alliés ont vivement dénoncé l’initiative et affirmé que le projet de loi du gouvernement français sur viole le droit international des droits de l’homme en ignorant les tests d’équilibre de la nécessité et de la proportionnalité.

« Si l’objectif des caméras pilotées par des algorithmes est de détecter des événements suspects spécifiques dans les espaces publics, elles captureront et analyseront nécessairement les caractéristiques physiologiques et les comportements des individus présents dans ces espaces, tels que la position de leur corps, leur démarche, leurs mouvements, leurs gestes ou leur apparence », indique la lettre ouverte. Mais le gouvernement français s’efforce d’assurer que les tests de caméras d’IA ne traiteront pas de données biométriques et n’auront pas recours à la reconnaissance faciale, une technologie dont les Français se méfient d’une application trop large.

« L’expérimentation est très précisément limitée dans le temps et l’algorithme ne se substitue pas au jugement humain, qui reste déterminant », a déclaré la ministre française des Sports Amélie Oudea-Castera aux députés. Le ministère français de l’Intérieur, Gérald Darmanin, a mis en avant un sondage réalisé en février pour le quotidien Figaro qui suggère qu’une large majorité des Français est favorable à l’utilisation des caméras dans les espaces publics, dont les stades. Bien que le plan de surveillance soit censé expirer, les groupes de défense des droits soutiennent que la technologie, une fois mise en œuvre, a tendance à rester en place.

Ils citent la longévité des mesures de sécurité similaires adoptées pour les Jeux olympiques de 2012 à Londres et la Coupe du monde de la FIFA 2018 en Russie. Mher Hakobyan, conseiller d’Amnesty International en matière de réglementation de l’IA, a publié une déclaration dans laquelle il affirme : « alors que la France se présente comme une championne des droits de l’homme sur le plan mondial, sa décision de légaliser la surveillance de masse par l’IA pendant les Jeux olympiques conduira à une attaque en règle contre les droits à la vie privée, à la protestation et à la liberté de réunion et d’expression ». Il a mis en garde contre les dérives potentielles.

Hakobyan a ajouté que les technologies de surveillance ont tendance à cibler de manière disproportionnée les groupes marginalisés. Outre les préoccupations relatives à la protection de la vie privée, les groupes de défense des droits de l’homme ont mis en évidence un conflit potentiel avec la législation européenne sur l’IA, qui fait actuellement l’objet de discussions à Bruxelles et qui pourrait limiter la surveillance biométrique. Les législateurs du parti du président français Emmanuel Macron ont affirmé que les caméras dotées d’IA auraient pu empêcher l’attentat terroriste de Nice en 2016 en repérant le camion avant qu’il ne fonce dans la foule.

Ils ont ajouté que cela aurait pu aider à éviter le fiasco de la sécurité lors de la finale de la Ligue des champions de football l’été dernier. Les députés de l’opposition de gauche ont répondu que la surveillance de masse par l’IA était sans précédent dans les sociétés démocratiques et qu’elle menaçait dangereusement les libertés civiles. Ils craignent également que les mesures, présentées comme temporaires, ne deviennent en fait permanentes. L’histoire a montré, selon eux, que les Jeux olympiques dans des pays comme la Chine ont été utilisés pour tester des infrastructures de sécurité invasives qui n’ont jamais été démantelées par la suite.

Lire aussi : Le Parlement européen a demandé des caméras de vidéosurveillance à reconnaissance faciale, malgré son opposition publique à cette technologie

Sources : DeveloppezAssemblée nationale française, Amnesty International, lettre ouverte des groupes de défense des droits de l’homme (PDF), loi européenne sur l’IA, lettre ouverte des législateur européens (PDF)


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *