Adoptée pour les JO de Paris 2024, la surveillance algorithmique n’a jamais fait ses preuves

0
12

Le 24 janvier, le Sénat a adopté, au terme de vives discussions, l’article 7 du projet de loi sur les Jeux olympiques, qui autorise à titre expérimental le déploiement de caméras couplées à des systèmes de détection algorithmiques. Des outils à même, selon leurs promoteurs, de détecter des mouvements de foules, des bagages abandonnés ou des comportements suspects. Le cœur du débat a porté, et c’est bien normal, sur les risques majeurs que fait peser la banalisation des technologies de surveillance sur la vie privée. Mais un autre élément, pourtant crucial, n’a été que peu discuté : l’efficacité de ces outils présentés comme « intelligents ».

Lire aussi : Article réservé à nos abonnés Le Sénat adopte à une large majorité le projet de loi sur les Jeux olympiques doté de nombreuses mesures sécuritaires

Expérimentation : le terme suggère une application encadrée, limitée dans le temps, scientifique. Un test grandeur nature, dont les résultats seraient scrutés à la loupe en toute transparence par des experts, pour déterminer si la technologie est au point, utile, respectueuse de la vie privée comme du budget imparti.

En pratique, la décennie d’« expérimentations » – déjà – en matière de vidéosurveillance augmentée montre que c’est systématiquement l’inverse qui se produit. En 2016, la SNCF teste des caméras « intelligentes » pour détecter des agressions. Aucun résultat de l’expérience ne sera jamais communiqué.

En 2019, la mairie de Nice affirme avoir conduit des tests de caméras de reconnaissance faciale ayant réussi 100 % des identifications-tests. Six mois plus tard, la Commission nationale de l’informatique et des libertés critique fortement ce « succès » annoncé, dont les détails n’ont pas été rendus publics, ce qui ne permet pas, selon l’institution, d’avoir « une vision objective de cette expérimentation [ni] un avis sur son efficacité ». Depuis, la ville s’est tournée vers une autre technologie, sans reconnaissance faciale.

En 2020, la RATP « expérimente » durant quelques mois la détection automatique du port du masque dans le métro. Elle explique aujourd’hui au Monde ne pas avoir donné suite, en raison d’un « taux de détection moyen de 89 % » qui restait « inférieur aux observations faites sur le terrain ».

Promesses d’un outil ultra-performant

A l’étranger, où des tests à grande échelle ont été conduits aux Etats-Unis et au Royaume-Uni, des données plus détaillées ont parfois été dévoilées. Elles dressent un bilan très peu convaincant de l’utilité de ces technologies. En 2017, une expérience de détection de visages au carnaval de Notting Hill, à Londres, s’était soldée par un échec quasi total, avec de très nombreux « faux positifs » – des personnes identifiées à tort. En 2021, un audit du gouvernement de l’Utah, aux Etats-Unis, avait rendu un rapport extrêmement critique d’un dispositif de vidéosurveillance « intelligente » acheté par les forces de police de l’Etat à la société Banjo deux ans plus tôt.

Il vous reste 52.61% de cet article à lire. La suite est réservée aux abonnés.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici