Si les Jeux olympiques et paralympiques de Paris ont été, de l’avis général, un éclatant succès sportif populaire, et reflété une si belle image de la capitale française, c’est aussi qu’aucune des innombrables menaces redoutées sur la sécurité de l’événement ne s’est concrétisée. S’appuyant sur ce constat, et sur ce souvenir d’euphorie collective, le préfet de police de Paris, Laurent Nuñez, s’est déclaré, mercredi 25 septembre « très favorable » à la prolongation du dispositif de vidéosurveillance algorithmique expérimenté pendant les Jeux et autorisé, par une loi de 2023, jusqu’au 31 mars 2025.
Cette technique, qui n’inclut pas la reconnaissance faciale, vise à détecter, grâce à l’analyse d’images et d’autres données, des événements anormaux tels que des mouvements de foule ou des objets abandonnés pouvant laisser présager un attentat. Il met en œuvre 480 caméras déployées par la Préfecture de police et la RATP.
La démarche du préfet relève d’une méthode très classique, celle du « pied dans la porte » : un dispositif de sécurité controversé, possiblement attentatoire aux libertés publiques, est expérimenté à l’occasion d’un événement exceptionnel, puis généralisé et pérennisé sans avoir été évalué ni rediscuté. A l’appui de son avis, M. Nuñez a seulement fait valoir que le déploiement de la vidéosurveillance algorithmique serait très utile lors de manifestations sportives ou culturelles de moindre ampleur que les Jeux, là où ne peuvent être déployés des effectifs de forces de l’ordre exceptionnels, comme cet été à Paris.
Bilan peu convaincant
Or la capacité de cette vidéosurveillance dite « intelligente » à détecter un attentat ou un autre crime est contestée. Son utilisation expérimentale antérieure, par exemple par la SNCF ou la mairie de Nice, n’a donné lieu à aucune évaluation publique. Aux Etats-Unis et au Royaume-Uni, où des résultats ont parfois été dévoilés, le bilan est peu convaincant, notamment en raison des nombreux « faux positifs » détectés. Si l’intérêt de cette technologie est bien établi, dans un cadre réglementé, pour la détection des incendies, sa capacité à analyser les comportements humains ne semble pas tenir les promesses des sociétés qui les promeuvent.
Le préfet de police va donc vite en besogne. Il ne saurait être question de pérenniser la vidéosurveillance algorithmique – qui supposerait d’ailleurs le vote d’un nouveau texte de loi – sans un examen attentif des conclusions du rapport sur ce sujet que le gouvernement doit remettre au Parlement d’ici au 31 décembre.
Cette discussion doit inclure le risque, assez évident, que la banalisation de ce type de vidéosurveillance serve surtout à consolider son acceptabilité sociale dans le but de favoriser l’adoption future de dispositifs relevant de la reconnaissance faciale et permettant une identification biométrique à distance en temps réel. Ceux-ci sont interdits dans l’Union européenne, sauf dans certaines circonstances. Pareille fuite en avant inclut potentiellement des formes redoutables de « reconnaissance des émotions » par l’intelligence artificielle, aujourd’hui prohibées en Europe, notamment dans le domaine du travail ou de l’éducation.
Tout déploiement de nouveaux outils de surveillance suppose transparence et discussion de ses résultats. Il serait paradoxal que la « parenthèse enchantée » de ces Jeux ouvre la voie à des dérives, dans le pays même qui se flatte d’avoir célébré, à cette occasion, devant le monde entier, les libertés du citoyen.