L’Etat veut légaliser et généraliser la vidéosurveillance automatisée dans l’espace public

IA et algorithmes partout pour traquer les comportements dits suspects

vendredi 6 janvier 2023, par Chronique du régime policier.

Comme prévu, l’Etat veut légaliser la vidéosurveillance automatisée dans l’espace public. L’occasion et le prétexte est les JO de 2024.
Comme d’habitude, l’Etat légalise des pratiques de surveillance illégales qui ont servi d’expérimentation et de test d’acceptation.
Pas besoin de films dystopiques pour avoir envie de gerber. L’inviolabilité de la vie privée, dernier prétexte à la justification du libéralisme, n’est plus qu’un mythe face à l’intrusion des multiples dispositifs de surveillance qui s’empilent.

En dehors des classes supérieures, comment arriver encore à supporter ou désirer ce modèle social qui génère tant de violences, de destructions et de problèmes ?
Par peur et incapacité d’imaginer autre chose ?

L’Etat veut légaliser et généraliser la vidéosurveillance automatisée dans l’espace publique
IA et algorithmes partout pour traquer et ficher

- Mobilisation générale contre la légalisation de la vidéosurveillance automatisée !
En catimini pendant les fêtes, le gouvernement a déposé le projet de loi concernant les jeux Olympiques et Paralympiques de 2024. Comme on l’attendait, ce texte prévoit d’ouvrir la voie à la légalisation de la vidéosurveillance automatisée (ou algorithmique, abrégée « VSA »), le tout sous un vernis théorique d’expérimentation limitée dans le temps. Et ce alors que partout sur le territoire, ces technologies sont déjà employées dans l’illégalité et l’impunité la plus totale. Prenant pour prétexte l’organisation prochaine des grandes compétitions sportives, le gouvernement et nombre de parlementaires se posent en défenseurs de l’industrie française en lui permettant de s’étendre durablement sur le marché de la vidéosurveillance.

Pour rappel : la vidéosurveillance automatisée, c’est la surveillance policière massive de l’espace public pour détecter des comportements réputés « anormaux » ; c’est le suivi algorithmique d’individus « suspects » dans la rue ; c’est l’intelligence artificielle pour faire la chasse aux illégalismes populaires ; c’est, à terme, l’identification par reconnaissance faciale en temps réel et la massification de la vidéoverbalisation ; ce sont des dizaines de millions d’euros d’argent public pour des technologies dangereuses déployées sans aucun débat digne de ce nom.

Si nous voulons tenir en échec ce projet de société, il nous faut obtenir coûte que coûte le rejet de ces dispositions. Tenez-vous prêt·es pour la mobilisation !

Cela fait plus de trois ans que nous documentons l’expérimentation illégale de la vidéosurveillance automatisée dans les villes et les villages français, que nous saisissons les tribunaux, dans des grandes villes comme à Marseille ou de petits villages comme à Moirans (Isère), pour dénoncer l’illégalité de ces technologies de surveillance dopées à l’intelligence artificielle. Trois années que, de leur côté, le gouvernement et les industriels se savent dans l’illégalité et qu’ils cherchent à changer la loi pour sécuriser ces déploiements sur le plan juridique. En 2020 déjà, la loi Sécurité Globale avait failli servir de canal législatif. Par peur des oppositions, le gouvernement avait alors préféré temporiser. Mais cette fois, nous y sommes…
(...)

Car en réalité, les expérimentations s’insèrent dans un projet politique plus large et satisfont les désirs exprimés depuis plusieurs années par le secteur industriel et les institutions policières d’utiliser massivement ces dispositifs. Il est donc certain que ces outils ne seront pas abandonnés après la fin de la période d’expérimentation, de la même manière que les boites noires des services de renseignement ou les règles dérogatoires de l’état d’urgence de 2015 ont été pérennisées alors qu’elles étaient censées être temporaires et exceptionnelles. D’ailleurs, des parlementaires en vue sur ce dossier, comme Philippe Latombe, évoquent dores et déjà une autre loi, plus généraliste, à venir sur le même sujet dans le courant de l’année 2023.
(...)

Nous l’avons dénoncé à plusieurs reprises : ces outils sont tout sauf neutres. Dans la pratique actuelle du secteur, ces évènements vont de la « détection de comportement suspect », au « maraudage » (le fait d’être statique dans l’espace public), en passant par le « dépassement d’une ligne virtuelle » (c’est-à-dire l’entrée d’une personne dans une zone), le suivi de personne, la détection d’objets abandonnés, d’une bagarre ou encore d’un vol. Les comportements dits « suspects » ne reflètent aucune réalité tangible mais ne sont que la matérialisation de choix politiques subjectifs et discriminatoires qui se focalisent sur les personnes passant le plus de temps dans la rue : par exemple, sous la fonctionnalité de détection du « maraudage » se cache en réalité une chasse aux personnes mendiant. Qu’elle soit humaine ou algorithmique, l’interprétation des images est toujours dictée par des critères sociaux et moraux, et l’ajout d’une couche logicielle n’y change rien. Au final, elle automatise et massifie la prise de décision de la police pour mieux lui permettre d’augmenter son pouvoir de surveillance et de répression. 

Afin de pousser cette stratégie de minimisation de sa surveillance, le gouvernement affirme également que ces dispositifs ne traiteraient pas de données biométriques (ce qui est faux comme nous l’expliquions ici, et comme l’a récemment rappelé le Défenseur des droits) et qu’ils ne feront pas de reconnaissance faciale. En s’engageant à renoncer pour l’instant à cette technologie qui a une place bien particulière dans l’imaginaire collectif, il joue ici un jeu politique et stratégique de communication pour donner à la VSA une image moins dangereuse. Le discours consiste à affirmer que la VSA ne reposerait « que » sur une analyse d’images purement technique qui ne se contenterait « que » d’« assister » l’humain. À nouveau, le gouvernement et le Conseil d’État piochent ici directement dans la pile d’arguments des marchands et promoteurs de la VSA. Celle-ci n’est en rien moins dangereuse que la reconnaissance faciale et touche à la même intimité du corps.
En d’autres termes, la reconnaissance faciale n’est que l’une des nombreuses applications de la VSA. Et il y a fort à parier que son usage pour identifier des personnes en temps réel sur la voie publique sera à son tour légalisé, à l’occasion d’une prochaine et énième loi sécuritaire.

(...)
La VSA est un changement de dimension de la surveillance de masse. En autorisant l’État à analyser, classer, évaluer les mouvements et comportements de chaque individu dans l’espace public, en lui donnant des pouvoirs de décision décuplés par l’automatisation de la prise de décision, cette technologie transforme notre rapport à l’espace public et démultiplie les capacités de contrôle et de répression de la police
(...)

Les technologies de surveillance servent à tout

- Voitures polluantes : des caméras de contrôle plein les villes ? - Pour faire respecter l’interdiction massive des véhicules polluants dans les zones à faible émission, l’État promeut de nouveaux outils de surveillance.

Autres articles sur ces sujets

  • Contre-consultation populaire contre la vidéosurveillance automatis - La vidéosurveillance augmentée investit les campagnes dans l’indifférence générale
  • Qu’est-ce que la vidéosurveillance algorithmique ? - La semaine dernière, La Quadrature du Net a transmis à la CNIL sa position relative à la vidéosurveillance dite « algorithmique », ainsi que plus de 170 contributions de personnes nous ayant mandatées dans le cadre d’une contre-consultation populaire. Nous allons revenir prochainement sur le détail des arguments qui conduisent, selon nous, à combattre toute légitimation de ces dispositifs. En attendant, il est essentiel de revenir sur ce que signifie ce terme et sur la nature exacte de ces technologies déployées depuis plusieurs années en France. Alors, de quoi parle t-on ?
  • Vidéosurveillance automatisée : on ne pourra plus faire un pet de travers - La Ville de Marseille est en train de mettre en place un système permettant d’alerter automatiquement la police du moindre « comportement anormal » détecté par ses caméras de vidéosurveillance. Alors que la phase de test a déjà commencé, deux associations de défense des libertés tentent de faire interdire ce projet cauchemardesque. Une audience est prévue le 2 mars au tribunal administratif.
  • Vidéosurveillance automatisée : “Avec ce système, l’anonymat dans la ville c’est fini” - Des associations de défenses des libertés individuelles viennent de déposer un recours contre la décision de la Ville de Marseille d’installer un système de "vidéoprotection intelligente". Interview de l’un des requérants.

Répondre à cet article

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Partagez la page

Site réalisé avec SPIP | | Plan du site | Drôme infos locales | Articles | Thèmes | Présentation | Contact | Rechercher | Mentions légales | Suivre la vie du site RSS 2.0
Médial local d'information et d'expression libre pour la Drôme et ses vallées, journal local de contre-pouvoir à but non-lucratif, média participatif indépendant :
Valence, Romans-sur-Isère, Montélimar, Crest, Saillans, Die, Dieulefit, Vercheny, Grane, Eurre, Loriol, Livron, Aouste sur Sye, Mirabel et Blacons, Piegros la Clastre, Beaufort sur Gervanne, Allex, Divajeu, Saou, Suze, Upie, Pontaix, Barsac, St Benois en Diois, Aurel...
Vous avez le droit de reproduire les contenus de ce site à condition de citer la source et qu'il s'agisse d'utilisations non-commerciales
Copyleft