[ Big Data de la tranquillité publique ] Décryptage du fourre-tout sécuritaire marseillais
Annoncé depuis plusieurs années, le « Big Data de la tranquillité publique » vise à rassembler le maximum de données et utiliser les nouvelles technologies de traitement de l’information pour garantir la « tranquillité publique ». Le détail du projet dévoile un champ vaste, des marchés forains à la surveillance des manifestations, qui inquiète les défenseurs des libertés publiques. Décryptage en huit questions clés.
« Ne jouez pas les Cassandre et ne restez pas rivé sur le passé. À moins que vous n’aimiez pas l’avenir ? En tout cas, vous n’interdirez pas l’innovation aux Marseillais. » En ce lundi 9 avril, dans l’hémicycle de Bargemon, la fin de non recevoir de Caroline Pozmentier est cassante. L’adjointe au maire déléguée à la sécurité vient sèchement refermer l’hypothèse d’un conseil municipal extraordinaire dédié au « Big Data de la tranquillité publique », demandé par le conseiller municipal Jean-Marc Coppola (PCF).
En 2015, lors de sa présentation en conseil municipal, les deux élus communistes étaient les seuls à s’être opposés à ce projet qui vise à collecter et croiser une masse importante de données (d’où le terme « big data ») pour « garantir de manière plus efficace la sécurité et la tranquillité publique des citoyens ». Trois ans après, « nous ne savons toujours rien ou presque de l’évolution de ce projet », avait plaidé Jean-Marc Coppola, dans un courrier adressé le 28 mars au maire de Marseille. Rien, ou presque, du moins jusqu’à il y a peu. En décembre, Le Monde a levé un premier voile sur le contenu du programme. Puis, en mars, l’association La Quadrature du Net en a dévoilé le cahier des charges complet ou cahier des clauses techniques et particulières (CCTP), qu’elle a réussi à obtenir après une demande d’accès aux documents administratifs.
Depuis plusieurs années, la Ville a considérablement investi le domaine de la sécurité : déploiement d’un vaste réseau de vidéosurveillance (1000 caméras installées, 500 de plus en prévision), recrutements dans la police municipale progressivement équipée de tasers, flash-ball, gilets pare-balles, revolvers et tout récemment de caméras-piéton… Cette politique n’est pas unique, notamment dans le sud-est de la France.
Mais avec son « Big Data de la tranquillité publique », aussi appelé « observatoire », la Ville ajoute une nouvelle brique au niveau français. Si le budget d’1,8 millions d’euros reste modeste, les questions soulevées sont considérables. Marsactu tente d’en faire le tour, avant un débat organisé jeudi 12 avril au Théâtre de l’Œuvre.
- Qui sera aux manettes ?
Pour mener à bien ce projet, la Ville a lancé un appel d’offres et c’est l’entreprise Engie Ineo, acteur majeur du secteur de la vidéosurveillance, qui l’a emporté, fin novembre 2017. Notamment grâce à des partenariats noués avec des entreprises telles qu’IBM, Engie Ineo s’est positionné depuis quelques années dans le secteur émergeant de la « smart city », autrement dit dans les services d’aide technologique à la prise de décision publique.
1,8 million d’euros sont mis sur la table par la Ville. 600 000 euros proviennent de l’Union Européenne, à travers le fonds Feder et 600 000 euros de subventions du conseil départemental des Bouches-du-Rhône. Le système mis en place par Engie Ineo doit être pleinement opérationnel fin 2020. Mais les premières étapes sont d’ores et déjà en cours, avec une montée en puissance progressive. Selon le calendrier initial, la phase « collecte des données » devait avoir démarré au début de l’année.
- Avec quelles données ?
Dans sa moulinette, Engie Ineo doit commencer par injecter des données fournies par les services municipaux, en particulier la police municipale et son centre de supervision urbain, où arrive l’intégralité des flux du réseau de caméras. De nombreux « partenaires », que l’entreprise est chargée de démarcher, sont aussi censés mettre au pot : marins-pompiers, hôpitaux, RTM et bien sûr police nationale. Pour les convaincre, « il sera fondamental de proposer à chacun des acteurs un ou plusieurs services qui motiveront leur participation et leur implication dans le projet », précise le cahier des charges. Autrement dit, les contributeurs devraient aussi avoir accès à tout ou partie des informations de l’observatoire…
« Les données publiées dans les espaces d’open data tel que data.gouv.fr » et les informations détenues par les opérateurs de télécommunications, les réseaux sociaux et le citoyen, « qu’il soit résident ou simple visiteur de la ville », viennent compléter le panel.
- Un outil de surveillance de la population ?
Oui. Le cahier des charges évoque la possibilité de « détecter la préparation d’événements sauvages ou d’actes de délinquances (ex. apéros géants, marchés à la sauvette, rackets aux abords des écoles) » et d’« anticiper les risques / menaces susceptibles de porter atteinte à l’ordre public et à la sécurité des citoyens (ex. évaluation du risque de rassemblements dangereux par analyse des tweets). » Cela, « en s’appuyant sur l’identification des acteurs (qui parle ? qui agit ? qui interagit avec qui ?) et remontée des fils de conversation (qui organise ? qui est le primo-déposant ?). »
Une mairie qui surveille sa population sur les réseaux sociaux dans un but sécuritaire : les ingrédients sont réunis pour alarmer les défenseurs des libertés publiques. « Pourra-t-on se joindre à un événement culturel ou une réunion politique sur la voie publique sans risquer d’être mis en fiche par cet outil de surveillance ? Faut-il comprendre que la simple participation à des manifestations et la critique de l’autorité sur les réseaux sociaux suffiront à être identifiés comme une menace pour l’ordre public, à l’image des leaders du mouvement Black Lives Matter à Baltimore ? », s’est inquiétée la Quadrature du Net, dans un communiqué.
Dans le sens inverse, le « crowdsourcing » sera également de la partie : il est prévu de permettre à chacun de « fournir en temps réel des informations (texto, vidéo, photo, vitesse de déplacement (sic), niveau de stress (re-sic)…) via une application sur smartphone ou des objets connectés. » Or, à Nice, le projet d’application mobile Reporty, permettant à chacun de dénoncer à la police la commission d’une infraction, s’est vu opposer un feu rouge par la Commission nationale informatique et libertés (CNIL). Des limites qui pourraient également toucher le projet marseillais.
- La CNIL, gendarme des données, a-t-elle validé le projet ?
Pas vraiment. La Ville de Marseille ne le conteste pas, dans ses déclarations comme dans le cahier des charges : la CNIL est incontournable dans ce projet. « Sur notre plateforme, nous n’utiliserons que des données anonymisées. Et nous travaillons avec la CNIL dans le respect strict du référentiel de recommandations que nous appliquons déjà pour notre système de vidéoprotection », assurait Caroline Pozmentier au Monde, en décembre. Une affirmation que la CNIL elle-même a pris soin de recadrer, après avoir été sollicitée par NextInpact. Elle assure ne pas avoir été contactée par la municipalité pour une quelconque déclaration ou demande d’autorisation sur le projet et précise que ce n’est qu’« à la suite d’articles parus dans la presse [que] la commission a pris l’initiative de se rapprocher de la ville. »
« Le cahier des charges a été écrit dans le respect de la législation CNIL », a réaffirmé Caroline Pozmentier lors du conseil municipal du 9 avril. La suite du discours ressemble pourtant à un aveu : seul le correspondant informatique et liberté (CIL) de la Ville « a toujours été informé et actif sur ce projet. » Quant à la CNIL elle-même, « elle a pris contact avec notre CIL en février et leurs échanges ont conclu que nous avions fait tout ce qu’il fallait à ce stade. » Nous n’avons pas pu obtenir confirmation de la CNIL.
- Un « Minority Report » marseillais ?
Ça reste à voir. Aux États-Unis et dans une moindre mesure en France avec la gendarmerie et la police nationale, des applications dites de « police prédictive » ont bien été développées ces dernières années. Non sans critiques sur leurs efficacités, comme l’a rappelé récemment l’Humanité. Du côté de l’observatoire marseillais, le volet prédictif est bien présent, mais il pourrait être grignoté par d’autres tâches, bien plus lourdes. « Il faut déjà procéder aux préliminaires que sont la collecte, le décorticage et l’analyse des données. C’est un travail de fond, colossal », estime Liva Ralaivola, chercheur au laboratoire informatique et systèmes de l’université Aix-Marseille.
Au-delà, il est permis de douter de la place que prendra réellement la répression de la délinquance. « Par “tranquillité publique”, seront considérés les aspects de sûreté, de sécurité, de bon ordre et de salubrité. L’axe sécuritaire est toutefois prioritaire », est-il affirmé. Mais il ne s’agit que d’un pan du champ très large ouvert par le cahier des charges.
Trois axes sont en effet listés : les « faits de délinquance et des troubles à la sécurité des administrés sur l’espace public », les « problématiques liées à l’occupation du domaine public » et enfin celles « de fluidité de la circulation, de stationnement et de sécurité routière ». Les déclinaisons concrètes livrées confirment à quel point le spectre est vaste. On y parle de « problématique liée aux marchés forains », « aux chantiers dans la ville », « aux occupations ou installations illicites », « d’encombrement du trafic lié aux deux-roues »…
- Alors à quoi va servir cet observatoire ?
On ne sait pas encore. Ce champ, il va, forcément, falloir resserrer. En tout et pour tout, Engie Ineo devra choisir deux des trois axes (délinquance, occupation du domaine public, circulation) avec pour chacun deux cas pratiques, dont le cahier des charges donne quelques exemples. Ces options pourraient porter sur « la vie nocturne : identification des problématiques spécifiques à la nuit, des lieux problématiques, des secteurs à risque et des facteurs exogènes pouvant influer sur les faits constatés ou les risques encourus. » Ou bien sur la sécurisation du « patrimoine municipal de la petite enfance : écoles, crèches », ou encore « les lieux de culte : le contexte national de sécurité a très largement accentué la vulnérabilité de ce type d’établissement qui requiert aujourd’hui une surveillance et une attention maximales. »
Comme le notent les rédacteurs du cahier des charges eux mêmes, « l’approche est particulièrement exploratoire et créative. » Cette attitude correspond aussi au large champ des possibles qui semble désormais ouvert aux collectivités. « L’idée de smart city est développée depuis longtemps et beaucoup d’élus se disaient “On va faire une ville plus intelligente, qui va fluidifier le trafic, produire moins de déchets.” Mais c’était fait de manière un peu romantique, sans trop savoir comment s’y prendre », éclaire Liva Ralaivola, qui est chargé de mission « intelligence artificielle » à l’Université Aix-Marseille.
Mais alors qu’auparavant, « l’intelligence artificielle relevait du domaine de la science ou de la science-fiction, elle est devenue une technologie permettant de fabriquer des outils opérationnels, dont les acteurs peuvent s’emparer. C’est sur cette technologie que va s’appuyer le développement de la smart city », poursuit le chercheur. Ou de la « safe city », ambition posée par la mairie.
- La machine peut-elle être raciste ?
C’est peu ou prou l’alerte formulée par la CNIL, dans un rapport sur la smart city publié en octobre 2017. Les algorithmes utilisent notamment le principe du machine learning, ou apprentissage automatique. De la même manière que votre téléphone portable apprend progressivement quels mots vous utilisez le plus souvent pour vous les suggérer, le big data de la tranquillité publique se « nourrira » des données qu’on lui fournira pour en tirer des modèles. « Si les systèmes basés sur de l’algorithmie prédictive promettent de produire des résultats, ils sont aussi de formidables reproducteurs de biais. Plusieurs expériences ont par exemple démontré que les outils d’aide à la localisation des forces de l’ordre avaient tendance à renforcer certaines discriminations et qu’en termes d’efficacité, ils relevaient davantage de la prophétie auto-réalisatrice », écrit la CNIL dans son rapport.
Par exemple, même si l’on ne demande pas à l’algorithme de se baser sur la couleur de peau, « ce champ peut-être créé de manière cachée, plus vraisemblablement par une combinaison de données qui comprend aussi l’âge, la tenue etc. », pose Liva Ralaivola. Ce qui rend d’autant plus difficile l’analyse de ces algorithmes : « L’une des questions importantes est donc la capacité à comprendre les modèles construits par la machine, réinterpréter ce qu’elle a appris. » En somme, remettre de l’humain dans le dispositif sécuritaire.
Boris Barraud et Julien Vinzent