Le développement rapide de nouveaux outils de captation et de nouvelles modalités d’exploitation de la vidéosurveillance / vidéoprotection soulève des enjeux importants pour les droits et les libertés des citoyens et pose la question de leur régulation.
Cet article fait ainsi partie d’une série de quatre articles visant à appréhender en détail les enjeux posés par les systèmes de vidéo « intelligents » et la reconnaissance faciale, et leur régulation :
- Qu’est-ce que la reconnaissance faciale et comment s’articule-t-elle avec les systèmes de vidéo « intelligents » et l’intelligence artificielle ?
- Reconnaissance faciale : les enjeux et les risques d’une technologie en pleine accélération
- Reconnaissance faciale : quel cadre juridique appliquer ?
La loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 autorise, pour la première fois, la mise en œuvre de solutions d’intelligence artificielle dans la vidéoprotection, et ce à titre d’expérimentation.
Caméras augmentées lors des Jeux Olympiques de Paris
L’objectif de cette expérimentation est de déterminer les apports possibles de l’intelligence artificielle pour la sécurisation des grands événements notamment en facilitant le travail des opérateurs des dispositifs classiques de vidéoprotection. En pratique, il s’agit d’augmenter la capacité des opérateurs vidéo à détecter des situations inhabituelles en les alertant sur les situations anormales détectées par l’intelligence artificielle sur la base des événements qu’ils ont été programmés à rechercher. La décision d’intervention doit néanmoins rester entre les mains de l’opérateur vidéo, c’est-à-dire une personne humaine.
Un marché national conduit d’août à décembre 2023 par le ministère de l’Intérieur et des Outre-mer, a permis de sélectionner les outils qui seront utilisés lors de cette phase d’expérimentation. Pour cette sélection, leurs performances techniques ont été évaluées (notamment le respect des règles de sécurité définies par l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI)) mais également leur conformité aux exigences de respect de libertés et droits fondamentaux fixées par la loi (par exemple, garantissant que les données d’apprentissage soient pertinentes, adéquates et représentatives).
Le décret d’application (décret n° 2023-828 du 28 août 2023 relatif aux modalités de mise en œuvre des traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs) identifie huit types d’évènements qui pourront être détectés par les solutions déployées dans le cadre de l’expérimentation :
- la présence d’objets abandonnés,
- la présence ou utilisation d’armes,
- tout non-respect par une personne ou un véhicule, du sens de circulation commun,
- le franchissement ou la présence d’une personne ou d’un véhicule dans une zone interdite ou sensible,
- la présence d’une personne au sol à la suite d’une chute,
- un mouvement de foule,
- une densité trop importante de personnes,
- des départs de feux.
Cette phase d’expérimentation se poursuivra toutefois au-delà des Jeux Olympiques et Paralympiques, puisque la loi l’autorise jusqu’au 31 mars 2025.
En outre, cette autorisation ne concerne pas que la police et la gendarmerie nationales, les polices municipales et les services d’incendie et de secours, mais vise également les services internes de sécurité de la RATP et de la SNCF.
Ainsi, la SNCF et la RATP ont mis en place et sont en train de tester des solutions algorithmiques de vidéosurveillance devant permettre le signalement de 4 types d’événements prédéterminés, qui présentent un enjeu de sécurité prioritaire dans le contexte spécifique des transports en commun :
- la présence d’objets abandonnés,
- le franchissement ou présence d’une personne en zone interdite ou sensible,
- un mouvement de foule,
- une densité trop importante de personnes.
En cas de détection d’un tel évènement par l’outil de vidéosurveillance algorithmique (ou VSA), l’opérateur vidéo valide sa pertinence et détermine s’il y a lieu, ou non, de procéder à une levée de doute ou de saisir les services opérationnels. Ainsi, la réponse opérationnelle susceptible d’être alors enclenchée sera identique à celle d’une exploitation « classique ».
Cette expérimentation interdit expressément la reconnaissance faciale et le traitement de données biométriques, et toute forme de recoupement avec des fichiers de données personnelles.
L’extension de l’utilisation des VSA aux transports en commun et une potentielle phase d’expérimentation jusqu’en 2027
Courant mai 2024, la commission des lois de l’Assemblée a commencé à étudier une proposition de loi, déjà votée par le Sénat en février dernier, visant à expérimenter une nouvelle forme de VSA garantissant la sécurité dans les transports. La proposition de loi « relative au renforcement de la sûreté dans les transports » propose : la captation du son dans les wagons sur déclenchement des conducteurs, la pérennisation des caméras-piétons pour les agent(es) – avec une extension aux chauffeur(euses) de bus -, l’autorisation pour les agents des services internes de sécurité de la SNCF et de la RATP de réaliser des palpations de sécurité en l’absence d’arrêté préfectoral, l’autorisation donnée aux régies de transports de traiter des données sensibles ou encore la transmission directe au ministère public des procès-verbaux d’infractions commises dans les transports. Elle vise aussi à permettre à titre expérimental l’utilisation de traitements algorithmiques pour extraire et exporter des images et, ainsi, répondre plus efficacement aux réquisitions judiciaires.
Cette proposition de loi envisage une expérimentation de la vidéosurveillance algorithmique jusqu’en 2027. Comme l’a fait l’article 10 de la Loi relative aux Jeux Olympiques et Paralympiques, l’article 9 de la Loi relative au renforcement de la sûreté dans les transports viserait à autoriser, à titre expérimental, des traitements de données ayant pour but « d’extraire et exporter les images » réquisitionnées par la police dans le cadre d’enquêtes pénales. Le rôle de la VSA dans ce cas d’usage est de sélectionner les passages susceptibles d’intéresser la police, soit un contrôle dit a posteriori.
Les logiciels envisagés sont notamment capables d’isoler et de suivre une personne sur une grande quantité d’images et de reconstituer son trajet, sans que les agents aient besoin de visionner des heures d’enregistrements.
L’arrivée de ce texte, seulement un an après celui de la loi JO 2024, met en avant l’étendue des cas d’usages envisagés pour ces dispositifs et leur mise en place potentielle dans de nouveaux espaces (aéroports, gares, musées, etc.).
L’association La Quadrature du Net considère que de telles solutions de VSA sont déjà mises en œuvre de manière illégale dans plusieurs gares. Elle a notamment déposé en mai 2024 une plainte devant la Commission Nationale de l’Informatique et des Libertés (CNIL) concernant un dispositif de vidéosurveillance algorithmique « Prevent PCP » estimant cette surveillance contraire au droit européen et au droit français en matière de protection des données personnelles. Ce dispositif permet la détection de bagages abandonnés et le suivi de leur propriétaire via une méthode d’analyse automatisée des images.
En effet, pour retrouver les images demandées par les services de police, des caractéristiques physiques (vêtements, taille, démarche, couleurs de cheveux, etc.) sont fournies à l’algorithme afin que ce dernier mette en avant les images et séquences vidéo correspondant aux informations. Selon l’association, cette procédure s’apparente à un « traitement biométrique des données particulièrement intrusif », ce qui serait interdit (voir notre article : Reconnaissance faciale : quel cadre juridique appliquer ?). La Quadrature du Net demande donc à la CNIL de contrôler la légalité du dispositif, d’enjoindre à la SNCF de cesser de l’utiliser, de supprimer les données recueillies et de sanctionner la SNCF pour violation présumée de la loi informatique et libertés.
Ces deux cas concrets illustrent l’importance de comprendre la distinction entre les différentes technologies considérées (systèmes de vidéo « intelligents », intelligence artificielle, reconnaissance faciale, etc.), et ce afin d’éviter tout amalgame avec des technologies voisines de nature différente.
Nous vous proposons ainsi d’examiner en détail ces différents technologiques dans le cadre du deuxième article de notre série visant à appréhender en détail les enjeux posés par les systèmes de vidéo « intelligents » et la reconnaissance faciale, et leur régulation :