Vidéosurveillance algorithmique, intelligence artificielle et reconnaissance faciale : quels enjeux et quel cadre juridique ?

Reconnaissance automatique d’images, reconnaissance faciale ou encore vidéoprotection algorithmique : les mentions d’usages d’outils vidéo innovants se multiplient dans la presse et font l’objet d’une prise de conscience par les pouvoirs publics des opportunités et des risques qu’ils soulèvent, ainsi que de rappels réguliers des enjeux et du cadre légal par les autorités compétentes. Envisageons ci-après un panorama d’ensemble.

Les Jeux Olympiques de Paris offrent un terrain d’expérimentations en matière de vidéoprotection algorithmique pour les pouvoirs publics français. Ainsi, la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 autorise, pour la première fois, la mise en œuvre de solutions d’intelligence artificielle dans la vidéoprotection, et ce à titre d’expérimentation. Cette expérimentation interdit toutefois la reconnaissance faciale et le traitement de données biométriques, et toute forme de recoupement avec des fichiers de données personnelles, qui doivent être distingués des opérations de vidéoprotection ou vidéosurveillance algorithmique (c’est-à-dire qui exploitent des technologies d’intelligence artificielle).

Les autorités publiques, et notamment la CNIL (Commission Nationale de l’Informatique et des Libertés), s’intéressent à la reconnaissance faciale et aux outils de vidéos « intelligents ». La CNIL s’inquiète notamment du développement rapide de nouveaux outils de captation et de nouvelles modalités d’exploitation de la vidéoprotection dans l’espace public : caméras-piétons, utilisation des terminaux mobiles de particuliers, systèmes de vidéo « intelligents », dispositifs de suivi et de reconnaissance d’individus à l’aide de données biométriques, reconnaissance faciale, etc.

Ces dispositifs nécessitent un encadrement clair tant ils soulèvent des enjeux pour les droits et les libertés individuelles des citoyens, notamment lorsqu’ils s’articulent avec le big data et l’intelligence artificielle. La légitimité de ces outils, qui s’inscrivent dans un objectif de prévention ou de répression de troubles à l’ordre public, n’est pas, ici, remise en question, mais elle pourrait l’être à l’avenir pour certaines applications commerciales envisagées. L’enjeu de l’encadrement de ces pratiques est de prévenir tout mésusage des données traitées et de ne pas porter une atteinte excessive aux principes qui fondent notre société démocratique (ex. : restrictions à la liberté d’aller et venir anonymement, sentiment de surveillance renforcée, exploitation accrue et à grande échelle de données personnelles voire sensibles, etc.). 

Afin d’appréhender en détail les enjeux posés par l’usage de ces technologies vidéo, notamment au regard des expérimentations mises en œuvre avec les Jeux Olympiques de Paris, nous vous proposons une série de quatre articles abordant ces thématiques :

Hervé Gabadou

Avocat Associé, Hervé dirige l’activité Digital & Innovation de Deloitte, Société d’Avocats. Il accompagne différents acteurs du secteur privé dans leurs programmes de transformation numérique faisant appel à des technologies […]

Tony Baudot

Tony est avocat Directeur du département juridique en charge du droit de l’informatique et de la protection des données. Il a rejoint Deloitte Société d’Avocats en 2016 en qualité d’avocat.  Tony intervient régulièrement sur l’ensemble des problématiques juridiques de l’informatique, notamment dans […]

Morgane Bourmault

Morgane a acquis une expérience significative en tant qu’avocate dans le domaine des technologies de l’information, des données personnelles, des télécommunications et de la cybercriminalité, et plus généralement dans le […]