La question de la place de la sécurité dans la société a fait couler beaucoup d’encre parmi les rangs des plus illustres philosophes[1].
Cette sécurité peut se matérialiser sous diverses formes[2], dont celle de la vidéoprotection intelligente.
La vidéoprotection est un ensemble de caméras vidéo installées dans un lieu public ou privé en vue de remplir un objectif de surveillance[3].
Il convient cependant de préciser que les termes de vidéosurveillance et de vidéoprotection renvoient à deux régimes juridiques distincts.
En effet, la vidéoprotection désigne la transmission et l’enregistrement d’images prises sur la voie publique. Elle est encadrée par le code de la sécurité intérieure[4] ainsi que par la loi du 14 mars 2011 d’orientation et de programmation pour la performance de la sécurité intérieure, dite LOPPSI, en particulier dans ses articles 17 à 25[5].
La vidéosurveillance désigne quant à elle la mise en place d’un dispositif semblable mais installé dans un lieu qui est fermé au public. Le texte de référence est alors le Règlement général sur la protection des données (RGPD) entré en application le 25 mai 2018[6].
Dans les deux cas, l’institution principale pour exercer une plainte est la Commission nationale de l’informatique et des libertés (CNIL), qui n’hésite pas à sanctionner les usages abusifs[7].
Ce n’est qu’en 2008 que la vidéosurveillance des espaces publics est devenue la vidéoprotection à la suite des travaux de la Commission nationale de la vidéosurveillance[8]. L’objectif poursuivi par cette évolution était de mettre en exergue[9] la dimension protectrice des caméras plutôt que sur leur mission de surveillance, souvent perçue de manière péjorative par les justiciables[10].
I. Le développement de la vidéosurveillance dotée d’IA
La vidéoprotection connaît une utilisation croissante[11] en France depuis ces deux dernières décennies, ce que l’on peut constater au regard de l’évolution du nombre d’autorisations délivrées entre 1995 et 2007[12]. Il convient cependant de préciser qu’il ne s’agit que d’estimations approximatives[13].
Période | 1997-1998 | 1999 | 2000 | 2001 | 2002 | 2003 | 2004 | 2005 | 2006 | 2007 |
Nombre d’autorisations délivrées |
4 985 |
4681 |
3607 |
4511 |
4977 |
4657 |
4932 |
5882 |
6987 |
6273 |
Aujourd’hui, la CNIL évalue le nombre total de caméras de surveillance à 935 000[14].
L’essor de la vidéoprotection a pris un nouveau tournant pendant le quinquennat de Nicolas Sarkozy[15], dont l’appétence pour le développement de ce dispositif s’est concrétisée dès 2005 par un rapport concernant la lutte contre le terrorisme qu’il avait confié à un inspecteur général d’administration lorsqu’il était encore ministre de l’intérieur[16].
Ce rapport a notamment abouti à la prise du décret du 15 mai 2007 instaurant une Commission nationale de la vidéosurveillance investie d’une mission de conseil du ministre de l’intérieur quant au progrès et aux principes d’emploi de la vidéosurveillance[17].
Le recours à la machine optique de vidéosurveillance a commencé à partir des années 1960 et n’a cessé de croître au cours des vingt années suivantes en adéquation avec le progrès technologique[18], au point de transformer le métier de surveillance et de gardiennage dès la fin du XXème siècle[19].
Au regard de ce constat, il apparaît dès lors évident que les évolutions technologiques du XIXème siècle constituent le vecteur d’une utilisation différente de la vidéosurveillance.
Parmi ces évolutions notables, celle qui est susceptible d’impliquer une modification substantielle de la vidéosurveillance est l’intelligence artificielle (IA).
Cette notion a initialement été définie par le mathématicien britannique Alan Turing dans les années 1950 comme une machine capable d’imiter l’esprit humain, et notamment la conversation entre deux individus[20].
Toutefois, l’IA telle qu’elle existe actuellement ne permet que d’obtenir une autonomisation des systèmes informatiques[21].
Ainsi, les caméras de surveillance dotées d’IA ne présentent pour l’instant que la faculté d’effectuer une tâche ou un ensemble de tâches de manière autonome, ce qui permet déjà d’implémenter l’efficacité de la surveillance réalisée. En ce sens, l’IA rend la caméra à laquelle elle est intégrée capable de détecter des comportements inhabituels, ou encore de reconnaître des parties d’images de manière automatique, comme le visage d’un individu recherché ou la présence d’une arme[22].
De plus, il importe de souligner que les fantasmes médiatiques entourant la vidéosurveillance dotée d’IA, et l’IA dans son ensemble[23], résultent autant de son potentiel que de l’intérêt des fabricants à ce que la mise sur le marché de leurs produits soit connue du plus grand nombre[24].
Il n’en reste pas moins que le domaine de la sûreté régalienne fût l’un des premiers à faire l’objet de l’expérimentation de l’IA[25], et que la technologie de vidéosurveillance intelligente est déjà bien avancée.
Son application la plus notable est sans doute celle de la reconnaissance faciale, une technique qui permet d’authentifier une personne (ce qui revient à vérifier que celle-ci est bien ce qu’elle prétend être) ou de l’identifier (c’est-à-dire de la retrouver dans un espace donné)[26].
En Chine, ce procédé est d’ores et déjà utilisé pour surveiller, mais également pour noter et sanctionner les citoyens en fonction de leur comportement civique[27].
L’Etat français est encore loin d’avoir déployé de tels moyens, bien que la reconnaissance faciale soit incorporée au dispositif de sécurité des aéroports de Nice[28], d’Orly et de Roissy[29].
II. Les enjeux juridiques de la vidéosurveillance intelligente
La vidéosurveillance intelligente implique plusieurs problématiques juridiques, à l’instar de l’éternel débat sur le rôle de l’Etat entre les partisans d’un renforcement de la sécurité et ceux qui craignent que la technologie mise au service des autorités soit associée à des atteintes aux libertés individuelles[30], voire qui mettent en garde contre le Big Brother d’Orwell[31] en agitant le spectre de la Seconde guerre mondiale et de la dérive du fichage des individus[32].
Il est vrai que l’enjeu juridique le plus flagrant de la vidéosurveillance intelligente est sans doute celui qui concerne la potentielle atteinte à la liberté d’aller et venir anonymement que pourrait représenter un excès de surveillance[33].
Toutefois, la protection des données à caractère personnel constitue également une question cruciale inhérente à l’utilisation de dispositifs de vidéosurveillance intelligents. En effet, eu égard à la technique du machine learning, la vidéosurveillance par l’IA repose sur l’acquisition de données biométriques, définies par l’article 4.1 du RGPD comme « les données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique, telles que des images faciales ou des données dactyloscopiques[34] ».
En ce sens, les entités qui seront amenées à recourir à la vidéosurveillance intelligente devront nécessairement respecter les obligations du règlement européen.
En outre, le risque est réel que certaines caméras dotées d’IA présentent des biais discriminatoires[35], notamment racistes ou sexistes. En effet, il a déjà été observé à plusieurs reprises que des IA reproduisent les dérives racistes ou sexistes de leurs concepteurs ou expriment des propos de cet ordre en raison d’un défaut de fabrication, à l’instar de l’agent conversationnel – ou chatbot – de Microsoft qui avait tenu des propos à caractère raciste, voire faisant l’apologie du terrorisme[36].
Un autre exemple flagrant est celui du logiciel américain Predpol, sensé prédire le lieu et le moment de la commission de crimes, et dont l’efficacité fait l’objet de vives contestations[37]. Les biais discriminatoires de ce logiciel ne résultent pas tant de son algorithme que des données qu’il reçoit, celles-ci pouvant différer en fonction de leur provenance et générer ainsi des erreurs dans les résultats produits[38].
Il est déjà possible de constater ce type de biais discriminatoires dans les résultats de certains algorithmes non pourvus d’IA[39]. A ce titre, des recherches effectuées en ligne en 2013 sur des noms supposés avoir une « consonance noire » montraient que les résultats étaient plus susceptibles d’associer des dossiers d’arrestation aux profils proposés, même lorsque ces dossiers étaient faux[40]. De même, en 2015, un algorithme de Google a associé deux individus Afro-Américains à des gorilles[41]. Citons encore l’application de photo-shopping en ligne FaceApp qui éclaircissait les tons de peau des Afro-Américains pour les rendre conformes aux critères de beauté de l’algorithme, dont la majorité des données étaient relatives à des visages de type européen[42].
La vidéosurveillance intelligente risquerait alors d’amplifier ce phénomène, encore que l’IA soit parfois invoquée comme potentiel remède aux stéréotypes issus des comportements humains[43].
Afin que le législateur et le pouvoir réglementaire se saisissent de ces questions dans le but de définir les encadrements les plus adaptés à cette nouvelle technologie, la CNIL appelle d’urgence à la tenue d’un débat démocratique. Cela permettrait notamment de parvenir à un juste équilibre entre les impératifs de sécurisation, en particulier des espaces publics, et la préservation des droits et libertés de chacun[44].
Enfin, il apparaît nécessaire de s’interroger sur la potentielle commercialisation des processus reposant sur les exemples contradictoires, qui constituent une technologie dont la particularité est de pouvoir tromper les systèmes d’IA intégrés dans le dispositif de vision d’un ordinateur. En se fondant sur ce procédé, des chercheurs de l’université belge KU Leuven ont développé un patch dont l’utilisation permet de se rendre invisible du point de vue d’une caméra de vidéosurveillance intelligente[45].
Ainsi, en effectuant quelques changements à l’entrée d’un réseau de neurones convolutifs, les chercheurs ont réussi à tromper un algorithme intitulé YOLOv2 et ont pour objectif de parvenir à duper tous les algorithmes de ce type[46].
A la vitesse à laquelle avancent les nouvelles technologies, il ne semble pas trop tôt pour se pencher sur les conséquences juridiques que pourrait impliquer la vente au grand public d’outils tels que ces patchs, qui représenteraient pour leurs acquéreurs un véritable moyen de se substituer au contrôle de l’Etat.
[1] ROUSSET (E.), « Sécurité et liberté : discussion entre un philosophe anglais et un philosophe français, Hobbes et Rousseau », Sécurité et stratégie, février 2017, p.62.
[2] DIAZ (F.), « « Coproduction » de la sécurité : une nouvelle forme de l’interventionnisme étatique pour une meilleure sécurité du public ? », Déviance et Société (Vol.27), avril 2003, p.429.
[3] MOREAU (P.) et LATOUR (X.), « Fascicule 719 : VIDEOPROTECTION », JurisClasseur Collectivités territoriales, 24 juin 2015.
[4] D’abord par la loi n° 95-73 du 21 janvier 1995 qui fût abrogée par Ord. n° 2012-351, 12 mars 2012, relative à la partie législative du Code de la sécurité intérieure : JO 13 mars 2012, p. 4533.
[5] LOI n° 2011-267 du 14 mars 2011 d’orientation et de programmation pour la performance de la sécurité intérieure (1).
[6] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).
[7] CNIL, délibération n° 2013-139 du 30 mai 2013.
[8] Rapport d’information n° 131 (2008-2009) de MM. Jean-Patrick COURTOIS et Charles GAUTIER, fait au nom de la commission des lois, déposé le 10 décembre 2008.
[9] Ibid.
[10] MOREAU (P.) et LATOUR (X.), « Fascicule 719 : VIDEOPROTECTION », JurisClasseur Collectivités territoriales, 24 juin 2015.
[11] 25ème session nationale « Sécurité et Justice » 2013-2014, Groupe de diagnostic stratégique (GDS) n°3, « Les politiques publiques de vidéoprotection », Institut national des hautes études de la sécurité et de la justice.
[12] Rapport d’information n° 131 (2008-2009) de MM. Jean-Patrick COURTOIS et Charles GAUTIER, fait au nom de la commission des lois, déposé le 10 décembre 2008.
[13] Ibid.
[14] Site de la CNIL.
[15] MUCCHIELLI (L.), « A quoi sert la vidéosurveillance de l’espace public ? », Déviance et société (Vol.40), janvier 2016, p. 25.
[16] MELCHIOR (P.), « La vidéosurveillance et la lutte contre le terrorisme », Note de synthèse, IGA, octobre 2005.
[17] Ibid.
[18] ABOUT (I.) et DENIS (V.), « V. Régime de surveillance et technologies informatiques (milieu du XXème siècle-début du XXIème », Histoire de l’identification des personnes, 2010, p. 101.
[19] PERROUDON (D.), « Sécurité privée : entreprises », Répertoire de droit pénal et de procédure pénale, 2005.
[20] TURING (A.M.), « Computing Machinery and Intelligence », Mind 49, p.433.
[21] MEILLER (Y.) « Intelligence artificielle, sécurité et sûreté », Sécurité et stratégie (28), avril 2017, p. 77.
[22] Ibid.
[23] NAUGHTON (J.), « Don’t believe the hype : the media are unwittingly selling us an AI fantasy », The Guardian, 13 janv. 2019.
[24] LEMAIRE (E.), « L’œil sécuritaire », 2019, p.80.
[25] MEILLER (Y.) « Intelligence artificielle, sécurité et sûreté », Sécurité et stratégie (N°28), avril 2017, p. 80.
[26] Site internet de la CNIL.
[27] SIRINELLI (P.) et PREVOST (S.), « To be or Notes to be », Dalloz IP/IT, 2018.
[28] Site internet de l’aéroport de Nice.
[29] Site internet de l’aéroport de Paris.
[30] LATOUR (X.), « Sécurité intérieure : un droit « augmenté » ? », AJDA, 2018.
[31] ORWELL (G.), « 1984 », Gallimard, 1949.
[32] BENABOU (V.-L.), « L’extension du domaine de la donnée », LEGICOM (N°59), février 2017, p. 5.
[33] Site internet de la CNIL.
[34] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).
[35] FROMENT (J.-C.), « Regard juridique sur la vidéosurveillance urbaine : un droit en trompe-l’œil », La Semaine Juridique – Administrations et collectivités territoriales », 27 mars 2006.
[36] DONDERO (B.), « Table ronde n°2 – l’intelligence artificielle, vers un statut autonome ? La responsabilité liée à l’emploi de l’IA », Revue Droit et Affaires n°15, 12 décembre 2018.
[37] RAUFER (X.), « « Police prédictive » : les belles histoires de l’Oncle Predpol » », Sécurité Globale (N°3-4), mars et avril 2015, p.95.
[38] RICHARD (C.), « Dans la boîte noire des algorithmes », Revue du crieur (n°11), mars 2018, p. 73.
[39] TURNER LEE (N.), « Detecting racial bias in algorithmes and machine learning », Journal of Information, Communication and Ethics in Society, vol. 16, 2018.
[40] LEE (D.) « Google searches expose racial bias, says study of names », BBC, 2013.
[41] KASPERKEVIC, J., « Google says sorry for racist auto-tag in photo app », The Guardian, 2015.
[42] MORSE, (J.), « App creator apologizes for « racist » filter that lightens skin tones », Mashable, 2017.
[43] COHEN (T.), « How to leverage artificial intelligence to meet your diversity goals », Emerald Publishing Limited, 2019.
[44] Site internet de la CNIL.
[45] “Vidéosurveillance : ce patch vous rend invisible pour l’intelligence artificielle”, Lebigdata.fr, 24 avril 2019.
[46] THYS (S.), VAN RANST (W.), GOEDEME (T.), « Fooling automated surveillance cameras : adversarial patches to attack person detection », EAVISE, Technology Campus De Nayer, KU Leuven, Belgium.