Atlantico.fr : Alors que la vidéosurveillance s’est solidement implantée sur le territoire français depuis 25 ans, c’est désormais la mise en place de la reconnaissance faciale qui est sur la table. Dans quelle mesure ce projet porte-t-il un risque d’atteinte aux libertés publiques ?
Gérald Pandelon : En premier lieu, de quoi s’agit-il précisément lorsque nous évoquons le système de reconnaissance faciale ? Ce dispositif constitue une application logicielle visant à reconnaître une personne grâce à son visage de manière automatique. A cette fin, la reconnaissance de visage a de nombreuses applications en vidéo-surveillance, biométrie (caractéristiques physiques propres à un individu), robotique, mais, sont également utilisés à des fins de sécurité tout comme appréciés en raison de leur caractère peu invasifs, en comparaison avec les autres systèmes biométriques (empreintes digitales, reconnaissance de l’iris, etc ). C’est ainsi qu’au début du mois d’octobre, le media financier américain Bloomberg a affirmé que la France deviendrait courant de l’année 2020 le premier pays européen à utiliser la reconnaissance faciale afin de donner aux citoyens une identité numérique sécurisée à travers l’application mobile Alicem (version courte d' »Authentification en ligne certifiée sur mobile »), utilisable uniquement sur Android. Le mécanisme devrait permettre de s’authentifier sur les sites accessibles via le portail d’accès du service public FranceConnect.gouv, comme ceux de la sécurité sociale et des impôts. En pratique, lors de son inscription, l’usager montrera son visage afin que le système vérifie qu’il correspond à la photo de son titre d’identité.
En second lieu, existe-t-il un risque sur les libertés ? La question n’est pas dénuée de légitimité. En effet, d’ores et déjà, l’association de défense des libertés sur Internet s’alarme du traitement des données biométriques en raison de l’atteinte à la vie privée, plus précisément à celle de l’anonymat, outre le fait que le dispositif serait non-conforme au règlement européen de protection des données (RGPD), entré en application au mois de mai 2018. En fait, loin de constituer la « police de la pensée » de ceux qui estiment manifestement moins graves pour nos libertés publiques le risque terroriste qu’un dispositif visant à renforcer la sécurité individuelle, le système Alicem soulève davantage la question de ses incidences dans le futur, celle, au-delà d’une possible surveillance généralisée ou nouveau Big Brother, d’un dépassement de la simple identification permettant l’arrimage du dispositif à d’autres fichiers de police. Une telle dérive aboutirait à reléguer encore davantage nos libertés civiles à la portion congrue dans un pays comme le nôtre où manifestement de moins en moins de choses sont permises…
Guillaume Jeanson : Votre crainte est semble-t-il partagée par la Ligue des droits de l’homme et la Quadrature du net qui ont saisi récemment le tribunal administratif de Marseille en référé pour suspendre la mise en place d’un système de vidéosurveillance qualifié « d’intelligent ». Elles estimaient en effet que ce vaste système de vidéosurveillance, qui est capable d’analyser de nombreuses données pour détecter des comportements jugés anormaux, des mouvements de foule ou même de retrouver automatiquement une personne signalée, portait une atteinte excessive aux libertés individuelles. Mais le tribunal a rejeté leur requête. Il l’a toutefois fait sans examiner le fond de l’affaire. D’autres affaires à venir clarifieront donc probablement la position de la jurisprudence sur ce point. Le plus souvent, ces affaires partent du local. Nice en est un autre exemple, tant cette thématique semble chère à Christian Estrosi. Outre le nombre très important de caméras de vidéoprotection -on en compterait une pour cent quarante-cinq habitants-, rappelons que Christian Estrosi avait demandé sans succès au gouvernement l’autorisation d’utiliser la reconnaissance faciale à l’entrée de la fan-zone installée dans sa villelors de l’Euro 2016 de football.En décembre 2018, il avait encore demandé en vain au préfet de lui fournir la liste des « fichés S » pour sûreté de l’Etat de sa ville, afin de « pouvoir suivre toutes les allées et venues, dans les transports en commun, dans les artères, dans les lieux publics, des individus en question », à l’aide d’un logiciel de reconnaissance faciale qui devait être relié à l’ensemble des caméras de la ville.L’année dernière, Nice avait été le premier lieu d’expérimentation grande échelle du dispositif à l’occasion du carnaval en s’appuyant sur des volontaires et sous examen rigoureux de la CNIL. Au mois d’octobre dernier, un portique virtuel avait aussi été installé à l’entrée de deux lycées de la région PACA. Mais la CNIL avait alors estimé que cedispositif de reconnaissance facialeétait illicite au regard du RGPD car, même s’il ne devait concerner que les lycéens ayant préalablement consenti dans le cadre d’une expérimentation sur l’année scolaire, la commission l’avait alors jugé « contraire aux grands principes de proportionnalité et de minimisation des données posés par le règlement général sur la protection des données »…
Malgré leur développement important ces dernières années -avec une primauté notable en Chine- Les logiciels de reconnaissance faciale font l’objet de nombreuses critiques dans le monde occidental. Outre les thématiques récurrentes de big data, d’atteinte à la vie privée etc… ont émergé ces dernières années celles de la stigmatisation et de la discrimination. Joy Buolamwini, une chercheuse au MIT, connue également pour être la fondatrice de l’Algorithmic Justice League, un collectif qui dénonce les biais des algorithmes, a expliqué, dès novembre 2016,que les logiciels de reconnaissance faciale identifiaient beaucoup plus facilement ses amis blancs que son visage de femme noire. Quelques mois plus tard, elle démontraitencore que les logiciels restent moins efficaces quand il s’agit de peaux foncées, mais aussi de femmes. Une étude réalisée par ses soins et publiée sur le site du MIT Media Lab a en effet confronté les logiciels de trois grandes entreprises(IBM, Microsoft et Face++) et mis en évidence que le genre trouvé par l’intelligence artificielle est le bon dans au moins 95 % des cas en présence de personnes à la peau claire. En revanche, pour celles à peau foncée, ce taux est bien moins élevé. Il atteint ainsi 77,6 % avec le logiciel développé par IBM. L’étude révèle que 93,6 % des erreurs faites par Microsoft concernaient les sujets à la peau foncée, et 95,9 % de celles de Face ++ concernaient des femmes.
Pour se préserver contre les atteintes aux libertés publiques, il faut donc tant améliorer la technologie en elle-même qu’offrir des garde-fous juridiques très stricts qui tournent souvent autours des mêmes questions : durées de conservation, stockages, conditions d’accès, sécurisation des données, détermination des lieux, possibilité d’accès et recours etc…
Notre système pénal connait une double crise de par la culture de l’excuse actuelle et les manques de moyens budgétaires qui lui sont alloués. Dès lors, le bon sens ne recommande-t-il pas plutôt de s’attaquer à ces problèmes en amont plutôt que d’installer des dispositifs de surveillance à tout va ?
Gérald Pandelon : Permettez-moi de nuancer votre propos lorsque vous évoquez une culture de l’excuse. En effet, je puis vous affirmer que si la justice pénale demeure encore relativement clémente envers les mineurs, elle est d’une grande sévérité envers les auteurs majeurs qui se rendent coupables d’infractions. Et contrairement à l’adage de La Fontaine ( « Selon que vous serez puissant ou misérable, – Les jugements de Cour vous rendront blanc ou noir »), je puis même vous affirmer que si vous êtes considéré, à tort ou à raison, comme un « notable », la justice pénale sera encore plus sévère ; le pire des scenarii étant l’hypothèse d’une mise en cause d’un avocat, car, en pareilles circonstances la présomption innocence n’existe plus : si vous êtes avocat vous êtes coupable car « vous ne pouvez pas ne pas savoir », pourtant les choses sont bien plus compliquées en pratique. Pour revenir à votre question, je crois sincèrement que le risque de ces dispositifs de surveillance, en raison de leur caractère déshumanisé, en arrivent à démultiplier les poursuites pénales sans faire montre d’un réel discernement entre, d’une part, le réel voyou et, d’autre part, le citoyen qui aura pu inconsciemment adopter un simple comportement suspect. Sait-on, par exemple, suffisamment que dans la seule ville de Londres, royaume des caméras de surveillance puisqu’ils en existent 500000, la technologie affiche un taux d’erreur de 81 % selon les évaluations d’une équipe de chercheurs de l’Université d’Essex ? Enfin, que ce dispositif, à rebours de louables intentions, en viennent au contraire à accroître le travail du personnel judiciaire dans un contexte de manque de moyens.
Guillaume Jeanson : Il va de soi que ces différents outils représentent un marché juteux. Il faut donc avoir évidemment conscience de la pression exercée par certains acteurs pour leur généralisation. En ces temps de disette budgétaire, il va également de soi qu’un budget consacré sur un poste pouvant se révéler particulièrement important comme celui-ci, risque par ailleurs d’aggraver le manque criant déjà dénoncé sur d’autres postes. Ces outils sont une aide à l’élucidation. Par leur efficacité qui elle-même dépendra de leur utilisation, de leur technologie et de la capacité qu’aura une délinquance à s’y adapter en en déjouant les effets, ils auront également un effet plus ou moins dissuasif.
Pour qu’elle soit vraiment utile, toute la chaîne doit être repensée à l’aune de cette technologie. Mais sans excès non plus. Car la technologie peut constituer une aide mais elle ne remplace jamais l’humain. L’un des écueils serait en effet de retirer davantage de policiers du terrain pour les mettre derrière des écrans associés à ces technologies. Les préceptes de criminologie dit de « communitypolicing » et de « théorie de la vitre brisée » soulignent,on le sait, l’importance d’un contact réel entre la police et la population. Au-delà de la crainte de la fabrique d’un monde soumis à une forme de dictature quasi-totalitaire de transparence, il faut donc veiller à ne pas sacrifier les autres pièces maîtresses du dispositif. A défaut, le réveil sera douloureux. L’outil automatique d’élucidation, lui-même entaché d’un pourcentage d’erreur, sera certes plus performant mais le renseignement humain viendra à manquer et les filières peineront à être remontées efficacement par les enquêteurs. Les outils n’auront alors plus qu’à être détournés de leurs missions initiales pour – à l’instar de certaines des caméras de la préfecture de police de Paris- accroître l’efficacité des dispositifs de verbalisation des automobilistes, faire des recettes et laisser dans le même temps exploser la principale forme de délinquance qui inquiète le plus grand nombre : la délinquance violente.
Dernier point enfin, mais non des moindres. Avec un budget important consacré à l’élucidation mais aucun budget sérieux aux maillons suivants de la chaîne pénale, vous arrêterez davantage de personnes certes, mais le type et les modalités des réponses pénales qui leur seront réservées renforcera in fineleur sentiment d’impunité. Le philosophe Beccaria, père du droit pénal moderne, précisait déjà dans son traité Des délits et des peines en 1764 que « La certitude d’une punition, même modérée, fera toujours plus d’impression que la crainte d’une peine terrible si à cette crainte se mêle l’espoir de l’impunité. »Veillons donc impérativement à préserver de quoi exécuter rapidement et certainement les peines qui sont prononcées.