Nos propositionsDans la presse

Tribune

Paris 2024 : "Réécrire le décret sur la vidéo protection algorithmique est une nécessité pour éviter des dérives prévisibles

Le décret relatif aux Jeux olympiques et paralympiques a validé la détection d’une « densité trop importante de personnes » par les traitements algorithmiques, en dépit des risques pour les libertés publiques, s’alarme le juriste Raphaël Maurel, dans une tribune au « Monde ».

Paris 2024 :

Le très attendu décret d’application de la loi du 19 mai 2023 relative aux Jeux olympiques et paralympiques de 2024 est paru le 30 août. Le contenu de ce texte, qui encadre le contesté traitement algorithmique des images de vidéoprotection acté par la loi, pose question, au point qu’une réécriture est hautement souhaitable.

Le décret ne pouvait que retranscrire les limites de cette loi, qui autorise à titre expérimental le traitement algorithmique des images collectées au moyen de systèmes de vidéoprotection. Premier pas vers une société de surveillance par intelligence artificielle, cette loi devait fixer des garde-fous pour éviter la dérive vers la fameuse « notation sociale » qui sévit notamment en Chine, et menace nos démocraties avides de sécurité.

Alors que les experts n’ont eu de cesse d’alerter – dans une quasi-unanimité remarquable – sur les biais algorithmiques, sur l’impossibilité de revenir en arrière une fois ces technologies déployées ou encore sur l’absence d’étude démontrant clairement l’efficacité de ces dispositifs coûteux, le Parlement, mené par une majorité inquiète, a adopté un texte peu rassurant pour les défenseurs des libertés publiques. La temporalité de la loi, que reprend son décret d’application, témoigne à elle seule des risques d’extension de ces dispositifs techno-sécuritaires : alors que les Jeux olympiques et paralympiques ne s’étendront pas au-delà de l’année 2024, l’expérimentation pourra, de manière peu compréhensible, avoir lieu jusqu’au 31 mars 2025.

Après des débats houleux au Parlement, le décret se veut rassurant. Les traitements algorithmiques des données de vidéoprotection « se bornent à signaler en temps réel » un certain nombre d’événements prédéterminés, en vue d’une confirmation par des agents chargés de visionner les images. Surtout, ils n’utilisent aucun système d’identification biométrique ni de reconnaissance faciale, « ne peuvent procéder à aucun rapprochement (…) avec d’autres traitements de données » et ne peuvent fonder par eux-mêmes une quelconque décision. L’objet exclusif de ces traitements reste de détecter des événements « susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes », ce qui paraît raisonnable.

 

Une liste édifiante d’événements prédéterminés

La lecture de l’article 3 du décret ne peut, cependant, qu’alarmer les experts de l’éthique du numérique comme des libertés publiques. La liste des événements prédéterminés que les traitements algorithmiques peuvent avoir pour mission de détecter, en ce qu’ils sont susceptibles de créer un risque terroriste ou d’atteinte grave à la sécurité, est édifiante. On n’y trouve pas moins de huit « événements » : présence d’objets abandonnés, présence ou utilisation d’armes, non-respect par une personne ou un véhicule du sens de circulation commun, franchissement ou présence d’une personne ou d’un véhicule dans une zone interdite ou sensible, présence d’une personne au sol à la suite d’une chute, mouvement de foule, densité trop importante de personnes, départs de feux.

Au sein de cette liste, nul ne contestera l’intérêt, l’utilité ni l’importance potentielle de la détection de l’utilisation d’armes à feu, de départs de feux ou de personnes blessées au sol.

Le « non-respect par une personne ou un véhicule du sens de circulation commun » est cependant un sujet de vigilance. Qu’un véhicule roulant à contresens puisse faire l’objet d’une détection automatique est une chose. La détection d’un individu – qui peut être un enfant – marchant en sens inverse d’une file ou du « sens de circulation commun » en est une autre, d’autant que la détermination de la norme prescrivant le « sens de circulation » sera malaisée… voire sujette à l’arbitraire. Ici, le décret manque cruellement de précision et il est à craindre que son application soit hasardeuse.

La détection d’une « densité trop importante de personnes » laisse, pour sa part, perplexe. Qui définit le seuil à partir duquel la densité est « trop importante » dans l’espace public, alors même que celui-ci n’est pas soumis à une quelconque jauge ? Cette expression particulièrement floue ne désigne pas une infraction dans l’espace public. Sauf en temps de pandémie.

 

Autocensure des citoyens

Si l’on comprend la volonté d’anticiper des mouvements de foule – qui fait l’objet d’un autre « événement » –, la détection automatique d’une densité « trop importante de personnes » ouvre ainsi la porte à toutes sortes de dérives administratives difficilement contrôlables. Demain, on imagine aisément l’autorité locale user, au nom de la sécurité publique, de ses pouvoirs de police administrative pour disperser tout attroupement susceptible de constituer un risque quelconque. Ces dérives seront certes contestées devant le juge, mais le mal sera fait.

L’autocensure des citoyens, restreignant par eux-mêmes leur propre liberté de circulation et d’attroupement par habitude ou crainte d’être identifié par un système d’intelligence artificielle, est un phénomène documenté que l’on ne peut, dans nos sociétés démocratiques, ignorer.

Les événements sportifs mondiaux ont toujours été l’occasion d’adopter des dispositifs renforçant le droit commun. Le traitement algorithmique de la vidéoprotection est cependant une boîte de Pandore qu’il n’aurait certainement pas fallu ouvrir. Faute d’une nouvelle loi restreignant la portée de l’expérimentation, la réécriture du décret pour en corriger les imprécisions manifestes, et éviter ainsi des dérives prévisibles, est au minimum une nécessité.

Surtout, l’opinion publique doit impérativement se saisir de ces enjeux, qui ne peuvent être réduits à des débats techniques sur les capacités exactes des traitements algorithmiques. Ce n’est qu’en replaçant le citoyen au cœur du débat sur la numérisation de notre société, y compris – mais pas exclusivement – sur le volet sécuritaire, que la démocratie sortira grandie de ces évolutions technologiques par ailleurs remarquables.

Fichiers

Liens

Publié le 23/09/2023 ∙ Média de publication : Le Monde

L'auteur

Raphaël Maurel

Raphaël Maurel

Directeur Général