Mode anti-reconnaissance faciale : quand les vêtements défient la surveillance algorithmique
Un pull aux motifs psychédéliques, une robe multicolore, un tee-shirt orné de formes évoquant des truffes de chiens... Derrière leur apparence fantaisiste, ces créations vestimentaires partagent un objectif commun : déjouer les systèmes de reconnaissance faciale. Alors que l'intelligence artificielle progresse à grands pas et que les dispositifs de surveillance se multiplient, la crainte d'être fiché, autrefois réservée aux régimes autoritaires, gagne désormais les démocraties.
L'expansion mondiale de la surveillance
La Chine, les États-Unis, l'Iran, la Russie et les Émirats arabes unis pratiquent déjà la surveillance de leurs populations. En France, mi-février, l'Assemblée nationale a adopté une proposition de loi Renaissance autorisant l'expérimentation, jusqu'à fin 2027, de la surveillance algorithmique dans les commerces pour prévenir les vols. La gauche a dénoncé une « dérive extrêmement importante ».
Le nombre de caméras de surveillance ne cesse d'augmenter dans l'Hexagone. Stéphane Poupeau, président du Syndicat National de la Sécurité Publique, indique qu'environ 100 000 caméras sont actuellement opérées par les forces de l'ordre sur le territoire national, contre 60 000 en 2013. Ces chiffres sont probablement très inférieurs au parc privé, dont l'étendue reste inconnue. Dominique Legrand, fondateur de l'AN2V, confirme que ces données ne sont pas publiques.
Aux États-Unis, selon une analyse du Bureau of Labor Statistics de 2021, le nombre de dispositifs de surveillance a augmenté de 50 % entre 2015 et 2018, équipant le pays d'au moins 70 millions de caméras.
« Votre visage est une donnée »
Matthew Guariglia, spécialiste des questions de surveillance à l'Electronic Frontier Foundation (EFF), alerte : « À chaque fois qu'une personne se rend à une manifestation, chez le médecin ou dans un lieu de culte, elle peut être identifiée. » Ces images révèlent « une quantité considérable d'informations personnelles » et pourraient mener à des représailles ciblées.
Lauren Hendry Parsons, de la Fondation Mozilla, abonde : « La frontière entre nos vies numériques et physiques s'est quasiment estompée. Votre visage est une donnée, vos trajets domicile-travail sont des données. Autrefois réservées aux gouvernements, les infrastructures de surveillance se diffusent désormais partout : commerces, immeubles, sonnettes connectées collectent des données biométriques généralement à l'insu des citoyens. »
Matthew Guariglia explique cette omniprésence par « la tendance à considérer la surveillance de masse comme une solution miracle » et par « le marketing agressif des entreprises qui vendent ces technologies ».
La mode comme réponse technique et symbolique
Face à cette normalisation de la surveillance par IA dans l'espace public, certains citoyens se tournent vers le vêtement comme moyen de protection. Sur les plateformes de marques spécialisées, il faut débourser entre une et plusieurs centaines d'euros pour acquérir une pièce anti-reconnaissance.
Tyler Brownell, fondateur d'AntiAI Clothing, explique : « Notre marque est née de préoccupations sur la protection de la vie privée, d'expérimentation artistique et d'une réaction face à l'expansion rapide de la surveillance pilotée par IA. Beaucoup de gens ont le sentiment que la surveillance algorithmique se normalise sans véritable consentement public. »
Rachele Didero, fondatrice de Cap_able, partage cette vision : « C'est un projet né de notre préoccupation croissante face à cette normalisation. La mode s'est imposée comme le médium idéal : personnelle, visible et déjà une forme d'expression de soi. »
Un public hétérogène et des limites techniques
Le discours séduit. Rachele Didero constate « un intérêt accru et une hausse des ventes depuis que la surveillance par IA s'est démocratisée ». Ses acheteurs sont « préoccupés par la protection de leur vie privée, sceptiques face à la surveillance omniprésente, mais aussi attirés par l'idée que les vêtements peuvent véhiculer un message ».
Tyler Brownell note un public « assez hétérogène » de designers, chercheurs et « de simples individus curieux qui souhaitent reprendre le contrôle sur leur image ».
Pour perturber la reconnaissance faciale, ces vêtements s'inspirent de recherches sur le « bruit adverse », altérant l'image pour tromper les algorithmes. Les marques ont testé leurs créations sur plusieurs modèles informatiques, en laboratoire et en extérieur.
Mais Tyler Brownell tempère : « Ces vêtements ne sont pas une protection infaillible. » En conditions réelles, l'éclairage, l'angle de la caméra, le mouvement et la sophistication des modèles affectent leur efficacité. « Au fur et à mesure que les technologies de surveillance seront entraînées à les contrer, ces vêtements tendront à devenir une prise de position symbolique. Ils rendent le problème visible. »
Ben Zhao, professeur d'informatique à l'Université de Chicago, précise : « Le problème, c'est de savoir quel modèle spécifique le vêtement cible : il existe de très nombreux modèles d'analyse d'images, et un pull conçu pour éviter d'être identifié par l'un d'entre eux n'empêche pas d'être identifié par tous. »
La nécessité d'une réglementation contraignante
Pour Ben Zhao, « l'IA d'aujourd'hui est bien plus puissante que celle d'hier, et aux solutions techniques comme ces vêtements doivent aussi se joindre des réglementations en la matière ».
Lauren Hendry Parsons renchérit : à long terme, « il est peu probable que tricoter ou crocheter nous permette de préserver notre vie privée : les algorithmes évolueront, les vêtements devront suivre, et la plupart des gens ne pourront pas y avoir accès ».
Elle martèle : « Des textes juridiquement contraignants sont indispensables sur le droit à circuler librement sans que nos données biométriques soient capturées. Les entreprises doivent intégrer la responsabilité avant le déploiement de leurs technologies. Les gouvernements doivent établir des règles coercitives avec des limites claires quant aux lieux et modalités de collecte. Les citoyens devraient pouvoir évoluer dans l'espace public sans que leur visage ne devienne une donnée. »



