Surveillance : délit de sale gueule 3.0

L'actualité numérique Mardi 03 décembre 2013

Réécoute
Surveillance : délit de sale gueule 3.0
Si vous pensiez avoir tout vu en matière de contrôle, vous vous êtes plantés ! Voici venir la "détection des micro-expressions faciales", nouvelle brique dans l'édifice sécuritaire qui vise à repérer à l'avance et automatiquement les comportements suspects.

 

Plus fort que le suivi massif de nos likes et mails coquins échangés sur Facebook ou Google, plus intrusif que le ciblage publicitaire intensif, plus vicieux que le monitoring du porno que l'on consomme, voici venir la reconnaissance de nos micro-expressions faciales !

> Lire : "Au secours ma télé m'espionne !"

La surveillance dans ta face

Une technologie qui vise à détecter les minuscules rictus qui trahissent immanquablement ce que l'on ressent réellement lors d'une situation quelconque. Joie, tristesse, dégoût… Ces grimaces intempestives ne durent que quelques millièmes de seconde et passent donc inaperçues -à moins de se confronter à un oeil entraîné ou à un proche qui nous connaît sur le bout des doigts. Une bonne nouvelle donc pour notre vie sociale, qui force parfois à dissimuler nos émois.

Sauf que ça, c'était avant. Désormais, des logiciels informatiques sont réalisés pour détecter ces bouilles furtives. Ces programmes, explique le New York Times, utilisent l’analyse vidéo image par image pour capter ces subtiles variations musculaires. Exit donc la face de poker:

Can't read my, can't read my, no he can't read my poker faaaace !" Ben si. Maintenant, il peut.

Si elle en est encore à ses balbutiements, cette technologie de micro-reconnaissance faciale est déjà utilisée par des secteurs tels que la publicité.

Un milliard et demi de micro-émotions

Le New York Times donne ainsi l’exemple d’une boîte au nom évocateur, Affectiva, qui, pendant plus de deux ans, a collecté et listé quelques un milliard et demi de micro-émotions. Une matière qui a ensuite servi de base à un logiciel utilisé pèle-mêle ar Coca-Cola, Mars ou une agence de recherche publicitaire anglaise qui a ainsi pu tester la réaction de consommateurs face à près de 3000 réclames. De quoi réjouir les amateurs de marketing.

Pour tous les autres qui s'inquiéteraient de l'utilisation de cet algorithme, le cofondateur d’Affectiva l'assure : il sera extrêmement vigilant quant à l’utilisation qu’on fera de cet outil qui devrait donner naissance à une tripotée d’applications mobiles début 2014.

Pas sûr néanmoins que cette assurance suffise à faire taire les doutes et les critiques soulevés par cette technologie qui viendrait compléter et affiner un édifice de surveillance déjà massif, comme les révélations de l'affaire dite Snowden n'ont eu de cesse de nous le confirmer ces derniers mois.

Sans compter que, comme le souligne une avocate américaine spécialisée dans la défense de la vie privée, Ginger McCall, interrogée par le journal américain, si les compagnies privées développent cette technologie aujourd'hui, 

vous pouvez être sûrs que les agences gouvernementales, en particulier dans le secteur de la sécurité, s'y intéressent aussi.


 

> Lire : "Surveillance: et la France dans tout ça?"

Et l'experte de pointer vers des rapports américains qui font froid dans le dos. L’un d’entre eux [PDF], rédigé par le National Defense Research Institute, lui-même soutenu par tout ce que compte l’Amérique de sécuritaire ("sponsorisé par le ministère de la Défense, le comité des chefs d’États-majors, le Commandement Interarmées de Combat, la Navy, les Marines, les agences militaires et la communité du renseignement sous contrat") indique par exemple explicitement qu’il serait bon de tester ces technologies qui détectent les comportements suspects dans la Kinect de Microsoft ou la Wii de Nintendo (p.25). Et ce n'est qu'un exemple de ce document intitulé: "Utiliser les indicateurs comportementaux pour aider à détecter les potentiels actes violents."

Vers Minority Report ?

Qu'on se le dise: les services de sécurité et de police cherchent la formule magique pour se muer en super-Precogs dignes de Minority Report. Leur nouveau dada, dont ils ne se cachent pas, est l'identification automatique, le plus en amont possible, des comportements suspects.

Une société façon Minority Report, ça vous tente?

Et leur souhait est en partie déjà devenu réalité: de nombreuses villes américaines utilisent par exemple des algoritmes qui tente de prédire où, comment et par qui surviendront les futurs crimes.

Si la technologie de micro-reconnaissance faciale est encore au stade embryonnaire, et si certaines de ses utilisations sont prometteuses (par exemple dans le traitement de l'autisme), son usage à des fins de sécurité risquent fort de généraliser et d'interpréter des choses qui ne peuvent pas l'être. Et que personne ne souhaite voir scanné en un tour d'algorithme, sans son consentement explicite. Or "c'est une technologie qui peut facilement être installé sans que personne ne le sache", ajoute l'avocate Ginger McCall. 

Gare donc à l'instauration d'un délit de sale gueule 3.0 (à prononcer "trois-zéro", façon Manuel Valls), qui réactualiserait une méthode de criminologie vieille de plus d’un siècle et abandonnée depuis longtemps: la physiognomonie. Science pas franchement scientifique qui jugeait les criminels en fonction de leurs traits. Et dont les relents sont franchement nauséabonds.

SONS :

 > Poker Face, Lady Gaga. "Can't read my, can't read my, no he can't read my poker faaaace !" Ben si. Maintenant, il peut.


 

Andréa Fradin

Toutes les chroniques Suivez le geek

> Abonnez vous aux podcasts : RSS et iTunes

> Illustration Ars Electronica

 


 


Commentaires