La phrénologie est de retour, emballée avec la reconnaissance faciale dans un programme pré-crime du 21e siècle. Trop tôt ?

par Helen Buyniski.

La police américaine se concentre de plus en plus sur la prévention plutôt que la répression, les incarcérations de masse n’étant plus une solution viable. La détection « pré-crime » est une nouveauté, réalisée par l’analyse du comportement et… des traits du visage.

Des chercheurs de l’Université de Harrisburg ont annoncé en début de semaine qu’ils avaient développé un logiciel d’IA capable de prédire – avec une précision de 80% ! – si une personne est un criminel, simplement en examinant son visage.

« Notre prochaine étape est de trouver des partenaires stratégiques pour faire avancer cette mission », a déclaré le communiqué de presse, laissant entendre qu’un vétéran du Département de Police de New York travaillait aux côtés de deux professeurs et d’un doctorant sur le projet.

Cette déclaration a été retirée jeudi après que la controverse ait éclaté sur ce que les critiques ont qualifié de tentative de réhabiliter la phrénologie, l’eugénisme et d’autres pseudo-sciences racistes pour l’État de surveillance moderne. Mais au milieu de cette répulsion se trouvait une fascination indéniable – Michael Petrov, chercheur en reconnaissance faciale chez EyeLock, a fait remarquer qu’il n’avait « jamais vu une étude aussi outrageusement fausse et provocatrice ».

Prétendre déterminer les tendances criminelles d’une personne en examinant ses traits de visage implique que les malfaiteurs sont fondamentalement « nés comme ça » et incapables de se réhabiliter, ce qui va à l’encontre de la théorie criminologique moderne (et de petits détails comme le « libre arbitre »). Si cette approche a fait fureur à la fin du XIXe et au début du XXe siècle, lorsqu’elle a été utilisée pour justifier l’eugénisme et d’autres formes de racisme scientifique, elle a été reléguée aux oubliettes de l’histoire après la Seconde Guerre Mondiale.

Jusqu’à aujourd’hui, apparemment. La phrénologie et la physionomie – les « sciences » qui déterminent la personnalité en examinant la taille et la forme de la tête et du visage, respectivement – connaissent apparemment un retour en force. Une étude de janvier publiée dans le Journal of Big Data a fait des déclarations criminologiques similaires sur ses « modèles d’apprentissage profond » de l’IA, se vantant d’un programme qui a démontré une précision choquante de 97% dans l’utilisation de la « forme du visage, des sourcils, des pupilles, des narines et des lèvres » afin de débusquer les criminels.

Les chercheurs à l’origine de ce document ont en fait cité les « recherches de Lombroso » comme source d’inspiration, en référence à Cesare Lombroso, le « père de la criminologie moderne » qui pensait que la criminalité était héritée et pouvait être diagnostiquée par l’examen des caractéristiques physiques – notamment faciales. Ils n’ont pas non plus été les premiers à développer des algorithmes d’IA pour identifier les caractéristiques « criminelles » – leur article cite un effort précédent datant de 2016, qui avait déclenché une tempête médiatique.

Il est peut-être trop tôt pour que le public adopte une pseudo-science raciste discréditée, reconditionnée en outils de police futuristes, mais étant donné l’adoption enthousiaste du programme « pré-crime » par les forces de l’ordre américaines, il n’est pas inimaginable que cette technologie se retrouve entre leurs mains.

Les autorités américaines n’ont jamais été aussi déterminées à sauver les délinquants potentiels d’eux-mêmes, en lançant deux programmes de surveillance pré-crime rien que l’année dernière. Le Disruption and Early Engagement Program (DEEP) prétend intervenir avec un « traitement de santé mentale ordonné par le tribunal » et une surveillance électronique contre les individus dont on prévoit qu’ils se « mobilisent vers la violence » en se basant sur leurs communications privées et leur activité dans les médias sociaux, tandis que le projet phare « Safe Home » de la Health Advanced Research Projects Agency (HARPA), utilise « l’intelligence artificielle et l’apprentissage automatique » pour analyser les données récupérées sur les appareils électroniques personnels (smartphones, Alexas, FitBits) et fournies par les professionnels de la santé (!) pour identifier le potentiel de « violence neuropsychiatrique ». Afin de maximiser leur efficacité, le Procureur Général William Barr a demandé au Congrès de supprimer le cryptage.

Les risques de la police pré-crime sont énormes. Il est très probable que des « pré-criminels » sélectionnés par des algorithmes soient envoyés pour commettre des crimes afin de « prouver » que les programmes fonctionnent, comme cela s’est produit avec les initiatives « anti-terroristes » tentaculaires des États-Unis. Une enquête menée en 2014 a révélé que le FBI avait embrigadé presque tous les « suspects de terrorisme » qu’il avait poursuivis depuis le 11 septembre, et cette tendance s’est poursuivie jusqu’à aujourd’hui.

Par ailleurs, les algorithmes de reconnaissance faciale sont jusqu’à 100 fois plus susceptibles de mal identifier les hommes noirs et asiatiques que les blancs, et le taux de mauvaise identification des Amérindiens est encore plus élevé, selon une étude du NIST.

Les chercheurs de l’Université de Harrisburg tentent de mettre de côté ces préoccupations, en insistant sur le fait que leur logiciel n’a « aucun préjugé racial » – tout le monde est analysé phrénologiquement sur une base tout aussi pseudo-scientifique. Nous pouvons certainement faire confiance à un officier de la police de New York pour éviter le racisme. Ce n’est pas comme si 98% des personnes arrêtées pour violation de la distance sociale à Brooklyn au cours des deux derniers mois étaient noires, c’est 97,5%.

Étant donné la frénésie de réalisation des souhaits de la police et de l’État – des drones baby-sitters aux interminables confinements – qui a accompagné la pandémie de Covid-19, ces chercheurs ont probablement pensé qu’ils pouvaient se faufiler dans une version modernisée et élégante d’une pseudo-science centenaire. C’est tout à fait compréhensible !

Encore trop tôt ? Attendez quelques années…

source : https://www.rt.com

traduit par Réseau International