La reconnaissance faciale commet beaucoup d’erreurs, selon une étude américaine
Les systèmes de reconnaissance faciale ne sont pas toujours fiables, surtout quand il s’agit de personnes non blanches, d’après un rapport du gouvernement américain publié jeudi, qui renforce les doutes autour du déploiement de cette technologie d’intelligence artificielle.
La reconnaissance faciale identifie à tort les personnes asiatiques ou noires 100 fois plus souvent que les personnes blanches, selon cette étude qui a analysé des dizaines d’algorithmes.
Deux algorithmes attribuaient le mauvais sexe
Les chercheurs du National Institute of Standards and Technology (NIST), un centre affilié au gouvernement, ont aussi repéré deux algorithmes qui attribuaient le mauvais sexe à des femmes noires dans 35% des cas.
La reconnaissance faciale est déjà largement utilisée par les autorités, les forces de l’ordre, les aéroports, les banques, les commerces et les écoles. Elle sert aussi à déverrouiller certains smartphones.
De nombreux défenseurs des droits humains et des chercheurs tentent de freiner ce déploiement.
Le fabuleux monde des « IA » de « la reconnaissance faciale… » – et toute cette éducation à la soumission au numérique… ? https://t.co/IfAt7GzaZz
— Geoffrey Dorne (@GeoffreyDorne) December 9, 2019
Des personnes innocentes en prison
Ils estiment que les algorithmes commettent trop d’erreurs, que des personnes innocentes pourraient se retrouver en prison ou encore que des bases de données risquent d’être piratées et utilisées par des criminels.
Les algorithmes développés aux Etats-Unis avaient des taux d’erreur plus élevés pour les Asiatiques, les Afro-Américains et les Amérindiens, d’après l’étude, tandis que d’autres conçus dans des pays asiatiques parvenaient à identifier aussi bien les visages asiatiques que blancs.
« C’est encourageant car cela montre que l’utilisation d’une base de données plus diverse permet d’arriver à de meilleurs résultats », a déclaré Patrick Grother, le directeur de recherche.
Système de reconnaissance faciale en Chine pour décourager les infractions mineures. Si vs traversez la rue sur une lumière rouge et une photo de vous avec votre nom, le numéro d’assurance sociale s’affiche sur le grand écran pour que tout le monde puisse le voir. #polcan #polmtl pic.twitter.com/EJDdKiEKhl
— Pre-existing rendition (@leBlogduPlateau) December 14, 2019
La technologie n’est pas au point
Mais pour l’ONG American Civil Liberties Union (ACLU), cette étude prouve avant tout que la technologie n’est pas au point et ne devrait pas être installée.
« Même les scientifiques du gouvernement confirment que cette technologie de surveillance est défectueuse et biaisée », a réagi Jay Stanley, un analyste de ACLU. « Une mauvaise identification peut faire rater un vol, entraîner des interrogations sans fin, un placement sur des listes de personnes à surveiller, des tensions avec des agents de police, des arrestations sans fondement ou pire ».
« Mais surtout, que la technologie soit fiable ou pas, elle permet de mettre en place une surveillance indécelable et omniprésente à une échelle sans commune mesure », a-t-il ajouté.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion