paint-brush
La technologie de reconnaissance faciale a un taux d'échec inquiétant chez les personnes de couleur par@mosesconcha
818 lectures
818 lectures

La technologie de reconnaissance faciale a un taux d'échec inquiétant chez les personnes de couleur

par Moses Concha4m2023/01/26
Read on Terminal Reader

Trop long; Pour lire

L'utilisation récente de systèmes de reconnaissance faciale en Louisiane a entraîné l'arrestation pour erreur d'identité de Randall Reid, un homme noir de Géorgie. Les autorités locales ont utilisé la technologie de reconnaissance faciale pour l'épingler pour avoir volé des sacs à main dans un magasin d'une banlieue de la Nouvelle-Orléans – un dans un État entièrement séparé. Reid est encore un autre dans une __[tendance en cours](//www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww. wired .com%2C%2A%20Facial-recognition-misidentify-jail.html
featured image - La technologie de reconnaissance faciale a un taux d'échec inquiétant chez les personnes de couleur
Moses Concha HackerNoon profile picture

L'utilisation récente de systèmes de reconnaissance faciale en Louisiane a entraîné l'arrestation pour erreur d'identité de Randall Reid, un homme noir de Géorgie. Les autorités locales ont utilisé la technologie de reconnaissance faciale pour l'épingler pour avoir volé des sacs à main dans un magasin d'une banlieue de la Nouvelle-Orléans – un dans un État entièrement séparé que Reid prétend avoir été une fois.


Reid est encore un autre dans un d'erreurs d'identification majeures similaires d'autres personnes de couleur par la technologie de reconnaissance faciale (FRT) au cours des dernières années.


Après que la police de Woodbridge, dans le New Jersey, eut une fausse carte d'identité appartenant à un voleur à l'étalage présumé évalué par les FRT au début de 2019, Nijeer Parks, qui travaillait et vivait à 30 miles de là à Paterson, NJ, a servi se défendant contre un crime dans lequel il n'était pas impliqué. La preuve qu'il envoyait de l'argent à une Western Union au moment de l'incident l'a aidé à se tirer d'affaire.

Michael Oliver a été accusé à tort d'avoir à la caméra en mai 2019. Sur la base de preuves vidéo capturées par l'enseignant, pour lier Michael Oliver au crime, bien que des différences physiques évidentes notées par son avocat - telles que ses tatouages à l'avant-bras et un teint plus clair - l'aient finalement absous de tout acte répréhensible.


En janvier 2020, Robert Williams a passé plus d'une journée entière en prison après avoir été filmé en train de voler près de 4 000 $ de montres de luxe dans un magasin Shinola à Detroit. Ses accusations ont été abandonnées deux mois après que de nouvelles preuves ont révélé qu'il chantait sur Instagram Live à 50 miles de là au moment du crime.


Ces cas font partie des erreurs d'identification majeures les plus importantes des personnes de couleur aux États-Unis au cours des cinq dernières années. Ils servent de reflet direct de l'état des technologies de reconnaissance faciale et de leur capacité à discerner et différencier efficacement les individus de couleur.

Reconnaître les problèmes


La technologie de reconnaissance faciale prospère, ou vacille, sur les données biométriques vitales - photos de différents visages et autres caractéristiques physiques - qu'elle est amenée à évaluer. L'ensemble de données que le système reçoit est ce qui détermine en fin de compte l'efficacité globale du système dans son ensemble.


Cela dit, ces systèmes ne peuvent pas reconnaître les visages appartenant à ceux d'une race spécifique si les ensembles de données utilisés pour soutenir et entraîner ces systèmes contiennent un minimum de données sur la race en question.


Yashar Behzadi, PDG et fondateur de , déclare : "Certaines données démographiques sont souvent sous-représentées dans ces ensembles de données, qu'elles aient été collectées à partir d'images sur Internet ou d'autres moyens conventionnels. Le résultat est que les données de formation utilisées pour alimenter l'IA deviennent déséquilibrées, ce qui entraîne un biais du modèle."


En d'autres termes, moins il y a de données biométriques sur les personnes de couleur, moins la technologie de reconnaissance faciale est susceptible d'identifier avec succès les personnes de couleur.


Jusqu'à récemment, les FRT étaient "principalement développées et testées sur des ensembles de données contenant une majorité d'individus à la peau claire", selon Tatevik Baghdasaryan, Content Marketer chez . Cela limite considérablement leur champ d'analyse, produisant beaucoup plus d'erreurs lors de la tentative d'identification des personnes de couleur par rapport à leurs homologues bien enregistrés et à la peau plus claire.

"En conséquence, les algorithmes utilisés dans la technologie de reconnaissance faciale fonctionnent moins bien sur les personnes ayant des tons de peau plus foncés et des caractéristiques faciales spécifiques telles que des nez plus larges et des lèvres plus pulpeuses", explique Baghdasaryan. "Cela conduit à des taux plus élevés de faux positifs et de faux négatifs."


Par exemple, une étude historique réalisée en 2018 par Joy Buolamwini et Timnit Gebru a révélé que de nombreux algorithmes responsables de l'analyse des principaux traits du visage dans les FRT sont connus pour mal identifier les femmes noires. du temps.

FRT dans le monde


La technologie de reconnaissance faciale est devenue assez omniprésente dans le monde de la technologie et est maintenant utilisée par près de 100 pays à travers le monde.


Singapour, connue pour sa initiative, n'est pas étranger aux technologies émergentes et a toujours été à la pointe de l'innovation technologique au cours des dernières décennies.


Fin 2020, Smart Nation a ajouté un à SingPass, le principal système d'authentification personnelle du pays où les utilisateurs peuvent accéder à divers services gouvernementaux en ligne. Depuis lors, Singapour a également installé des kiosques en libre-service dans tout le pays qui emploient des FRT dans le but de rendre l'accès aux services publics aussi pratique et transparent que possible.


Cependant, si l'utilisation des technologies de reconnaissance faciale est devenue largement acceptée, il reste encore une poignée de pays qui limitent leur utilisation ou, dans certains cas, les refusent carrément. Des pays comme la Belgique et le Luxembourg entrent dans cette dernière catégorie, optant pour l'interdiction complète des FRT, avec commence à emboîter le pas.


L'Argentine est un exemple unique ; un pays qui, au début, a adopté la technologie à bras ouverts, puis plus tard sur la technologie controversée en réponse à une série d'erreurs d'identification qui ont conduit à la détention injustifiée de plusieurs personnes.

Ce qui peut être fait?


Actuellement, il est devenu clair que les plus gros problèmes de la technologie de reconnaissance faciale proviennent de la qualité et du type de données que ses systèmes reçoivent.


Si les données du système ne sont pas représentatives d'un ensemble diversifié de données démographiques - n'incluant que les données pour les personnes à la peau plus claire, par exemple - ou si la qualité des images évaluées par le système est médiocre - floues, faiblement éclairées, prises sous des angles non optimaux, etc. .– Les erreurs comme les faux positifs chez les personnes de couleur deviennent beaucoup plus susceptibles de se produire.


Ainsi, la solution la plus simple à ce problème de longue date avec les FRT est d'incorporer des volumes plus élevés de données qui représentent ceux qui ont une variété de tons de peau et de traits du visage.


Si nous, en tant que peuple, devons faire confiance et compter sur cette technologie pour nous aider dans les affaires d'une justice équitable et équitable, le moins que nous puissions faire est d'en savoir plus sur les problèmes fondamentaux de la reconnaissance faciale et sur la manière dont ils affectent sa capacité à identifier correctement les personnes de Couleur.
바카라사이트 바카라사이트 온라인바카라