El uso reciente de sistemas de reconocimiento facial en Luisiana resultó en el arresto por identidad errónea de Randall Reid, un hombre negro de Georgia. Las autoridades locales utilizaron tecnología de reconocimiento facial para incriminarlo por robar carteras de una tienda en un suburbio de Nueva Orleans, uno en un estado completamente diferente. Reid es otro en una __[tendencia en curso](//www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww.wired .com%2C%2A%20Facial-recognition-misidentify-jail.html
El uso reciente de sistemas de reconocimiento facial en Luisiana resultó en el arresto por identidad errónea de Randall Reid, un hombre negro de Georgia. Las autoridades locales utilizaron tecnología de reconocimiento facial para incriminarlo por robar carteras de una tienda en un suburbio de Nueva Orleans, uno en un estado completamente separado que Reid afirma haber una vez estado en.
Reid es otro en un de identificaciones erróneas importantes similares de otras personas de color mediante la tecnología de reconocimiento facial (FRT) en los últimos años.
Después de que la policía en Woodbridge, Nueva Jersey, tuviera una identificación falsa perteneciente a un presunto ladrón evaluado por FRT a principios de 2019, Nijeer Parks, que trabajaba y vivía a 30 millas de distancia en Paterson, Nueva Jersey, sirvió defendiéndose de un crimen en el que no estuvo involucrado. La prueba de que envió dinero a una Western Union en el momento del incidente lo ayudó a salir del apuro.
Michael Oliver fue acusado injustamente de en cámara en mayo de 2019. Basado en evidencia de video capturada por el maestro, para vincular a Michael Oliver con el crimen, aunque las diferencias físicas obvias notadas por su abogado, como sus tatuajes en el antebrazo y el tono de piel más claro, finalmente lo absolvieron de cualquier delito.
En enero de 2020, Robert Williams pasó más de un día entero en la cárcel después de que supuestamente lo captaron en un video robando relojes de lujo por valor de casi $ 4,000 de una tienda Shinola en Detroit. Sus cargos fueron retirados dos meses después de que nueva evidencia revelara que estaba cantando en Instagram Live a 50 millas de distancia en el momento del crimen.
Estos casos son algunas de las identificaciones erróneas más importantes de personas de color en los Estados Unidos en los últimos cinco años. Sirven como un reflejo directo del estado de las tecnologías de reconocimiento facial y su capacidad para discernir y diferenciar de manera efectiva a las personas de color.
Reconocer los problemas
La tecnología de reconocimiento facial prospera, o falla, con los datos biométricos vitales (fotos de varias caras y otras características físicas) que se le da para evaluar. El conjunto de datos que recibe el sistema es lo que determina en última instancia la eficacia general del sistema en su conjunto.
Dicho esto, estos sistemas no pueden reconocer caras que pertenezcan a una carrera específica si los conjuntos de datos utilizados para respaldar y entrenar estos sistemas contienen datos mínimos sobre la carrera en cuestión.
Yashar Behzadi, CEO y Fundador de , dice: "Ciertos datos demográficos a menudo están subrepresentados en estos conjuntos de datos, ya sea que se hayan recopilado a partir de imágenes en Internet u otros medios convencionales. El resultado es que los datos de entrenamiento utilizados para potenciar la IA se desequilibran, lo que genera un sesgo en el modelo".
En otras palabras, cuantos menos datos biométricos haya sobre las personas de color, menos probable es que la tecnología de reconocimiento facial identifique con éxito a las personas de color.
Hasta hace poco, los FRT se han "desarrollado y probado principalmente en conjuntos de datos que tenían una mayoría de personas de piel clara", según Tatevik Baghdasaryan, Content Marketer en . Esto limita en gran medida su alcance de análisis, lo que produce muchos más errores al intentar identificar a las personas de color en comparación con sus contrapartes bien registradas y de piel más clara.
“Como resultado, los algoritmos utilizados en la tecnología de reconocimiento facial funcionan peor en personas con tonos de piel más oscuros y rasgos faciales específicos, como narices más anchas y labios más carnosos”, dice Baghdasaryan. "Esto conduce a tasas más altas de falsos positivos y falsos negativos".
Por ejemplo, un estudio histórico de 2018 realizado por Joy Buolamwini y Timnit Gebru descubrió que se sabe que muchos algoritmos responsables de analizar las características faciales clave en los FRT identifican erróneamente a las mujeres negras. del tiempo.
FRT alrededor del mundo
La tecnología de reconocimiento facial se ha vuelto bastante omnipresente en el mundo tecnológico y ahora está siendo utilizada por casi 100 países en todo el mundo.
Singapur, famosa por su iniciativa, no es ajeno a las tecnologías emergentes y ha estado consistentemente a la vanguardia de la innovación tecnológica durante las últimas décadas.
A fines de 2020, Smart Nation agregó un a SingPass, el principal sistema de autenticación personal del país donde los usuarios pueden acceder a varios servicios gubernamentales en línea. Desde entonces, Singapur también ha instalado quioscos de autoservicio en todo el país que emplean FRT en un esfuerzo por hacer que el acceso a los servicios públicos sea lo más conveniente y fluido posible.
Sin embargo, aunque el uso de tecnologías de reconocimiento facial se ha vuelto ampliamente aceptado, todavía quedan algunos países que limitan su uso o, en algunos casos, las rechazan por completo. Países como Bélgica y Luxemburgo entran en la última categoría, optando por prohibir los FRT por completo, con comenzando a seguir su ejemplo.
Argentina sirve como un ejemplo único; un país que, en un principio, adoptó la tecnología con los brazos abiertos y luego sobre la controvertida tecnología en respuesta a una serie de identificaciones erróneas que llevaron a la detención injusta de varias personas.
¿Qué se puede hacer?
Actualmente, ha quedado claro que los mayores problemas de la tecnología de reconocimiento facial se derivan de la calidad y el tipo de datos que reciben sus sistemas.
Si los datos del sistema no son representativos de un cuerpo diverso de datos demográficos (solo incluyen datos para aquellos con piel más clara, por ejemplo) o la calidad de las imágenes evaluadas por el sistema es deficiente (borrosas, con poca luz, tomadas desde ángulos no óptimos, etc.) .- es mucho más probable que ocurran errores como falsos positivos en personas de color.
Por lo tanto, la solución más simple a este problema de larga data con los FRT es incorporar mayores volúmenes de datos que representen a personas con una variedad de tonos de piel y rasgos faciales.
Si nosotros, como pueblo, debemos confiar y depender de esta tecnología para que nos ayude en asuntos de justicia equitativa y justa, lo menos que podemos hacer es aprender más sobre los problemas centrales del reconocimiento facial y cómo afectan su capacidad para identificar adecuadamente a las personas de color.