paint-brush
Bei der Gesichtserkennungstechnologie ist die Fehlerquote bei farbigen Menschen besorgniserregend hoch von@mosesconcha
818 Lesungen
818 Lesungen

Bei der Gesichtserkennungstechnologie ist die Fehlerquote bei farbigen Menschen besorgniserregend hoch

von Moses Concha4m2023/01/26
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Der jüngste Einsatz von Gesichtserkennungssystemen in Louisiana hat zur Verwechslung von Randall Reid, einem schwarzen Mann aus Georgia, geführt. Lokale Behörden setzten Gesichtserkennungstechnologie ein, um ihn wegen Diebstahls von Geldbörsen aus einem Geschäft in einem Vorort von New Orleans anzuklagen – einem Geschäft in einem völlig anderen Bundesstaat. Reid ist ein weiterer Vertreter eines __[anhaltenden Trends](//www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww. wired .com%2C%2A%20Facial-recognition-misidentify-jail.html

People Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Bei der Gesichtserkennungstechnologie ist die Fehlerquote bei farbigen Menschen besorgniserregend hoch
Moses Concha HackerNoon profile picture

Der jüngste Einsatz von Gesichtserkennungssystemen in Louisiana hat zur fälschlichen Festnahme von Randall Reid, einem schwarzen Mann aus Georgia, geführt. Lokale Behörden setzten Gesichtserkennungstechnologie ein, um ihn wegen Diebstahls von Geldbörsen aus einem Geschäft in einem Vorort von New Orleans anzuklagen – eines in einem völlig anderen Bundesstaat, den Reid behauptet einmal dort gewesen.


Reid ist ein weiterer in einem ähnlicher schwerwiegender Fehlidentifizierungen farbiger Mitmenschen durch Gesichtserkennungstechnologie (FRT) in den letzten Jahren.


Nachdem die Polizei in Woodbridge, New Jersey, Anfang 2019 einen gefälschten Ausweis eines mutmaßlichen Ladendiebstahls von FRTs begutachten ließ, stellte Nijeer Parks, der 30 Meilen entfernt in Paterson, New Jersey, arbeitete und lebte, zu Er verteidigte sich gegen ein Verbrechen, an dem er nicht beteiligt war. Der Nachweis, dass er zum Zeitpunkt des Vorfalls Geld an eine Western Union geschickt hatte, half ihm, aus der Klemme zu kommen.

Michael Oliver wurde zu Unrecht beschuldigt vor der Kamera im Mai 2019. Basierend auf vom Lehrer aufgenommenen Videobeweisen, Michael Oliver mit dem Verbrechen in Verbindung zu bringen, obwohl offensichtliche körperliche Unterschiede, die sein Anwalt festgestellt hatte – wie seine Unterarmtätowierungen und sein hellerer Hautton – ihn letztendlich von jeglichem Fehlverhalten freigesprochen haben.


Im Januar 2020 verbrachte Robert Williams über einen ganzen Tag im Gefängnis, nachdem er angeblich auf Video dabei erwischt worden war, wie er Luxusuhren im Wert von fast 4.000 US-Dollar aus einem Shinola-Geschäft in Detroit stahl. Seine Anklage wurde zwei Monate, nachdem neue Beweise ergaben, dass er zum Tatzeitpunkt 50 Meilen entfernt auf Instagram Live sang, fallen gelassen.


Bei diesen Fällen handelt es sich um einige der schwerwiegendsten Fehlidentifizierungen farbiger Menschen in den USA in den letzten fünf Jahren. Sie spiegeln direkt den Stand der Gesichtserkennungstechnologien und ihre Fähigkeit wider, farbige Personen effektiv zu erkennen und zu unterscheiden.

Die Probleme erkennen


Die Gesichtserkennungstechnologie lebt von den wichtigen biometrischen Daten – Fotos verschiedener Gesichter und anderen physischen Merkmalen –, die ihr zur Beurteilung vorgelegt werden. Der Datensatz, den das System erhält, bestimmt letztendlich die Gesamteffektivität des Systems als Ganzes.


Allerdings können diese Systeme keine Gesichter erkennen, die einer bestimmten Rasse angehören, wenn die Datensätze, die zur Unterstützung und zum Training dieser Systeme verwendet werden, nur minimale Daten über die betreffende Rasse enthalten.


Yashar Behzadi, CEO und Gründer von , sagt: „Bestimmte Bevölkerungsgruppen sind in diesen Datensätzen oft unterrepräsentiert, unabhängig davon, ob sie aus Bildern im Internet oder auf andere herkömmliche Weise gesammelt wurden. Das Ergebnis ist, dass die Trainingsdaten, die zur Stromversorgung der KI verwendet werden, unausgewogen werden, was zu einer Modellverzerrung führt.“


Mit anderen Worten: Je weniger biometrische Daten über farbige Menschen vorliegen, desto geringer ist die Wahrscheinlichkeit, dass Gesichtserkennungstechnologie farbige Menschen erfolgreich identifiziert.


Bis vor Kurzem wurden FRTs „in erster Linie anhand von Datensätzen entwickelt und getestet, die überwiegend hellhäutige Personen enthielten“, so Tatevik Baghdasaryan, Content Marketer bei . Dies schränkt ihren Analyseumfang erheblich ein und führt zu weitaus mehr Fehlern bei der Identifizierung farbiger Menschen im Vergleich zu ihren gut erfassten, hellhäutigeren Gegenstücken.

„Daher sind die in der Gesichtserkennungstechnologie verwendeten Algorithmen bei Menschen mit dunkleren Hauttönen und spezifischen Gesichtsmerkmalen wie breiteren Nasen und volleren Lippen schlechter“, sagt Baghdasaryan. „Dies führt zu höheren Raten falsch positiver und falsch negativer Ergebnisse.“


Eine bahnbrechende Studie von Joy Buolamwini und Timnit Gebru aus dem Jahr 2018 ergab beispielsweise, dass viele Algorithmen, die für die Analyse wichtiger Gesichtsmerkmale bei FRTs verantwortlich sind, bekanntermaßen schwarze Frauen falsch identifizieren der ganzen Zeit.

FRTs auf der ganzen Welt


Gesichtserkennungstechnologie ist in der Technologiewelt mittlerweile allgegenwärtig und wird mittlerweile in fast 100 Ländern auf der ganzen Welt eingesetzt.


Singapur, bekannt für seine Initiative, ist kein Unbekannter in neuen Technologien und war in den letzten Jahrzehnten stets auf dem neuesten Stand der technologischen Innovation.


Ende 2020 fügte Smart Nation eine hinzu zu SingPass, dem wichtigsten persönlichen Authentifizierungssystem des Landes, mit dem Benutzer online auf verschiedene Regierungsdienste zugreifen können. Seitdem hat Singapur im ganzen Land Selbstbedienungskioske installiert, die FRTs einsetzen, um den Zugang zu öffentlichen Dienstleistungen so bequem und nahtlos wie möglich zu gestalten.


Doch obwohl der Einsatz von Gesichtserkennungstechnologien weithin akzeptiert ist, gibt es immer noch eine Handvoll Länder, die ihren Einsatz einschränken oder sie in einigen Fällen sogar ganz ablehnen. Länder wie Belgien und Luxemburg fallen in die letztere Kategorie und entscheiden sich für ein vollständiges Verbot von FRTs beginnt, diesem Beispiel zu folgen.


Argentinien dient als einzigartiges Beispiel; ein Land, das die Technologie zunächst mit offenen Armen und dann später übernommen hat über die umstrittene Technologie als Reaktion auf eine Reihe von Fehlidentifikationen, die zur unrechtmäßigen Inhaftierung mehrerer Personen führten.

Was kann getan werden?


Derzeit ist klar geworden, dass die größten Probleme der Gesichtserkennungstechnologie in der Qualität und Art der von ihren Systemen empfangenen Daten liegen.


Wenn die Daten des Systems nicht repräsentativ für eine vielfältige Bevölkerungsgruppe sind – beispielsweise nur Daten für Personen mit hellerer Haut – oder die Qualität der vom System bewerteten Bilder schlecht ist – verschwommen, schwach beleuchtet, aus nicht optimalen Winkeln aufgenommen usw . – Fehler wie Fehlalarme bei farbigen Menschen treten weitaus häufiger auf.


Daher besteht die einfachste Lösung für dieses seit langem bestehende Problem mit FRTs darin, größere Datenmengen einzubeziehen, die Personen mit unterschiedlichen Hauttönen und Gesichtsmerkmalen repräsentieren.


Wenn wir als Volk dieser Technologie vertrauen und uns darauf verlassen müssen, dass sie uns in Angelegenheiten gleicher und gerechter Gerechtigkeit hilft, können wir zumindest mehr über die Kernprobleme der Gesichtserkennung erfahren und darüber, wie sie sich auf die Fähigkeit der Gesichtserkennung auswirken, Menschen richtig zu identifizieren Farbe.
바카라사이트 바카라사이트 온라인바카라