Ansiktsigenkänningsalgoritm orsakade felaktig gripande

Vänligen dela denna berättelse!
Denna berättelse avslöjar varför Amazon, IBM och Microsoft har dragit sig ur ansiktsigenkänningsbranschen för att avleda viss kritik mot rasisk partiskhet. I detta fall spikade algoritmen fel svart man för ett brott han inte begick. ⁃ TN Editor

På en torsdag eftermiddag i januari var Robert Julian-Borchak Williams på sitt kontor hos ett fordonsförsörjningsföretag när han fick ett samtal från Detroit polisavdelning där han berättade att han skulle komma till stationen för att arresteras. Han trodde först att det var en prank.

En timme senare, när han drog in i sin uppfart i en lugn underavdelning i Farmington Hills, Mich., Drog en polisbil bakom sig och blockerade honom. Två officerare gick ut och handbojor Mr. Williams på hans främre gräsmatta, framför hans fru och två unga döttrar, som var upprörd. Polisen skulle inte säga varför han arresterades, utan bara visade honom ett papper med sitt foto och orden ”felony warrant” och “larceny.”

Hans fru, Melissa, frågade vart han fördes. "Google det", påminner hon om att en officer svarar.

Polisen körde Mr. Williams till ett interneringscenter. Han hade tagit sitt muggskott, fingeravtryck och DNA och hölls över natten. Omkring klockan tolv på fredagen tog två detektiver honom till ett förhörsrum och placerade tre pappersbitar på bordet med framsidan nedåt.

"När är sista gången du åkte till en Shinola-butik?" frågade en av detektiven i mr Williams villkor. Shinola är en exklusiv butik som säljer klockor, cyklar och lädervaror i det trendiga stadsdelen Midtown i Detroit. Herr Williams sa att han och hans fru hade checkat ut det när butiken först öppnades 2014.

Detektiven vände det första papperet. Det var en stillbild från en övervakningsvideo, som visar en tung man, klädd i svart och klädd i ett rött mössa i St Louis Cardinals, stående framför en klockbild. Fem timepieces, värda 3,800 XNUMX dollar, butikslyftades.

"Är det här du?" frågade detektiven.

Det andra papperet var en närbild. Fotot var suddigt, men det var uppenbarligen inte Mr. Williams. Han tog upp bilden och höll den bredvid ansiktet.

"Nej, det här är inte jag," sade Williams. "Tror du att alla svarta män ser lika ut?"

Williams visste att han inte hade begått brottet i fråga. Vad han inte kunde ha vetat, när han satt i förhörsrummet, är att hans fall kan vara den första kända berättelsen om att en amerikan felaktigt arresterades baserat på en felaktig match från en ansiktsigenkänningsalgoritm, enligt experter på teknik och lagen .

Ett felaktigt system

En landsomfattande debatt rasar om rasism i brottsbekämpning. Över hela landet protesterar miljoner inte bara de enskilda officerarnas handlingar, utan partiskhet i de system som används för att övervaka samhällen och identifiera personer för åtal.

Ansiktsigenkänningssystem har använts av polisstyrkor för mer än två decennier. Nya studier av MIT och National Institute of Standards and Technology, eller NIST, har funnit att även om tekniken fungerar relativt bra på vita män, är resultaten mindre exakta för annan demografi, delvis på grund av brist på mångfald i bilderna som används för att utveckla de underliggande databaserna.

Förra året, under en offentlig utfrågning om användningen av ansiktsigenkänning i Detroit, en biträdande polischef var bland dem som väckte oro. "På frågan om falska positiver - det är helt sakligt och det är väl dokumenterat," sade James White. "Så det berör mig som en afroamerikansk man."

Denna månad, amasonMicrosoft samt IBM meddelade att de skulle sluta eller paus deras erbjudande om ansiktsigenkänning för brottsbekämpning. Gesterna var till stor del symboliska med tanke på att företagen inte är stora aktörer i branschen. Tekniken som polisavdelningarna använder tillhandahålls av företag som inte är hushållens namn, som Vigilant Solutions, Cognitec, NEC, Rank One Computing och clearview AI.

Läs hela historien här ...

Prenumerera
Meddela om
gäst

2 Kommentarer
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer
DawnieR

Glöm svarta människor ... ... Jag skulle ta en utbildad gissning att detta ALDRIG skulle fungera för asiater heller !!

dP_Ted

Det var säkert att hända. Det som får mig är att den person som datorn väljer ibland ser ganska annorlunda ut än den faktiska personen, men det är vad datorn säger som går. smh