Polis över hela USA utbildar brottförutsägande AI: er på förfalskade data

Wikimedia Commons
Vänligen dela denna berättelse!
image_pdfimage_print
Hela det straffrättsliga systemet i hela Amerika skadas av det uppenbara missbruket av AI-teknik. Polisen är inte okunnig när de söker de resultat de vill ha istället för de sakliga fakta i en fråga. Detta kan jämföras med det falska vetenskapssamhället för global uppvärmning. ⁃ TN Editor

I maj 2010, uppmanad av en serie av högprofilerade skandaler, bad borgmästaren i New Orleans det amerikanska justitiedepartementet att utreda stadspolisavdelningen (NOPD). Tio månader senare erbjöd DOJ sitt blåsanalys: Under perioden för granskningen från och med 2005 och framåt hade NOPD upprepade gånger brott mot konstitutionell och federal lag.

Den använde överdriven kraft och oproportionerligt mot svarta invånare; riktade rasminoriteter, icke-modersmål engelsktalande och hbt-personer; och misslyckades med att hantera våld mot kvinnor. Problemen, sade assistentadvokat Thomas Perez vid den tiden, var "allvarliga, omfattande, systemiska och djupt förankrade inom avdelningens kultur."

Trots de störande fynden gick staden in i hemligt partnerskap bara ett år senare med datalagringsföretaget Palantir för att installera ett prediktivt polisystem. Systemet använde historiska data, inklusive arresteringsregister och elektroniska polisrapporter, för att förutsäga brott och hjälpa till att utforma strategier för allmän säkerhet enligt företag och stadsregering material. På ingen tidpunkt föreslog dessa material några ansträngningar för att rengöra eller ändra uppgifterna för att hantera de överträdelser som avslöjats av DOJ. Med all sannolikhet matades de skadade uppgifterna direkt in i systemet, vilket förstärkte avdelningens diskriminerande praxis.

Förutsägbara poliseringsalgoritmer blir vanliga praxis i städer över hela USA. Även om bristen på transparens gör exakt statistik svårt att fastställa, är PredPol, en ledande leverantör, ståtar att det hjälper att "skydda" 1 hos 33 amerikaner. Programvaran prövas ofta som ett sätt att hjälpa tunt utsträckta polisavdelningar att göra mer effektiva, datadrivna beslut.

Men ny forskning antyder att det inte bara är New Orleans som har tränat dessa system med "smutsiga data." papper släppt idag, för att publiceras i NYU Law Review, fann forskare vid AI Now Institute, ett forskningscenter som studerar den sociala effekten av konstgjord intelligens, problemet att vara genomgripande bland de jurisdiktioner som det studerade. Detta har betydande konsekvenser för effektiviteten av förutsägbar polisarbete och andra algoritmer som används i det straffrättsliga systemet.

"Ditt system är bara lika bra som de data du använder för att träna det," säger Kate Crawford, medstifter och meddirektör för AI Now och en författare på studien. ”Om uppgifterna i sig är felaktiga kommer det att leda till att fler polisresurser fokuseras på samma överövervakade och ofta rasinriktade samhällen. Så vad du har gjort är faktiskt en typ av teknisk tvätt där människor som använder dessa system antar att de på något sätt är mer neutrala eller objektiva, men i själva verket har de ingripit i en form av okonstitutionalitet eller olaglighet. ”

Forskarna undersökte 13 jurisdiktioner, med fokus på de som har använt förutsägbara polissystem och varit föremål för en regeringsuppdrag. Det senare kravet säkerställde att polismetoderna hade lagligt verifierbar dokumentation. I nio av jurisdiktionerna fann de starka bevis för att systemen hade tränats på "smutsiga uppgifter."

Problemet var inte bara uppgifter som är skeva av oproportionerligt inriktning på minoriteter, som i New Orleans. I vissa fall hade polisavdelningarna en kultur med avsiktligt manipulering eller förfalskning av uppgifter under intensivt politiskt påtryckning för att minska de officiella brottsfrekvenserna. I New York, till exempel, för att artificiellt leda ut brottstatistik, begärde befälhavare regelbundet offren vid brottsplatser att inte lämna in klagomål. Vissa poliser planterade till och med narkotika på oskyldiga människor för att uppfylla sina kvoter för arresteringar. I dagens förutsägbara polissystem, som förlitar sig på maskinlärande för att förutse brott, blir de skadade datapunkterna legitima prediktorer.

Läs hela historien här ...

Gå med i vår maillista!


Prenumerera
Meddela om
gäst
2 Kommentarer
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer
Tom S

GIGO! Sopor i; Skräp ut!