Den stigande tidvattnet av algoritmer som driver världen

Mind kontrollyoutube
Vänligen dela denna berättelse!
image_pdfimage_print

Technocrats har redan skapat tillräckligt med algoritmer för att driva världen, men det har knappt repat ytan. I slutändan kommer vetenskaplig diktatur att kontrollera praktiskt taget allt. TN Editor

När du söker online efter ett nytt par skor, väljer en film för att strömma på Netflix eller ansöka om ett billån, har en algoritm troligen sitt ord att säga om resultatet.

De komplexa matematiska formlerna spelar en växande roll i alla samhällsskikt: från att upptäcka hudcancer till att föreslå nya Facebook-vänner, bestämma vem som får ett jobb, hur polisresurser används, vem som får försäkring till vilken kostnad eller vem som är på en " no fly ”-lista.

Algoritmer används - experimentellt - för att skriva nyheter från rå data, medan Donald Trumps presidentkampanj hjälptes av beteendemarknadsförare som använde en algoritm för att hitta de högsta koncentrationerna av "övertygliga väljare."

Men även om sådana automatiserade verktyg kan injicera ett mått på objektivitet i tidigare subjektiva beslut, ökar rädsla över bristen på öppenhet algoritmer kan medföra, med tryck växer för att tillämpa etiska standarder eller "ansvarighet."

Datavetenskapsmannen Cathy O'Neil varnar för ”blindt förtroende” -formler för att fastställa ett rättvist resultat.

"Algoritmer är inte i sig rättvisa, eftersom personen som bygger modellen definierar framgång," sade hon.

Förstärkande nackdelar

O'Neil hävdar att även om vissa algoritmer kan vara till hjälp, kan andra vara besvärliga. I sin 2016-bok "Weapons of Math Destruction" citerar hon några oroande exempel i USA:

  • Offentliga skolor i Washington DC i 2010 avfyrade mer än 200-lärare - inklusive flera väl respekterade instruktörer - baserat på poäng i en algoritmisk formel som utvärderade prestanda.
  • En man som diagnostiserats med bipolär störning avvisades för anställning hos sju stora detaljhandlare efter att ett "personlighetstest" från tredje part ansåg honom vara en hög risk baserat på dess algoritmiska klassificering.
  • Många jurisdiktioner använder "förutsägbar polisering" för att flytta resurser till troliga "hot spots". O'Neill säger att beroende på hur data matas in i systemet kan detta leda till upptäckt av mindre brott och en "feedback loop" som stigmatiserar fattiga samhällen.
  • Vissa domstolar förlitar sig på dator rankade formler för att fastställa fängelse och fängelse, som kan diskriminera minoriteter genom att ta hänsyn till "risk" faktorer som deras stadsdelar och vän- eller familjelänkar till brott.
  • I finansvärlden "skrapar" data från online och andra källor på nya sätt att fatta beslut om kredit eller försäkring. Detta förstärker alltför ofta fördomar mot missgynnade, hävdar O'Neil.

Hennes resultat upprepades i en rapport från Vita huset förra året och varnade för att algoritmiska system "inte är ofelbara - de förlitar sig på ofullkomliga ingångar, logik, sannolikhet och människor som utformar dem."

I rapporten konstaterades att datasystem idealiskt kan hjälpa till att eliminera mänskliga förspänningar men varnade för algoritmer som "systematiskt försämrar vissa grupper."

Läs hela historien här ...

Gå med i vår maillista!


Prenumerera
Meddela om
gäst
0 Kommentarer
Inline feedbacks
Visa alla kommentarer