AI kan hata dig utan mänsklig input

Vänligen dela denna berättelse!
image_pdfimage_print
Flera nya studier har visat att djupt lärande AI kan utveckla fördomar precis som människor gör. Problemet är att AI är helt ogiltig för mänskliga känslor och modellerar en schizoid personlighetsstörning. ⁃ TN Editor

Tänk om en robot bestämmer att den hatar dig?

Det kan tyckas vara en dum fråga, men enligt forskning kräver det att utveckla fördomar gentemot andra inte en hög grad av kognitiv förmåga och kan lätt visas av robotar och andra konstgjorda intelligenta maskiner.

Studien, utförd av datavetenskap och psykologexperter från Cardiff University och MIT, avslöjade att grupper av autonoma maskiner kunde visa fördomar genom att helt enkelt identifiera, kopiera och lära sig beteendet från varandra. Resultaten publicerades i tidskriften Natur.

Roboter kan bilda fördomar ungefär som människor.

In ett pressmeddelande, forskargruppen förklarade att även om det kan tyckas att mänsklig kognition skulle krävas för att bilda åsikter och stereotypa andra, verkar det inte vara fallet. Fördomar verkar inte vara ett mänskligt specifikt fenomen.

Vissa typer av datoralgoritmer har redan visat fördomar som rasism och sexism som maskinerna lär sig från offentliga register och annan information som genereras av människor. I två tidigare instanser av AI som uppvisar sådana fördomar, Microsoft chatbots Tay och Zo stängdes av efter att folk lärde dem att pipa rasistiska och sexistiska kommentarer på sociala medier.

Det betyder att robotar kan vara lika hatliga som människor kan vara. Och eftersom de är tusentals gånger smartare än oss, kan du föreställa dig framtiden om de utvecklat en partiskhet mot mänskligheten?

Ingen mänsklig insats krävs.

Vägledning från människor behövs inte för att robotar ska lära sig att ogilla vissa människor.

Denna studie visade emellertid att AI inte behöver provokation och inspiration från troll för att få den att visa fördomar: den kan bilda dem alla av sig själv.

För att genomföra forskningen inrättade teamet datorsimuleringar av hur fördomade individer kan bilda en grupp och interagera med varandra. De skapade ett spel "ge och ta", där varje AI-bot tog ett beslut om att donera till en annan person i sin egen arbetsgrupp eller en annan grupp. Besluten fattades baserat på varje individs rykte och deras donationsstrategi, inklusive deras nivåer av fördomar gentemot individer i externa grupper.

När spelet fortsatte och en superdator samlade tusentals simuleringar, började varje individ att lära sig nya strategier genom att kopiera andra antingen inom sin egen grupp eller hela befolkningen.

Medförfattare till studien Professor Roger Whitaker, från Cardiff Universitys brotts- och säkerhetsforskningsinstitut och School of Computer Science and Informatics, sade av resultaten:

Genom att köra dessa simuleringar tusentals gånger över börjar vi få en förståelse för hur fördomar utvecklas och förhållandena som främjar eller hindrar det.

Resultaten involverar individer som uppdaterar sina fördomarnivåer genom att företrädesvis kopiera de som får en högre kortfristig vinst, vilket innebär att dessa beslut kräver inte nödvändigtvis avancerade kognitiva förmågor.

Det är möjligt att autonoma maskiner med förmåga att identifiera sig med diskriminering och kopiera andra i framtiden kan vara mottagliga för skadliga fenomen som vi ser i den mänskliga befolkningen.

Många av AI-utvecklingen som vi ser involverar autonomi och självkontroll, vilket innebär att enheternas beteende också påverkas av andra omkring dem. Fordon och Internet of Things är två senaste exempel. Vår studie ger en teoretisk insikt där simulerade agenter regelbundet uppmanar andra för någon form av resurs. (källa)

Autonomi och självkontroll. Är det inte det som hände i? Terminator-franchisen?

Musk lagt till, "Med konstgjord intelligens kallar vi demonen."

Läs hela historien här ...

Prenumerera
Meddela om
gäst
1 Kommentar
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer