Ex-Google Engineer: 'Killer Robots' kan inleda krig

Vänligen dela denna berättelse!
image_pdfimage_print
När regeringarna rycker upp AI-vapenkapplöpningen för att rikta autonoma robotar med en "licensierad att döda", ökar också de hemska riskerna, inklusive möjligheten att starta ett robotkrig. ⁃ TN Editor

En ny generation autonoma vapen eller "mördningsrobotar" kan av misstag inleda ett krig eller orsaka massgrymme, en tidigare topp Google programvaruingenjör har varnat.

Laura Nolan, som avgick från Google förra året i protest för att ha skickats till ett projekt för att dramatiskt förbättra Amerikanska militären drone-teknik, har begärt att alla AI-dödande maskiner som inte drivs av människor ska förbjudas.

Nolan sade mördningsrobotar som inte styrs av mänsklig fjärrkontroll bör förbjudas av samma typ av internationellt fördrag som förbjuder kemiska vapen.

Till skillnad från drönare, som kontrolleras av militära team ofta tusentals mil bort från det flygande vapnet är utplacerade, sade Nolan mördningsrobotar har potential att göra "katastrofala saker som de inte ursprungligen var programmerade för".

Det finns inget förslag om att Google deltar i utvecklingen av autonoma vapensystem. Förra månaden diskuterade en FN-panel av regeringsexperter autonoma vapen och fann att Google undviker AI för användning i vapensystem och deltar i bästa praxis.

Nolan, som har anslutit sig till Kampanj för att stoppa Killer Robots och har informerat FN: s diplomater i New York och Genève om farorna med autonoma vapen, sa: ”Sannolikheten för en katastrof står i proportion till hur många av dessa maskiner som kommer att vara i ett visst område på en gång. Det du tittar på är möjliga grymheter och olagliga mord även under krigslagar, särskilt om hundratals eller tusentals av dessa maskiner är utplacerade.

”Det kan inträffa storskaliga olyckor eftersom de här sakerna börjar bete sig på oväntade sätt. Därför bör alla avancerade vapensystem underkastas meningsfull mänsklig kontroll, annars måste de förbjudas eftersom de är alltför oförutsägbara och farliga. ”

Google rekryterade Nolan, en datavetenskapsexamen från Trinity College Dublin, för att arbeta på Project Maven i 2017 efter att hon hade varit anställd av teknikjätte i fyra år och blivit en av de bästa programvaruingenjörerna i Irland.

Hon sa att hon blev "allt mer etiskt orolig" över sin roll i Maven-programmet, som utformades för att hjälpa det amerikanska försvarsdepartementet att drastiskt påskynda dronvideokänslighetstekniken.

I stället för att använda ett stort antal militära operatörer för att spola genom timmar och timmar av drone-videofilmer av potentiella fiendemål, ombads Nolan och andra att bygga ett system där AI-maskiner kunde differentiera människor och objekt i oändligt snabbare takt.

Google tillät att Project Maven-kontraktet förfaller i mars i år efter mer än 3,000 av sina anställda undertecknade en framställning i protest mot företagets engagemang.

”Som ingenjör på platstillförlitlighet var min expertis hos Google att se till att våra system och infrastrukturer höll igång, och det var vad jag skulle hjälpa Maven med. Även om jag inte var direkt involverad i att påskynda videofilmigenkänningen insåg jag att jag fortfarande var en del av killkedjan; att detta i slutändan skulle leda till att fler människor riktas och dödas av den amerikanska militären på platser som Afghanistan. ”

Även om hon avgick från projektet Maven har Nolan förutspått att autonoma vapen som utvecklas utgör en mycket större risk för mänskligheten än fjärrstyrda drönare.

Hon redogjorde för hur externa krafter som sträcker sig från att ändra vädersystem till maskiner som inte kan utarbeta komplexa mänskliga beteenden kan kasta mördningsrobotar från kursen, med möjligen dödliga konsekvenser.

”Du kan ha ett scenario där autonoma vapen som har skickats ut för att göra ett jobb konfronterar oväntade radarsignaler i ett område de söker efter; det kan finnas väder som inte har tagits med i dess programvara eller de stöter på en grupp beväpnade män som verkar vara upproriska fiender men faktiskt är ute med vapen som jagar efter mat. Maskinen har inte den bedömning eller sunt förnuft som den mänskliga beröringen har.

”Det andra skrämmande med dessa autonoma krigssystem är att man bara kan testa dem genom att distribuera dem i en verklig stridszon. Kanske det händer med ryssarna för närvarande i Syrien, vem vet? Vad vi vet är att vid FN har Ryssland motsatt sig alla fördrag än mindre förbud mot dessa vapen förresten.

”Om du testar en maskin som tar sina egna beslut om världen runt den måste den vara i realtid. Hur tränar du dessutom ett system som enbart körs på mjukvara för att upptäcka subtilt mänskligt beteende eller upptäcka skillnaden mellan jägare och uppror? Hur skiljer dödsmaskinen där ute på egen flygning mellan den 18-åriga stridmannen och 18-åringen som jagar efter kaniner? ”

Läs hela historien här ...

Gå med i vår maillista!


Prenumerera
Meddela om
gäst
1 Kommentar
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer
steve

Detta påminner mig om den scenen från War Games - lite gammaldags att titta på nu - men mycket relevant. https://www.youtube.com/watch?v=NHWjlCaIrQo