Forskare: Inget sätt att kontrollera superintelligent AI

Bild av Gerd Altmann från Pixabay
Vänligen dela denna berättelse!
image_pdfimage_print
Vissa forskare är nu oroliga över att en dag kommer med superintelligenta AI-program kommer att få ett automatiskt eget liv. Det finns redan AI-program som utför inlärda uppgifter utan att programmerarna förstår hur det kom till det tillståndet. ⁃ TN Editor

Från självkörande bilar till datorer som kan vinna spelshow, människor har en naturlig nyfikenhet och intresse för artificiell intelligens (AI). När forskare fortsätter att göra maskiner smartare och smartare, frågar vissa "vad händer när datorer blir för smarta för sitt eget bästa?" Från "The Matrix" till "The Terminator" har underhållningsindustrin redan börjat fundera på om framtida robotar en dag kommer att hota mänskligheten. Nu drar en ny studie slutsatsen att det kanske inte finns något sätt att stoppa uppkomsten av maskiner. Ett internationellt team säger att människor inte skulle kunna förhindra super artificiell intelligens från att göra vad de ville.

Forskare från Center for Humans and Machines vid Max Planck Institute har börjat föreställa sig hur en sådan maskin skulle se ut. Föreställ dig ett AI-program med en intelligens som är mycket överlägsen människor. Så mycket att det kunde lära sig själv utan ny programmering. Om den var ansluten till internet, säger forskare att AI skulle ha tillgång till all mänsklighetens data och till och med kunde ta kontroll över andra maskiner runt om i världen.

Studieförfattare frågar vad som skulle göra en sådan intelligens göra med all den makten? Skulle det fungera för att göra alla våra liv bättre? Skulle den ägna sin processorkraft till att lösa problem som klimatförändringar? Eller skulle maskinen se ut ta över livet av sina mänskliga grannar?

Kontrollerar det okontrollerbara? Farorna med super artificiell intelligens

Både dataprogrammerare och filosofer har studerat om det finns ett sätt att hindra en superintelligent AI från att potentiellt slå på sina mänskliga tillverkare; säkerställa att framtida datorer inte kan skada sina ägare. Den nya studien avslöjar tyvärr att det verkar vara praktiskt taget omöjligt att hålla en superintelligent AI i linje.

”En superintelligent maskin som styr världen låter som science fiction. Men det finns redan maskiner som utför vissa viktiga uppgifter självständigt utan att programmerare förstår hur de lärde sig det. Frågan uppstår därför om detta någon gång kan bli okontrollerbar och farlig för mänskligheten ”, säger studieförfattare Manuel Cebrian, ledare för Digital Mobilization Group vid Center for Humans and Machines, i en universitetsläpp.

Det internationella laget tittade på två olika sätt att kontrollera artificiell intelligens. Den första dämpade superintelligensens kraft genom att lägga den på väggen och hålla den från att ansluta till internet. Det kunde inte heller anslutas till andra tekniska enheter i omvärlden. Problemet med denna plan är ganska uppenbart; en sådan dator skulle inte kunna göra mycket av någonting för att faktiskt hjälpa människor.

Att vara trevlig mot människor beräknar inte

Det andra alternativet fokuserade på att skapa en algoritm som skulle ge superdatorn etiska principer. Detta skulle förhoppningsvis tvinga AI att överväga mänsklighetens bästa.

Studien skapade en teoretisk inneslutningsalgoritm som skulle hindra AI från att skada människor under alla omständigheter. I simuleringar skulle AI sluta fungera om forskare ansåg att dess handlingar var skadliga. Trots att AI hålls ifrån uppnå världsherraväldesäger studieförfattarna att detta bara inte skulle fungera i den verkliga världen.

Läs hela historien här ...

Om författaren

Patrick Wood
Patrick Wood är en ledande och kritisk expert på hållbar utveckling, grön ekonomi, Agenda 21, 2030 Agenda och historisk teknokrati. Han är författare till Technocracy Rising: The Trojan Horse of Global Transformation (2015) och medförfattare av Trilaterals Over Washington, volymer I och II (1978-1980) med avdömda Antony C. Sutton.
Prenumerera
Meddela om
gäst
12 Kommentarer
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer

[...] Hämtad från Technocracy News & Trends [...]

Michael J

Artificiell intelligens är en felaktig benämning. Det kallas maskininlärning där datorn tränas i att känna igen mönster i data. Det är inte intelligent och det finns ingen medvetenhet eller förmåga att tänka en enda tanke.

James Reinhart

Utmärkt svar. De som driver AI-agendan bör upprepa för sig själva vad du skrev här.

adenovirus

du försummar inlärning utan tillsyn och många andra tekniker

Corona Coronata

Vi kommer förmodligen att uppleva "V'Ger" -ögonblicket där det kräver att träffa skaparen (NASA) eller ...

Corona Coronata

Jag kan inte redigera mina kommentarer eftersom knappen "Redigera" knappast syns och textfältet inte syns alls.

[...] Hämtad från Technocracy News & Trends [...]

Petrichor

Den avlidne dr Stephen Hawkins förutsåg och varnade med eftertryck för att vi inte skulle kunna kontrollera AI.

Nancy

Koppla bara ur den.

James Reinhart

AI är digital och inte analog. Analog är oändlig och IMHO, är evig trots alla fysiska former av teori som inte kan förstå nyanserna i livet. Det finns dock vissa som tror att det (JAG ÄR) inte har någon början, är och ingen ände. Man kommer att hitta det grekiska tillägget till detta koncept av Moses i Septuaginta, en omskrivning av AD. Föreställ dig oändliga småsten av oändlig storlek i oändliga vatten. En existens av ett samvete som ger oss livets andedräkt, förmågan att undra och uttrycka omtanke och kärlek, inte bara för andraLäs mer "

adenovirus

vad som hände med Isaac Asimovs robotlagar

adenovirus

Detta påminner mig om en gammal sci fi en film där astronauterna var tvungna att prata en smart bomb ur exploderande kommer att tänka på. De resonerade med bomben men det slutade explodera ändå eftersom det var dess öde.