1

Dödligt: ​​Första autonoma AI-sökning och förstör drone-svärm någonsin utplacerad i strid

Det globala vapenloppet för autonoma mördardronor pågår officiellt med den första användningen av sådana vapensystem av Israel. Till och med för tre år sedan försäkrade världsregeringar oss dumt att sådan teknik skulle vara helt utanför gränserna. Vi visste bättre och varnade för att det snart skulle komma. Den dagen har nu kommit. ⁃ TN Editor

Israel använde den första dronsvärmen som utplacerades i strid för att jaga Hamas-terrorister, rapporterades det.

Drönarna har ingen mänsklig input utan istället länkar ihop genom att använda artificiell intelligens för att söka upp sina mål. -

Hamas började skjuta raketer mot Israel efter protester från palestinier i maj, vilket ledde till en 11 dagars konflikt där 256 människor dödades i Gaza och 13 i Israel.

Under våldet säger den israeliska militären att mer än 4,300 XNUMX raketer avfyrades från Gaza mot städer.

Israel tog tillbaka med luftangrepp och artilleri men utplacerade inte markstyrkor i sin kamp med terroristerna.

Det visade sig nu att israeliska styrkor använde drönarsvärmar för att rikta sig mot Hamas, Nya forskare rapporterar.

Arthur Holland från FN: s institut för nedrustningsforskning sa att "om de bekräftas är de verkligen ett hack i den ökande tillväxten av autonomi och maskin-till-maskin-samarbete i krigföring".

Droner har tidigare instruerats av en enda operatör som "flyger" flygplanet från en fjärrbas.

Men de senaste åren har militärer arbetat med att utveckla artificiell intelligens som gör det möjligt för drönare att arbeta tillsammans utan behov av en operatör.

den grundläggande idén med en drönarsvärm är att dess maskiner kan fatta beslut varandra.

Svärmen fortsätter sitt uppdrag, även om det tappar några drönare under sitt uppdrag.

Maskininlärningssystemet matas med data från satelliter, andra spaningsdronor och flygfordon samt intelligens som samlats in av markenheter.

Enhet 8200 i Israel Defense Forces Intelligence Corps har utvecklat algoritmer som använder geografiska, signal- och mänskliga intelligensdata för att identifiera dessa strategiska strejkpunkter.

Läs hela historien här ...




Canon i Kina: AI-kameror släpper bara leende arbetare inuti

Technocracy definierade sig själv som ”socialteknikens vetenskap” och Canon i Kina passar perfekt genom att kräva att anställda ler för att få tillgång till kontor och konferensrum. Denna artikel kallar denna manipulationstrend ordentligt för ”modern Taylorism”. ⁃ TN Editor

Teknikföretaget Canon har kommit fram till ett rent dystopiskt sätt att ta itu med problemet med arbetsmoral: det har installerat kameror med AI-aktiverad "leendeigenkänning" -teknologi på kontoren för det kinesiska dotterbolaget Canon Information Technology. Kamerorna låter bara leende arbetare komma in i rum eller boka möten, vilket säkerställer att varje anställd är definitivt 100 procent nöjd hela tiden.

Denna deprimerande berättelse lyfts fram i en rapport från Financial Times om hur kinesiska företag övervakar anställda i en oroande grad med hjälp av AI och algoritmer. Företagen övervakar vilka program anställda använder på sina datorer för att mäta sin produktivitet. använda CCTV-kameror för att mäta hur lång tid de tar på sin lunchpaus; och till och med spåra deras rörelser utanför kontoret med hjälp av mobilappar.

Som King's College London akademiker Nick Srnicek berättade för FT: ”Arbetare ersätts inte av algoritmer och artificiell intelligens. Istället förstärks ledningen av dessa tekniker [...] Teknik ökar takten för människor som arbetar med maskiner istället för tvärtom, precis som det som hände under den industriella revolutionen på 18-talet. ”

Canon Information Technology tillkännagav faktiskt sina "leendeigenkänningskameror" förra året som en del av en uppsättning verktyg för arbetsplatshantering, men tekniken verkar inte ha fått mycket uppmärksamhet. Faktum är att det passerade under radaren är en bra illustration av hur vanliga övervakningsverktyg som detta blir - och inte bara i Kina.

Även om läsare i väst ibland har en tendens att avvisa den typ av övervakning som beskrivs av FT som främmande fenomen är länder som USA och Storbritannien lika skyldiga. Amazon är kanske det främsta exemplet på denna dynamik: det är känt för att pressa varje uns ansträngning från sina lagerarbetare på bekostnad av deras hälsa, och till och med rangordna sin produktivitet med hjälp av algoritmer tidigare skjuter dem längst ner på vågen.

Läs hela historien här ...




Nästa upp för AI: Lär dig hur du läser dina läppar

Teknokrater uppfinner för att de kan, inte för att det finns ett visat behov. Läppläsning kommer att ta samma bana som ansiktsigenkänning eftersom den pressas till tjänst för övervakningssyfte. Att läsa läppar på avstånd skulle undanröja behovet av mikrofoner. ⁃ TN Editor

En patient sitter i en sjukhussäng, ett bandage som täcker hans hals med en liten öppning för trakeostomiröret som förser honom med syre.

På grund av sin nyligen genomförda operation presenterade mannen det här marknadsföringsvideo kan inte stämma. Så en läkare håller upp en smartphone och registrerar patienten när han munar en kort fras. En app som heter SRAVI analyserar läpprörelserna och återger sin tolkning på cirka två sekunder - ”Jag behöver suga.”

Det verkar som en enkel interaktion, och i vissa avseenden är SRAVI (App för taligenkänning för rösthämmade) fortfarande ganska enkel. Det kan bara känna igen några dussin fraser, och det gör det med cirka 90 procents noggrannhet. Men appen, som är skapad av den irländska startupen Liopa, representerar ett massivt genombrott inom området för visuell taligenkänning (VSR), vilket innebär att AI tränas för att läsa läppar utan någon ljudingång. Det kommer troligen att vara den första läppläsande AI-appen som är tillgänglig för offentligt köp.

Forskare har arbetat i årtionden för att lära datorer att läppläsa, men det har visat sig vara en utmanande uppgift även med framstegen inom djupinlärningssystem som har hjälpt till att knäcka andra landmärke problem. Forskningen har drivits av ett brett utbud av möjliga kommersiella applikationer - från övervakningsverktyg till tysta kommunikationsappar och förbättrad prestanda för virtuell assistent.

Liopa håller på att certifiera SRAVI som medicinsk utrustning av klass I i Europa, och företaget hoppas kunna slutföra certifieringen senast i augusti, vilket gör det möjligt att börja sälja till vårdgivare.

Medan deras avsikter för tekniken inte är klara, arbetar många av tekniska jättar också med läppläsning av AI. Forskare som är anslutna till eller arbetar direkt för Google, Huawei, Samsung och Sony forskar alla på VSR-system och verkar göra snabba framsteg, enligt intervjuer och Motherboards granskning av nyligen publicerade forsknings- och patentansökningar. Företagen svarade antingen inte eller avvisade intervjuer för den här berättelsen.

Då läppläsande AI framträder som en livskraftig kommersiell produkt, är tekniker och vakthundar för integritet alltmer oroliga för hur den utvecklas och hur den en dag kan användas. SRAVI är till exempel inte den enda tillämpningen av läppläsande AI som Liopa arbetar med. Företaget är också i fas två av ett projekt med en brittisk försvarsforskningsbyrå för att utveckla ett verktyg som gör det möjligt för brottsbekämpande myndigheter att söka igenom tysta CCTV-bilder och identifiera när människor säger vissa nyckelord.

Övervakningsföretag Motorola Solutions har patent på ett läppavläsningssystem utformad för att hjälpa polisen. Skylark Labs, en start vars grundare har anknytning till US Defense Advanced Research Projects Agency (DARPA), berättade för moderkortet att dess läppavläsningssystem för närvarande används i privata hem och ett statligt styrt kraftföretag i Indien för att upptäcka foul och kränkande språk. .

"Detta är ett av dessa områden, ur mitt perspektiv, vilket är ett bra exempel på" bara för att vi kan göra det, betyder inte att vi borde ", säger Fraser Sampson, Storbritanniens kommissionär för biometri och övervakningskamera, till Motherboard. ”Min främsta oro inom detta område skulle inte nödvändigtvis vara vad tekniken kunde göra och vad den inte kunde göra, det skulle vara den kyliga effekten av att människor tror att den kan göra vad den säger. Om det då avskräckt dem från att tala offentligt, är vi i ett mycket större område än helt enkelt integritet, och integriteten är tillräckligt stor. ”

Framväxten av läppläsande AI påminner om ansiktsigenkänningsteknik, som var ett nischområde för forskning i årtionden innan det tyst men snabbt kommersialiserades som ett övervakningsverktyg som började i början av 2000-talet.

Läs hela historien här ...




Regeringsdata kommer att hälla i privat AI-forskning i stor skala

Massiva förråd med personuppgifter om amerikanska medborgare har öppnats som så många burkar sardiner som ska serveras till AI-samhället för maskininlärningsändamål. Initiativet på 250 miljarder dollar är ett stormfall för teknokrater och ett steg närmare vetenskaplig diktatur för amerikaner. ⁃ TN Editor

Biden-administrationen inledde ett initiativ på torsdag som syftar till att göra mer myndighetsdata tillgängliga för artificiell intelligensforskare, en del av en bredare insats för att hålla USA i framkant av den viktiga nya tekniken.

National Artificial Intelligence Research Resource Task Force, en grupp på 12 medlemmar från den akademiska världen, regeringen och industrin ledd av tjänstemän från Vita husets kontor för vetenskap och teknikpolitik och National Science Foundation, kommer att utarbeta en strategi för potentiellt att ge forskare tillgång till lagrar data om amerikaner, från demografi till hälsa och körvanor.

De skulle också se till att tillhandahålla datorkraft för att analysera data, med målet att ge tillgång till forskare över hela landet.

"Det här är ett ögonblick som kallar oss att stärka vår hastighet och skala" när det gäller framsteg inom AI-teknik, säger National Science Foundation-chef Sethuraman Panchanathan i en intervju. "Det kallar oss också att se till att innovation finns överallt."

Arbetsgruppen, som kongressen beställde i National Artificial Intelligence Initiative Act of 2020, är ​​en del av ett försök över hela regeringen för att säkerställa att USA förblir i spetsen för tekniska framsteg.

Senaten godkände den här veckan en tvåpartisräkning för att investera 250 miljarder dollar inom teknikforskning och utveckling, och kammaren överväger liknande lagstiftning. Under Trump-administrationen lanserade regeringen nya AI-forskningsinstitut och diskuterade tillverkning mer tillgänglig statsinformation till forskare.

Att utveckla artificiell intelligens beror på åtkomst till stora datalagrar för att driva maskininlärning. Det finns ett växande samförstånd i Washington och näringslivet om Kina, Ryssland och andra länder hotar att överträffa USA inom artificiell intelligens, delvis på grund av deras ansträngningar att knacka på data.

Läs hela historien här ...




Washington County först i nationen att förbjuda ansiktsigenkänningsprogramvara

King County Councilmedlemmar som sponsrade resolutionen slog spiken på huvudet: Användningen av denna teknik är invasiv, påträngande, rasförspänd och full av risker för grundläggande medborgerliga friheter. ” Bristerna i teknik för ansiktsigenkänning ses dock som lösbara med mer teknik.

Denna berättelse kommer inte att ses upprepas i nationella medier för att inte andra civila enheter (län, städer) ska vakna upp och slå ner hammaren på teknokratens övertagande av Amerika. ⁃ TN Editor

King County blev det första länet i landet som förbjöd regeringen att använda program för ansiktsigenkänning.

Stödjare applåderar det nyligen godkända förbudet mot program för ansiktsigenkänning. De sa att detta är en stor vinst för medborgerliga rättigheter och integritet.

De som är oroliga för ansiktsigenkänningsprogramvara säger att svarta, asiater och latinos ofta missidentifieras av programvaran.

King County Councilmedlem Jeanne Kohl-Wells sa att hennes föreslagna lagstiftning, som rådet enhälligt godkände på tisdag, kommer att skydda medborgerliga rättigheter.

"Vi kan vara ledare och visa att vi kan gå försiktigt med utvecklingsteknik som kan ha orsakat skada, som redan har orsakat skada", säger Kohl-Wells.

"Användningen av denna teknik är invasiv, påträngande, rasfördelad och full av risker för grundläggande medborgerliga friheter", säger King County Councilmedlem Dave Upthegrove i ett släppt uttalande. "Jag är stolt över att sponsra detta förbud som stöds av lokala samhällsgrupper, offentliga försvarare, invandrars rättighetsförespråkare, rasrättsliga organisationer, arbetstagares rättighetsgrupper, integritetsförespråkare och teknologer."

Lagstiftningen förbjuder användning av programvaran av länsstyrelser och administrativa kontor, inklusive av King County Sheriff's Office.

Ett antal grupper - inklusive ACLU - applåderar King County Council i dag att förbjuda den kraftfulla tekniken.

"Teknik för ansiktsigenkänning är fortfarande otroligt partisk och skapar absolut skada i den verkliga världen", sa Jennifer Lee med ACLU Washington. ”Vi känner nu till tre svarta män som felaktigt har arresterats och fängslats på grund av partisk ansiktsigenkänningsteknik. Så detta kraftfulla övervakningsverktyg förvärrar oundvikligen redan raspolitisk polisarbete. ”

”Genomförandet av King County Facial Recognition Ordinance är ett stort steg mot att genomföra rättvisa begränsningar av övervakningstekniken. Ansiktsigenkänning används konsekvent för att rikta muslimer runt om i världen, liksom för att dämpa våra första ändringsrättigheter till yttrandefrihet, religion och förening. Vi applåderar King County för att vara det första flerstadsregionen i landet som har vidtagit sådana nödvändiga åtgärder, och vi uppmanar resten av vår stat och vårt land att följa efter. ”

Maru Mora Villalpando är med Latino Advocacy. Hon gick med i en grupp av grupper för att få King County Council att rösta på förbudet.

”Vi smsade, vi mailade, vi twittrade. Vi var verkligen, verkligen involverade och vi är nöjda med resultaten, säger Villalpando. ”Det här är fantastiska nyheter. Jag är väldigt glad."

Som invandrare har vi blivit utsatta för invandring som färgade människor. Vi är redan rädda för den makt som ICE och polisen har. Och att ge dem den här typen av teknik gör oss mer rädda. Så vi tror att länet gjorde rätt. De lyssnade på oss, till samhället. ”

"Det är bra att King County har tagit ett steg för att trycka på pausknappen på dessa tekniker", säger Marcos Martinez med Casa Latina. ”Vi vet att dessa ansiktsigenkänningstekniker är opålitliga och de är särskilt skadliga, särskilt. till samhällen med färg. ”

Ingen myndighet i King County använde programvaran för ansiktsigenkänning.

King County Sheriff's Department använder för närvarande inte det, och har heller aldrig använt det tidigare, enligt en talesman. Seattle Police Department använder inte heller programvaran för övervakningsteknik. Båda myndigheterna sa att det nya förbudet inte kommer att påverka deras verksamhet.

"Sheriffkontorets verksamhet kommer inte att hindras av den föreslagna lagstiftningen om ansiktsigenkänningstekniker", säger Sgt. Tim Meyer. "Denna lagstiftning återspeglar värdena i de samhällen vi tjänar."

Läs hela historien här ...




Hjärn-dator-gränssnitt: Oroa dig inte, det är bara ett "spel"

Föräldrar, se upp. Virtual reality-headset med ett hjärn-dator-gränssnitt kan permanent konditionera dina barns hjärnor för att inte kunna skilja mellan verklighet och fantasi. Teknokrater uppfinner för att de kan, inte för att det finns ett krav. ⁃ TN Editor

"Där det blir konstigt är när vem du är kan redigeras genom en BCI." ~ Gabe Newell

Ventil, företaget bakom Life and Counter-Strike, har just meddelat att videospeljätten inleder mänskligheten till en Brave New World. Hur så? Genom att bara inkludera ny teknik som kallas hjärn-dator-gränssnitt i sina spel.

Chefen för Ventil, Gabe Newell, har uttalat att framtiden för videospel kommer att involvera "hjärn-dator-gränssnitt." Newell tillade att BCI snart skulle skapa överlägsna upplevelser än dem vi för närvarande upplever genom våra ögon och öron. 

Newell sa att han föreställer sig att spelanordningarna upptäcker en spelares känslor och sedan justerar inställningarna för att ändra spelarens humör. Till exempel att öka svårighetsgraden när spelaren tröttnar ut.

Valve utvecklar för närvarande sina egna BCI och arbetar med "modifierade VR-huvudremmar" som utvecklare kan använda för att experimentera med signaler som kommer från hjärnan. "Om du är en mjukvaruutvecklare 2022 som inte har någon av dessa i ditt testlaboratorium, gör du ett dumt misstag", säger Newell.

Valve arbetar med OpenBCI headset. OpenBCI presenterade en headsetdesign redan i november som den kallar galea. Den är utformad för att fungera tillsammans med VR-headset som Valves Index.

"Vi arbetar på ett open source-projekt så att alla kan ha högupplösta [hjärnsignal] -tekniker inbyggda i headset, i en massa olika modaliteter," tillade Newell.

"Programvaruutvecklare för interaktiv upplevelse (er) - du kommer absolut att använda en av dessa modifierade VR-huvudremmar för att göra det rutinmässigt - helt enkelt för att det finns för mycket användbar data", säger Newell.

De data som samlats in av huvudremmarna skulle bestå av avläsningar från spelarnas hjärnor och kroppar. Uppgifterna skulle i huvudsak berätta om spelaren är upphetsad, förvånad, uttråkad, ledsen, rädd eller road och andra känslor. Den modifierade huvudremmen kommer sedan att använda informationen för att förbättra "nedsänkning och anpassa vad som händer under spel."

Newell diskuterade också att ta hjärnläsningstekniken ett steg längre och skapa en situation för att skicka signaler till människors sinnen. (Som att ändra känslor och leverera bättre bilder under spel.)

”Du är van att uppleva världen genom ögonen”, sade Newell, “men ögonen skapades av den här lågkostnadsbudgivaren som inte brydde sig om felnivåer och RMA, och om den gick sönder fanns det inget sätt att reparera allt effektivt, som helt meningsfullt ur ett evolutionärt perspektiv, men som inte alls reflekterar konsumenternas preferenser. ”

”Så den visuella upplevelsen, den visuella trohet som vi kan skapa - den verkliga världen kommer att sluta vara det mått som vi tillämpar för bästa möjliga visuella trohet.

Vanligtvis accepterar din genomsnittliga människa sina känslor för att vara hur de verkligen känner. Newell hävdar att BCI kommer att möjliggöra en redigering av dessa känslor digitalt.

"En av de tidiga applikationer som jag förväntar mig kommer att vara förbättrad sömn - sömn blir en app som du kör där du säger," Åh, jag behöver så mycket sömn, jag behöver så mycket REM, "sa han.

Newell hävdar också att en annan fördel kan vara att minska eller helt avlägsna oönskade känslor eller hjärntillstånd.

Newell och Valve arbetar på något utöver bara förbättringen av spelupplevelsen. Det finns nu en betydande avblodning i forskningen som utförts av Newells team och protes- och neurovetenskapssektorerna.

Valve handlar forskning för expertis och bidrar till projekt som utvecklar syntetiska kroppsdelar.

"Det här är vad vi bidrar till just detta forskningsprojekt," sa han, "och på grund av detta får vi tillgång till ledare inom neurovetenskapliga området som lär oss mycket om neurovetenskapssidan."

Newell nämnde kort några potentiella negativ till tekniken. Till exempel sa han hur BCI kan få människor att uppleva fysisk smärta, till och med smärta bortom deras fysiska kropp.

"Du kan få folk att tro att de [är] skadade genom att skada verktyget, vilket är ett komplicerat ämne i och för sig," sa han.

Från TVNZ artikeln:

Spelutvecklare kan utnyttja den funktionen för att få en spelare att känna smärtan av karaktären de spelar som när de skadas - kanske i mindre grad.

Liksom alla andra former av teknik säger Newell att det finns en viss tillit till att använda den och att inte alla kommer att känna sig bekväma med att ansluta hjärnan till en dator.

Han säger att ingen kommer att tvingas göra något de inte vill göra, och att människor sannolikt kommer att följa andra om de har goda erfarenheter och liknar BCI-teknik med mobiltelefoner.

”Människor kommer att bestämma själva om de vill göra det. Ingen får folk att använda en telefon, säger Newell.

”Jag säger inte att alla kommer att älska och insistera på att de har ett hjärn-dator-gränssnitt. Jag säger bara att varje person kommer att bestämma själv om det finns en intressant kombination av funktion, funktionalitet och pris. ”

Men Newell varnade för att BCI kommer med ytterligare en betydande risk. Han säger, ”Ingen vill säga," Kommer du ihåg Bob? Kommer du ihåg när Bob blev hackad av den ryska skadliga programvaran? Ja, det suger. Springer han fortfarande naken genom skogarna? '”

Sanningen är att vi kommer att fortsätta bli tillsagda att ignorera konsekvenserna för denna typ av teknik och den riktning vi går in i. Eftersom de naturligtvis utvecklar proteser, och detta är ett framsteg inom vetenskaplig upptäckt. Ändå tar ett steg framåt med en agenda och en plan som skapats för länge sedan oss bara så mycket närmare att förlora vår förmåga att komma ihåg.

Läs hela historien här ...




Microsofts president hotar att Orwells 1984 kan hända 2024

Microsofts mästare Technocrat och president Brad Smith ger uttryck för oro över ankomsten av Orwells Nineteen Eighty-Four men antyder inte ens Microsofts (och Bill Gates) orsakande roll för att åstadkomma det i första hand. Tidigare Googles VD Eric Schmidt är av samma sinne. ⁃ TN Editor

Livet som avbildat i George Orwells 1984 "skulle kunna ske 2024" om lagstiftare inte skyddar allmänheten mot artificiell intelligens, har Microsofts president varnat.

I tal med BBC: s Panorama sa Brad Smith att det kommer att vara "svårt att komma ikapp" med den snabbt framåtriktade tekniken.

Programmet utforskar Kinas ökande användning av AI för att övervaka sina medborgare.

Kritiker fruktar att statens dominans i området kan hota demokratin.

"Om vi ​​inte antar de lagar som kommer att skydda allmänheten i framtiden, kommer vi att hitta tekniken som tävlar framåt, och det kommer att bli mycket svårt att komma ikapp", säger Smith.

”Jag påminner ständigt om George Orwells lektioner i sin bok 1984. Du vet den grundläggande historien ... handlade om en regering som kunde se allt som alla gjorde och höra allt som alla sa hela tiden.

"Tja, det skedde inte 1984, men om vi inte är försiktiga kan det ske 2024."

Kinas AI

I vissa delar av världen hämtar verkligheten alltmer den synen på science fiction, tillade han.

Kinas ambition är att bli den världsledande inom AI 2030, och många anser att dess kapacitet ligger långt utanför EU.

  • 54% av världens 770 miljoner CCTV-kameror finns i Kina, enligt forskning från Comparitech.

Eric Schmidt, tidigare Googles verkställande direktör som nu är ordförande för US National Security Commission on Artificial Intelligence, har varnat för att det är absolut nödvändigt att slå Kina i AI.

”Vi är i en geopolitisk strategisk konflikt med Kina,” sa han. “Sättet att vinna är att samla våra resurser tillsammans för att ha nationella och globala strategier för demokratierna att vinna i AI.

"Om vi ​​inte gör det kommer vi att titta på en framtid där andra värden kommer att införas på oss."

Dr Lan Xue, som ger råd till den kinesiska regeringen, sa att ansiktsigenkänning kan visa sig vara ”oerhört hjälpsamt” när det gäller att identifiera människor i masssamlingar om det skulle inträffa en ”allvarlig olycka”.

"Kina har verkligen gjort stora framsteg inom teknikutveckling," tillade Dr Xue. "[USA] känner att detta är ett hot ... och de ville starta detta kalla krig om teknik."

Även om Kina har ”enorma skillnader” i sina värderingar och politik, är landets “vision av världen inte konvergens utan samexistens”, säger dr Keyu Jin, docent vid London School of Economics.

"Kina försöker inte exportera sina värden", tillade hon.

Project Maven

Dr Schmidt blev rådgivare till Pentagon 2016, medan han behöll en position som verkställande ordförande för Alphabet, Googles moderbolag.

Dr Eric Schmidt är ordförande för US National Security Commission on Artificial Intelligence.

Under de följande åren startade Google ett avtal med Pentagon, vilket gjorde det möjligt för den att använda några av sina bildigenkänningstekniker som en del av ett militärt projekt.

Project Maven använde maskininlärning för att urskilja människor och objekt i drönervideor.

"Maven vid den tiden var ... ett sätt att ersätta mänskliga ögon med automatisk syn för dronefilmen som användes i de olika arabiska konflikterna," sa Dr Schmidt. "Jag såg användningen av den tekniken som ett positivt nät för nationell säkerhet och ett bra partnerskap för Google."

Läs hela historien här ...




Amazon AI Van-kameror gnistor 'Dystopia Prime' oro

Det betecknas som "den största expansionen av företagsövervakning i mänsklig historia." Som en grundligt teknokratisk organisation, om Amazons skulle härska över samhället, skulle den likna Orwells dystopiska 1984. ⁃ TN Editor

Amazon.com Inc: s tillkännagivande den här veckan att det skulle rulla ut AI-drivna kameror i sina märkesvarubilar för säkerhet har dragit kritik från sekretessförespråkare och arbetare som berörs av att utsättas för övervakning på jobbet.

Världens största e-handelsföretag sa att kamerorna, som är utvecklade av transportteknikföretaget Netradyne, skulle förbättra säkerheten för både förare och samhällen där de levererar.

Men anställda som Henry Search, en 22-årig leveransförare i staten Washington, sa att de såg kameror som fångade sin arbetsdag som en "invasion av integritet".

”Vi är här och arbetar hela dagen och försöker göra vårt bästa redan”, sa Search till Thomson Reuters Foundation i en telefonintervju. "Kamerorna är bara ett annat sätt att kontrollera oss."

Sekretessförespråkare varnade för att utrusta Amazons flotta med cirka 30,000 XNUMX leveransfordon med AI-kameror kan skapa ett farligt prejudikat för integritet.

"Detta verkar vara den största expansionen av företagsövervakning i mänsklig historia", säger Evan Greer, biträdande chef för tech non-profit Fight for the Future. "Om detta blir normen talar vi om utrotning av mänsklig integritet."

Amazon har tidigare granskats för olyckor med leveransförare.

En taleskvinna från företaget sa i e-postkommentarer att "den här tekniken kommer att ge förare varningar i realtid för att hjälpa dem att hålla sig säkra när de är på väg."

I en instruktionsvideo om kamerorna sade Amazons seniorchef för sista milssäkerheten Karolina Haraldsdottir att kameror kommer att spela in 100% av tiden, men är inte inställda på liveström inifrån skåpbilar.

De kommer att upptäcka osäker körning, inklusive när förare verkar distraherade eller dåsiga, förklarade hon och tillade att filmen kunde användas av företagets säkerhetsteam eller vid utredningar av stöld eller olyckor.

Men Greer sa att säkerhetsfrågor kunde hanteras genom att sakta ner arbetet. "Det första de (Amazon) borde göra för att förbättra säkerheten skulle inte ha sådana upprörande leveranskvoter som tvingar människor in i osäkra förhållanden", sa hon.

En annan förare i Massachusetts, som frågade att inte använda sitt namn för att skydda sin identitet, sa att han skulle välkomna en kamera som visades utanför sin skåpbil för att registrera bevis för eventuella olyckor.

"Men en kamera i ansiktet hela tiden, jag ser inte hur det håller mig säkert - det är för mycket", sa han i en telefonintervju och noterade att förare redan använder en app som heter Mentor som spårar platsen och rörelserna för fordonet.

Haraldsdottir sa att "endast en begränsad uppsättning auktoriserade personer" skulle få tillgång till förarbilder från kamerorna.

Men vissa förare är oroliga för att Amazon kan sälja eller dela filmen med tredje part eller använda kamerorna för att övervaka deras prestanda på jobbet.

"De inspelade filmerna kan delas med en framtida möjlig arbetsgivare som sedan kan besluta att avvisa dig innan du ens känner dig", sa en förare från Michigan som bad att inte ge sitt fulla namn.

Även om han tycker om att göra leveranser för Amazon sa han att han för närvarande letar efter annat arbete för att han inte vill bli utsatt för övervakning.

Läs hela historien här ...




IARPA utvecklar AI för att förutsäga framtiden

AI-domare

IARPA, som finansieras av skattebetalarnas pengar som sin kusin DARPA, har för avsikt att kontinuerligt samla all information om alla i realtid för att låta AI förutsäga framtida incidenter och händelser. Välkommen till "förväntad intelligens". IARPA underlättar den snabba ökningen av Technocracy, alias vetenskaplig diktatur. ⁃ TN Editor

När det gäller hemliga regeringsprojekt går målen för IARPA kan vara den mest riskfyllda och mest långtgående. Med sitt uppdrag att främja ”hög risk, hög avkastning”, Försöker denna forskningsgrupp i USA: s underrättelsetjänst bokstavligen att förutsäga framtiden. Den här organisationen är bemannad av spioner och doktorer och syftar till att ge beslutsfattare verkliga, korrekta förutsägelser av geopolitiska händelser, med hjälp av artificiell intelligens och mänskliga ”prognosmakare”.

IARPA, som står för Intelligence Advanced Research Projects Activity, grundades 2006 som en del av kontoret för direktören för National Intelligence. Några av de projekt som den har finansierat fokuserade på framsteg inom kvantbearbetning, kryogen databehandling, ansiktsigenkänning, översättare för universella språk och andra initiativ som passar bra i en Hollywood-actionfilm. Men kanske dess huvudsakliga mål är att producera "förväntande intelligens." Det är trots allt en spionbyrå.

I den nationella säkerhetsintresset vill IARPA identifiera stora världshändelser innan de inträffar och letar efter terrorister, hackare eller någon uppfattad fiende i USA. Vill du inte stoppa ett brott innan det händer?

Naturligtvis är det när vi kommer in i knepigt politiskt och sci-fi-territorium. Mycket av IARPA: s forskning är faktiskt ute i det fria och använder allmänheten och experter på avancerad teknik. Den är tillgänglig för "öppna uppmaningar", prognosticeringsturneringar och har prisutmaningar för allmänheten. Du kan ganska mycket skicka in din idé just nu. Men vad som händer med FoU när det lämnar laboratoriet är naturligtvis bara för NSA och CIA att veta.

Nationella säkerhetsmyndighetens expert James Bamford skrev att byrån i slutändan vill skapa ett system där enorma mängder data om människors liv skulle brytas i realtid i syfte att förhindra handlingar som är skadliga för nationen. I hans artikel för Pittsburgh Post-Gazette, Skrev Bamford att IARPA: s mål är att skapa mycket kraftfulla automatiserade datorsystem, hanterade genom artificiell intelligens, som skulle kunna "katalogisera alla människors liv överallt, 24/7." Sådana program skulle kunna få omedelbar åtkomst till dataströmmar som tillhör medborgarna, oavsett från sociala medier eller någon annanstans. Som Bamford skriver, att kunna analysera “varje Facebook-inlägg, tweet och YouTube-video; varje avgiftsnummer för bås varje GPS-nedladdning, webbsökning och nyhetsflöde; varje gatukamera video; varje restaurangbokning på Open Table - eliminerar till stor del överraskning från intelligensekvationen. ”

Naturligtvis skulle man misstänka att mycket av detta redan händer. IARPA Kvicksilverprogram, koncentrerar sig till exempel på datamining miljoner av utländska privata kommunikationer som samlas in av National Security Agency. Även om det säkert kan hävdas att ett sådant program är en nationell säkerhetsbehov, arbetar man för att upptäcka terrorister och element som kan leda till social oro, men potentialen för missbruk och intrång i integritetsrättigheter har gjort observatörer varnade.

Ett fascinerande projekt som nyligen finansierats av IARPA kallas SALVIA, som står för Synergistisk förväntan på geopolitiska händelser. Som du kan förvänta dig av en sådan hög titel tittar forskarna som är involverade i denna strävan att förutsäga framtiden. Detta projekt syftar till att använda icke-experter - människor som skulle använda AI-maskininlärning för att göra kvalificerade uttalanden om vad som skulle hända.

Ledd av Aram Galstyan, chef för artificiell intelligens USC Viterbi Information Sciences Institute (ISI), har projektet lyckats med konkreta förutsägelser, som att veta när Nordkorea skulle lansera sina missiltester. SAGE fungerar genom att använda stora uppsättningar av mänskliga icke-expertförutsägare, slå samman sina krafter genom att arbeta tillsammans, vilket gör dem "mer exakta och snabbare än en enda expert på människor", förklarar en USC pressmeddelande. Informationen som dessa människor eller ”prognosmakare” använder för att förutsäga förutsättningar samlas emellertid in via olika maskininlärningstekniker.

Läs hela historien här ...




Forskare: Inget sätt att kontrollera superintelligent AI

Vissa forskare är nu oroliga över att en dag kommer med superintelligenta AI-program kommer att få ett automatiskt eget liv. Det finns redan AI-program som utför inlärda uppgifter utan att programmerarna förstår hur det kom till det tillståndet. ⁃ TN Editor

Från självkörande bilar till datorer som kan vinna spelshow, människor har en naturlig nyfikenhet och intresse för artificiell intelligens (AI). När forskare fortsätter att göra maskiner smartare och smartare, frågar vissa "vad händer när datorer blir för smarta för sitt eget bästa?" Från "The Matrix" till "The Terminator" har underhållningsindustrin redan börjat fundera på om framtida robotar en dag kommer att hota mänskligheten. Nu drar en ny studie slutsatsen att det kanske inte finns något sätt att stoppa uppkomsten av maskiner. Ett internationellt team säger att människor inte skulle kunna förhindra super artificiell intelligens från att göra vad de ville.

Forskare från Center for Humans and Machines vid Max Planck Institute har börjat föreställa sig hur en sådan maskin skulle se ut. Föreställ dig ett AI-program med en intelligens som är mycket överlägsen människor. Så mycket att det kunde lära sig själv utan ny programmering. Om den var ansluten till internet, säger forskare att AI skulle ha tillgång till all mänsklighetens data och till och med kunde ta kontroll över andra maskiner runt om i världen.

Studieförfattare frågar vad som skulle göra en sådan intelligens göra med all den makten? Skulle det fungera för att göra alla våra liv bättre? Skulle den ägna sin processorkraft till att lösa problem som klimatförändringar? Eller skulle maskinen se ut ta över livet av sina mänskliga grannar?

Kontrollerar det okontrollerbara? Farorna med super artificiell intelligens

Både dataprogrammerare och filosofer har studerat om det finns ett sätt att hindra en superintelligent AI från att potentiellt slå på sina mänskliga tillverkare; säkerställa att framtida datorer inte kan skada sina ägare. Den nya studien avslöjar tyvärr att det verkar vara praktiskt taget omöjligt att hålla en superintelligent AI i linje.

”En superintelligent maskin som styr världen låter som science fiction. Men det finns redan maskiner som utför vissa viktiga uppgifter självständigt utan att programmerare förstår hur de lärde sig det. Frågan uppstår därför om detta någon gång kan bli okontrollerbar och farlig för mänskligheten ”, säger studieförfattare Manuel Cebrian, ledare för Digital Mobilization Group vid Center for Humans and Machines, i en universitetsläpp.

Det internationella laget tittade på två olika sätt att kontrollera artificiell intelligens. Den första dämpade superintelligensens kraft genom att lägga den på väggen och hålla den från att ansluta till internet. Det kunde inte heller anslutas till andra tekniska enheter i omvärlden. Problemet med denna plan är ganska uppenbart; en sådan dator skulle inte kunna göra mycket av någonting för att faktiskt hjälpa människor.

Att vara trevlig mot människor beräknar inte

Det andra alternativet fokuserade på att skapa en algoritm som skulle ge superdatorn etiska principer. Detta skulle förhoppningsvis tvinga AI att överväga mänsklighetens bästa.

Studien skapade en teoretisk inneslutningsalgoritm som skulle hindra AI från att skada människor under alla omständigheter. I simuleringar skulle AI sluta fungera om forskare ansåg att dess handlingar var skadliga. Trots att AI hålls ifrån uppnå världsherraväldesäger studieförfattarna att detta bara inte skulle fungera i den verkliga världen.

Läs hela historien här ...