Apple börjar skanna alla personliga foton och bilder som laddats upp till iCloud

Vänligen dela denna berättelse!
Apple tar nu rollen som polis när det börjar skanna alla dina foton som laddats upp till sin iCloud -tjänst. Den första utvinningsvågen är bilder som representerar barns exploatering, och de kommer att polisanmäla dig! Deras Technocrat AI -algoritmer kommer inte att offentliggöras. Du kan stänga av iCloud på dina Apply -enheter, men du förlorar möjligheten att synkronisera dem.

Ursäkten är att fånga övergrepp mot barn och sexuella rovdjur men i processen måste 100 procent av dina foton också skannas. När övervakningsdörren väl har öppnats kan alla andra typer av foton riktas för andra ändamål. Detta kan innefatta politiska protester, platsövervakningsinformation, psykologiska profiler, dvs vad du tar bilder av, etc. ⁃ TN Editor

Apple kommer att rapportera bilder av utnyttjande av barn som laddats upp till iCloud i USA till polisen, företaget sa på torsdag.

Det nya systemet kommer att upptäcka bilder som kallas barn sexuellt övergreppsmaterial (CSAM) med hjälp av en process som kallas hash, där bilder omvandlas till unika nummer som motsvarar den bilden.

Apple började testa systemet på torsdagen, men de flesta amerikanska iPhone -användare kommer inte att vara en del av det förrän en iOS 15 -uppdatering senare i år, sa Apple.

Detta innebär att Apple överensstämmer med andra molntjänster som redan skannar användarfiler, ofta med hashsystem, för innehåll som bryter mot deras användarvillkor, inklusive bilder för utnyttjande av barn.

Det representerar också ett test för Apple, som säger att dess system är mer privat för användare än tidigare metoder för att eliminera olagliga bilder av sexuella övergrepp mot barn, eftersom det använder sofistikerad kryptografi på både Apples servrar och användarenheter och inte skannar faktiska bilder, bara hascher.

Men många sekretesskänsliga användare återkallar fortfarande från programvara som meddelar regeringar om innehållet på en enhet eller i molnet, och kan reagera negativt på detta tillkännagivande, särskilt eftersom Apple har försvarat enhetskryptering högt och verkar i länder med färre talskydd än USA

Polismyndigheter runt om i världen har också pressat Apple att försvaga sin kryptering för iMessage och andra mjukvarutjänster som iCloud för att undersöka utnyttjande av barn eller terrorism. Torsdagens tillkännagivande är ett sätt för Apple att ta itu med några av dessa frågor utan att ge upp några av dess tekniska principer kring användares integritet.

Hur det fungerar

Innan en bild lagras i Apples iCloud matchar Apple bildens hash mot en databas med hash som tillhandahålls av National Center for Missing and Exploited Children (NCMEC). Den databasen kommer att distribueras i koden för iOS som börjar med en uppdatering till iOS 15. Matchningsprocessen görs på användarens iPhone, inte i molnet, sa Apple.

Om Apple sedan upptäcker ett visst antal kränkande filer i ett iCloud -konto, laddar systemet upp en fil som gör att Apple kan dekryptera och se bilderna på det kontot. En person kommer att granska bilderna manuellt för att bekräfta om det finns en matchning eller inte.

Apple kommer bara att kunna granska bilder som matchar innehåll som redan är känt och rapporterat till dessa databaser - det kommer inte att kunna upptäcka föräldrars bilder av sina barn i badet, till exempel, eftersom dessa bilder inte kommer att vara en del av NCMEC -databasen.

Om personen som gör den manuella granskningen drar slutsatsen att systemet inte har gjort något fel, kommer Apple att inaktivera användarens iCloud -konto och skicka en rapport till NCMEC eller meddela polisen om det behövs. Användare kan överklaga till Apple om de tror att deras konto flaggades av misstag, säger en Apple -representant.

Systemet fungerar bara på bilder som laddats upp till iCloud, som användare kan stänga av, sa Apple. Foton eller andra bilder på en enhet som inte har laddats upp till Apples servrar kommer inte att ingå i systemet.

Läs hela historien här ...

Om redaktören

Patrick Wood
Patrick Wood är en ledande och kritisk expert på hållbar utveckling, grön ekonomi, Agenda 21, 2030 Agenda och historisk teknokrati. Han är författare till Technocracy Rising: The Trojan Horse of Global Transformation (2015) och medförfattare av Trilaterals Over Washington, volymer I och II (1978-1980) med avdömda Antony C. Sutton.
Prenumerera
Meddela om
gäst

6 Kommentarer
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer
Jeremy lamm

Bra. Det är dags att människor vaknar till det som har hänt hela tiden. Den enda förändringen nu är att de börjar gå efter människor för att skapa prejudikat. Men om du tror att de inte vet vad som finns i din icloud eller på din telefon är du inte särskilt smart. De skapade saken. Och jag arbetade inom telekom, FYI. Jag kunde bara gå upp på nästa våning och se serverrummet. På den tiden ville FBI tydligen komma in där ... eftersom telefonerna var av en viss typ som förmodligen var mycket användbar för återförsäljare och inte avLäs mer "

Senast redigerad för 2 år sedan av Jeremy Lamb
Irene

Bästa svaret är att använda en tredjeparts molnlagring som inte har något intresse av dina privata angelägenheter. De finns där ute men du måste leta efter dem. Du kan kryptera ditt innehåll med dem. Vet bara att allt krypterat innehåll inte kan hämtas av företaget om du förlorar ditt lösenord.

Jeremy lamm

För att vara ärlig har du ingen aning om vilka dessa företag är. Jag har funnit, när jag forskat, att alla "integritets" -företag har ganska skumma medel. Och det är utan undantag.

[…] Läs mer: Apple börjar skanna alla personliga foton och bilder som laddats upp till iCloud [...]

biskopspenster

Bättre att inte ta några bilder på spädbarn eller barn som badar eller duschar .... du är en pervers om du gör det nu antar jag.

[…] Apple börjar skanna alla personliga foton och bilder som laddats upp till iCloud [...]