Facebook för att använda AI för att skanna dina tankar, "Förbättra användarsäkerhet"

Wikipedia Commons
Vänligen dela denna berättelse!
image_pdfimage_print
Teknokratinriktade sociala ingenjörer på Facebook tror att de nu kan skanna dina tankar genom att läsa dina inlägg och förklara när du behöver mentalvårdstjänster. Verkligen? Kommer de att rapportera dig automatiskt så att män i vita kappor dyker upp vid din lägenhetsdörr med en rak jacka? Denna tankegång är bortom farlig. ⁃ TN Editor

Detta är programvara för att rädda liv. Facebook: s nya "proaktiva detektering" artificiell intelligens-teknik kommer att söka igenom alla inlägg för mönster av självmordstankar och vid behov skicka psykiska resurser till användaren i riskzonen eller deras vänner, eller kontakta lokala förstasvar. Genom att använda AI för att flagga oroande inlägg till mänskliga moderatorer istället för att vänta på användarrapporter kan Facebook minska hur lång tid det tar att skicka hjälp.

Facebook tidigare testade med hjälp av AI för att upptäcka besvärliga inlägg och mer framträdande ytor om självmordsrapportering till vänner i USA Nu är Facebook skurar alla typer av innehåll runtom i världen med denna AI, utom i Europeiska unionen, där Allmän uppgiftsskyddsförordning sekretesslagar om profilering av användare baserat på känslig information komplicerar användningen av denna teknik.

Facebook kommer också att använda AI för att prioritera särskilt riskfyllda eller brådskande användarrapporter så att de snabbare adresseras av moderatorer och verktyg för att omedelbart ytbehandla lokala språkresurser och kontaktinformation för först-responder. Det är också att ägna fler moderatorer till självmordsförebyggande, utbilda dem för att hantera ärendena 24 / 7, och har nu lokala partners från 80 som Save.org, National Suicide Prevention Lifeline och Forefront för att ge resurser till användare i riskzonen och deras nätverk .

"Det handlar om att raka bort minuter i varje steg i processen, särskilt i Facebook Live", säger VP för produktledning Guy Rosen. Under den senaste testmånaden har Facebook initierat mer än 100 "hälsokontroller" med förstahandsresponser som besöker drabbade användare. "Det har förekommit fall där först svararen har anlänt och personen fortfarande sänder."

Idén med att Facebook proaktivt skanna innehållet i folks inlägg kan utlösa en viss dystopisk rädsla för hur tekniken annars skulle kunna tillämpas. Facebook hade inte svar på hur det skulle undvika att söka efter politisk oliktänkande eller småbrott, med Rosen bara säger "vi har en möjlighet att hjälpa här så vi kommer att investera i det." Det finns verkligen massiva fördelaktiga aspekter om teknik, men det är ett annat utrymme där vi har lite annat val än att hoppas att Facebook inte går för långt.

Facebooks VD Mark Zuckerberg berömde produktuppdateringen i ett inlägg idag, skriver det "I framtiden kommer AI att kunna förstå mer av de subtila nyanserna i språket och också kunna identifiera olika frågor utöver självmord, inklusive att snabbt upptäcka fler typer av mobbning och hat."

Tyvärr, efter TechCrunch frågade om det fanns ett sätt för användare att välja bort, att ha sina inlägg svarade en talesman för Facebook att användare inte kan välja bort. De noterade att funktionen är utformad för att förbättra användarsäkerheten och att supportresurser som erbjuds av Facebook snabbt kan avfärdas om en användare inte vill se dem.]

Facebook tränade AI genom att hitta mönster i de ord och bilder som använts i inlägg som manuellt har rapporterats för självmordsrisk tidigare. Det ser också efter kommentarer som "är du okej?" Och "Behöver du hjälp?"

Läs hela historien här ...

Prenumerera
Meddela om
gäst
0 Kommentarer
Inline feedbacks
Visa alla kommentarer