ChatGPT kan ha oåterkalleliga konsekvenser för lärande och beslutsfattande

Wikipedia Commons
Vänligen dela denna berättelse!
Det finns två aspekter av sinnet. En handlar om vad du tycker, och AI kan fylla din hjärna full av nonsens på ett ögonblick. Den andra aspekten är hur du tänker, eller hur du kommer fram till slutsatser, övertygelser, etc. ChatGPT och look-a-likes har potential att koppla om din hjärna och tyst ändra dina beslutsvägar. Detta är särskilt farligt för ungdomar upp till 25 års ålder, eftersom hjärnor håller på att förberedas för livet. ⁃ TN-redaktör

Mänsklighetens moderna bana har definierats av flera böjningspunkter. Uppfinningen av bland annat elektricitet, glödlampa, telegrafsystemet, dator och internet signalerade nya oåterkalleliga milstolpar i vårt modus vivendi. Den senaste introduktionen av ChatGPT kan dock visa sig vara mer än en vändpunkt. Det kan vara en permanent störning av vårt sätt att leva; dess bloopers och Wokist raserianfall oaktat.

ChatGPT är nu den snabbast växande konsumentappen i historien. Inom två månader efter lanseringen i november 2022 lyckades ChatGPT samla mer än 100 miljoner användare. Dess utvecklare OpenAI, som började med 375 anställda och tunna intäkter, värderas nu till $ 30 miljarder och räknar.

Hur fungerar det? I stort sett samlar ChatGPT data från onlinekällor och syntetiserar svar på en fråga inom några sekunder. Det är för närvarande den mest mångsidiga av ett stall av nya artificiell intelligens-drivna stora språkmodeller. Den kan komponera musiknoter, skriva mjukvarukoder, lösa matematiska ekvationer, skriva romaner, uppsatser och avhandlingar, bland en mängd andra uppgifter. Det kan användas av forskare för att översätta sina originalverk – skrivna på ett modersmål – till engelska. När AI-verktyg som ChatGPT utvecklas kan de ersätta mänsklig aktivitet över ett brett, men oöverskådligt, spektrum. Hundratals miljoner jobb kan stå på spel.

Dess mest omedelbara inverkan kommer dock att vara inom området för mänskligt lärande och beslutsfattande.

Mänskligt lärande

Mänskligt lärande är en livslång process formad av otaliga faktorer. Dessa inkluderar (men är inte begränsade till) erfarenhet, instinkt, interaktioner, misstag (och korrigeringar), introspektion, personlig ångest, djärvhet, handledning, textdata och individuellt psyke. De flesta av dessa förutsättningar är främmande för ChatGPT och detta inkluderar axiomet "no pain no gain" för mänskligt lärande och utveckling.

AI-verktyg påverkas inte heller av mänskliga begränsningar som tidsbrist, trötthet, lediga dagar och åkommor. Med tiden har dessa begränsningar fått människor att delegera sina existentiella krav på att tänka och lära till maskiner. Obönhörlig digitalisering har också gjort oss skickliga på att veta var eller hur man söker information istället för lära sig att behålla samma information. Hur många av oss memorerar telefonnumren till vår familj, kollegor och vänner nuförtiden? En digital krycka är nu ett måste för att navigera på vägar (t.ex. Waze, Google Maps), matlagning (videokanaler), laga apparater (gör-det-själv-kanaler) och en mängd andra vardagliga aktiviteter. Våra dagliga uppgifter blir snabbt fler mekanistisk, tränger ut vår förmåga att skapa något nytt eller spelförändrande. Vi håller på att bli förlängningar av våra maskiner istället för vice versa. Som ett resultat står mänskligheten nu inför en era av kollektiv stupor och konformitet.

Det finns inget bättre sätt att bedöma hur AI-verktyg kan påverka våra förmåga att tänka och lära än genom att observera ChatGPTs inverkan på den globala utbildningssektorn. Både studenter och lärare använder nu ChatGPT som ett utbildningstillägg, ett fuskverktyg eller som en digital krycka.

En nyligen undersökning av Walton Family Foundation och Impact Research fann att de flesta lärare (51%), och många elever, redan använder ChatGPT i skolor. Ytterligare en undersökning som involverar 1,000 XNUMX amerikanska högskolor fann att 30 % av eleverna använde ChatGPT för skriftliga uppgifter, och 60 % av dem använde det på "mer än hälften av sina uppgifter." ChatGPT har passerat många högnivåprov, inklusive Wharton MBA-examen, amerikansk medicinsk licensieringsexamen, flera juridikprov och en final vid Stanford Medical School.

Pappersbruk kan också använda ChatGPT för att tillverka vetenskapliga artiklar och rapporter. Forskare som använder sådana konstruerade data, eller som medvetet förfalskar forskningsprocessen genom generativ AI, kan sluta med att främja policyer och produkter som är skadliga för samhället. Världen har inte råd med ännu en coronapyschosis!

Sammantaget blir både elever och lärare alltmer skrämda av den Allsmäktige AI. AI höjer ribban för studenter, professorer och en mängd olika yrkesverksamma. Att sortera ut äkta artefakter blir också allt svårare.

As Christopher Kanan, noterade docent i datavetenskap vid University of Rochester nyligen: "Det blir bara svårare att reda ut vem som vet vad och vem som får hjälp av saker som ChatGPT." Några skolor i New York, Hong Kong, Bangalore och på andra håll har förbjudit elever att använda ChatGPT i sina uppgifter på grund av oro över "plagiat", fusk och desinformation.

Medan ChatGPT är ett bra verktyg för att studera komplexa begrepp och delar av kunskapsintegration, i verkligheten kan det förvandla de flesta användare till fogliga konsumenter av AI-genererad data. Långvarig digitalt medierad passivitet atrofierar den tänkande förmågan.

En annan nackdel med ChatGPT är dess potential att vidga den mycket omdiskuterade digitala klyftan. Ansökningar om jobb, befordran, stipendier etc kommer överväldigande att gynna de digitala resurserna framför de digitala som inte har, särskilt när prenumerationsavgifter krävs för åtkomst.

Lärare kan för närvarande inte definiera de etiska gränserna för ChatGPT och antar en avvaktande attityd. Själva det etiska ramverket kan vara skrivet av, eller med hjälp av, verktyg som ChatGPT. Aini Suzana Ariffin, docent i policystudier vid Universiti Teknologi Malaysia, är övertygad om att pedagoger inte behöver vara oroliga. "Ett etiskt ramverk för generativa AI-verktyg som ChatGPT kommer att reda ut vad som förstärker inlärningsprocessen och vad som hindrar den. Det här kan ta tid och kommer att involvera mycket debatt, men det är bättre att börja nu."

Mänskligt beslutsfattande

Singapores regering meddelade nyligen att dess tjänstemän kommer att börja använda ChatGPT för att underlätta deras arbetsbörda. Detta är vettigt eftersom repetitiva eller vardagliga uppgifter kan påskyndas av AI-verktyg. Men i takt med att generativa AI-verktyg blir exponentiellt mer intelligenta och effektiva – vilket de verkligen kommer att göra – kan förvaltningskomplexet gradvis övertas av maskiner. Denna framväxande form av social ordning kallas "algokrati”; en där algoritmer, särskilt AI och blockchain, tillämpas över hela spektrumet av myndigheter. Algokrati innebär oundvikligen prediktiv styrning. Berlins polisstyrka har redan införlivat en embryonal form av algokrati i sin prediktiv polis systemet. Står vi inför en Minority Report samhället inom en snar framtid?

ChatGPT påskyndar också informationsflödet till de högsta beslutsfattande nivåerna för en regering eller organisation – och kringgår byråkratiers traditionella grindvaktsroller på mellannivåerna. Även om detta kan förespråkas som en välkommen utveckling mot byråkrati, kan bristen på traditionella kontroller och balanser leda till tvingande beslut med bedrövliga socioekonomiska konsekvenser. Föreställ dig att transplantera ett sådant algokratiskt beslutssystem till kärnvapeninfrastrukturen hos en militär supermakt?

ChatGPT löper också risken att kränka integriteten och läcka personuppgifter inom sektorer som bank och sjukvård. Effektiviteten hos generativa AI-verktyg drivs av en ständigt växande mängd data som ständigt återkopplas till deras neurala nätverk. Denna strävan efter noggrannhet, effektivitet och hastighet kan resultera i att privata data äventyras som en del av maskininlärningsprocessen.

Inom sjukvårdsområdet, informerat samtycke till AI-assisterad sjukvård kan minskas eftersom patienter antingen inte förstår vad de samtycker till eller så kan de lita alltför mycket på ett "intelligent och opartiskt" maskinbaserat system. Det blir mer olycksbådande när triage används i kritiska situationer. Traditionellt bestäms triage av integriteten och kompetensen hos närvarande medicinsk personal samt de tillgängliga resurserna in situ. En algoritm kan dock utan passion arrangera triage baserat på en patients "värde för samhället"; databaserad förväntad livslängd; och kostnader förknippade med att rädda patientens liv.

De etiska dimensionerna av AI-medierad triage har inte lösts. Det är dock värt att notera att Microsofts medgrundare Bill Gates är för dödspaneler för de dödssjuka som inte har "inga fördelar för samhället" och vars bevarande kan skenbart kompensera för jobben för "hundratusen lärare". Om vi ​​sträcker ut denna logik ytterligare kan vi bevittna ett framtida mandat för "smarta bebisar" som förmodligen kommer att befolka ett "smart samhälle". Framtidens sofistikerade algoritmer kan sortera ut de genetiska tillgångarna från de genetiska som inte har dem genom foster-DNA-tester och verktyg som preimplantationsgenetisk diagnos (PGD). Denna eugeniska drivkraft har eufemistiskt kallats "procreative beneficence". Tillfälligtvis, Bill Gates har ekonomiskt stöttat ett kinesiskt företag som arbetar med att skapa "superbebisar". Är det konstigt att Microsoft är en primär finansiell stödjare till OpenAI?

I slutet av dagen, kommer ett etiskt AI-ramverk att bli stenmurat av Tech Titans som kan bestämma designen, parametrarna och målen för generativa AI-verktyg? Eller kommer våra valda ledare att försöka sträva efter en synergistisk samexistens mellan AI och människor.

Läs hela historien här ...

Om redaktören

Patrick Wood
Patrick Wood är en ledande och kritisk expert på hållbar utveckling, grön ekonomi, Agenda 21, 2030 Agenda och historisk teknokrati. Han är författare till Technocracy Rising: The Trojan Horse of Global Transformation (2015) och medförfattare av Trilaterals Over Washington, volymer I och II (1978-1980) med avdömda Antony C. Sutton.
Prenumerera
Meddela om
gäst

12 Kommentarer
äldsta
Senaste Mest röstade
Inline feedbacks
Visa alla kommentarer
Valerian

ChatGPT kan få oåterkalleliga konsekvenser. Teknokrater bryr sig inte om befolkningens mentala och psykologiska status, och de gör det ändå, trots de insikter som diskuteras i artikeln. De kan inte hjälpa sig själva. De vill att befolkningen ska fastna i grupptänkta, meningslösa kontrollbaserade ideologier och har gjort det till en poäng att få individualismen kuvad och eliminerad så mycket som möjligt. De handlar om simuleringar och approximationer medan de är i tankesättet med materialreduktionistiska tankemönster och modeller, som alla förnekar Andens natur, vem vi verkligen är. Så de är existentiellt omogna och farliga, knutna till ett antalLäs mer "

anne

Bra poäng. Uppfinnarna av onda saker vill utan tvekan att alla ska vara i samförstånd med djävulen och antikrist också. Det är därför jag inte litar på de flesta av de medicinska eller tekniska framstegen idag. Det är så klart som dagen för mig att allt leder fram till bestsystemet och den stora vedermödan.

Erik Nielsen

Bra en. Jag ser många ungdomar redan låsta i en mental matris som de inte kan ta sig ur.

De kan inte dra enkla logiska slutsatser och de ignorerar helt enkelt den dokumenterade verkligheten.

Men problemet för oss är hur vi kommer ur deras krok? De hänger som bly på oss för att göra sin enkla världsbild.
Vi kan inte fortsätta ett negativt liv som psykologiska sjuksköterskor för 3-5 miljarder psykiskt funktionshindrade som tror att de är filmstjärnor som digitala nomader.

[…] Läs originalartikel […]

anne

ChatGPT kan lära sig utan min inblandning. Och jag kan lära mig utan dess hjälp. Nu när jag tänker efter. ChatGPT lär sig mer gratis genom att undersöka databaser för förfrågningar från personer som använder det. Jag vill inte lära känna CharGPT. Jag vill inte heller att ChatGPT ska känna till min existens. Modern teknik kan vara bra när den skapas av etiska människor med goda avsikter. Men när det är klart som dagen att djävulen finns i detaljerna. Jag undviker något eller någon han har händerna på.

[…] ChatGPT kan få oåterkalleliga konsekvenser för lärande och beslutsfattande […]

[…] ChatGPT kan få oåterkalleliga konsekvenser för lärande och beslutsfattande […]

Elle

Detta program representerar den sista spiken i kistan för mänsklighetens fördumning, direkt efter folkbildning. Sanningssökare måste nu bli vaksamma när de är online, veta varifrån fakta ursprungligen kom om ämnen och bygga upp ett bibliotek med personlig kunskap som kan delas så att när vi ser information som upprepas av "ChatCrap" vi känner igen den som sådan och undviker den . Detta borde inte vara särskilt svårt till en början förrän tyrannerna stänger av tillgången till verklig information, som vi vet kommer. Tills dess finns det SÅ många kunskapshållare på nätet som illerLäs mer "

DawnieR

"ChatGPT kan få oåterkalleliga konsekvenser för lärande och beslutsfattande"...

Vi är LOOOOOOOOÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅN

[…] ChatGPT kan få oåterkalleliga konsekvenser för lärande och beslutsfattande […]

[…] ChatGPT kan få oåterkalleliga konsekvenser för lärande och beslutsfattande […]

[…] 15 MARS 2023 | CHATGPT KAN FÅ OÅTERSTÄLLBARA KONSEKVENSER FÖR LÄRANDE OCH BESLUTSFATTANDE […]