AI-verktyg kan användas för att "redigera" och "polera" författares arbete, säger konferensarrangörerna, men text "helt producerad" av AI är inte tillåten. Detta väcker frågan: var drar du gränsen mellan att redigera och skriva?
En av världens mest prestigefyllda maskininlärningskonferenser har förbjudit författare från att använda AI-verktyg som ChatGPT för att skriva vetenskapliga artiklar, vilket har utlöst en debatt om rollen av AI-genererad text i den akademiska världen.
Den internationella konferensen om maskininlärning (ICML) tillkännagav policyn tidigare denna vecka, och angav: "Papper som innehåller text genererad från en storskalig språkmodell (LLM) som ChatGPT är förbjudna om inte den producerade texten presenteras som en del av tidningens experimentella analys.” Nyheten tändes utbredd diskussion på sociala medier, där AI-akademiker och forskare både försvarar och kritiserar policyn. Konferensens arrangörer svarade av publicera ett längre uttalande förklarar sitt tänkande. (ICML svarade på förfrågningar från Gränsen för kommentar genom att hänvisa oss till samma uttalande.)
Enligt ICML, uppkomsten av allmänt tillgängliga AI-språkmodeller som ChatGPT — en allmän AI-chatbot som lanserades på webben i november förra året — representerar en "spännande" utveckling som ändå kommer med "oväntade konsekvenser [och] obesvarade frågor." ICML säger att dessa inkluderar frågor om vem äger produktionen av sådana system (de är utbildade i offentliga data, som vanligtvis samlas in utan samtycke och ibland återuppstår denna information ordagrant) och om text och bilder som genereras av AI ska "anses som nya eller bara härledda av befintligt arbete."
Den senare frågan ansluter till en knepig debatt om författarskap - det vill säga vem "skriver" en AI-genererad text: maskinen eller dess mänskliga styrenhet? Detta är särskilt viktigt med tanke på att ICML endast förbjuder text "helt producerad" av AI. Det säger konferensens arrangörer att de är inte förbjuda användningen av verktyg som ChatGPT "för att redigera eller polera författare skriven text" och notera att många författare redan använde "halvautomatiska redigeringsverktyg" som grammatikkorrigerande programvara Grammarly för detta ändamål.
"Det är säkert att dessa frågor, och många fler, kommer att besvaras med tiden, eftersom dessa storskaliga generativa modeller är mer allmänt antagna. Vi har dock ännu inga tydliga svar på någon av dessa frågor”, skriver konferensens arrangörer.
Som ett resultat säger ICML att dess förbud mot AI-genererad text kommer att omvärderas nästa år.
Frågorna som ICML tar upp kanske inte är lätta att lösa. Tillgången till AI-verktyg som ChatGPT skapar förvirring för många organisationer, av vilka några har svarat med sina egna förbud. Förra året kodade Q&A-webbplatsen Stack Overflow förbjöd användare från att skicka svar skapade med ChatGPT, medan New York Citys utbildningsdepartement blockerade åtkomst till verktyget för alla på dess nätverk bara den här veckan.
I varje fall finns det olika farhågor om de skadliga effekterna av AI-genererad text. En av de vanligaste är att resultatet av dessa system helt enkelt är opålitligt. Dessa AI-verktyg är stora autokompletteringssystem, tränade att förutsäga vilket ord som följer efter nästa i en given mening. Som sådana har de ingen hårdkodad databas med "fakta" att dra på - bara förmågan att skriva plausibelt klingande påståenden. Detta betyder att de har en tendens att presentera falsk information som sanning sedan om en given mening ljud rimligt garanterar inte dess fakta.
När det gäller ICML:s förbud mot AI-genererad text är en annan potentiell utmaning att skilja mellan skrifter som bara har "polerats" eller "redigerats" av AI och det som har "producerats helt" av dessa verktyg. Vid vilken tidpunkt utgör ett antal små AI-styrda korrigeringar en större omskrivning? Vad händer om en användare ber ett AI-verktyg att sammanfatta sin uppsats i en snabb sammanfattning? Räknas detta som nygenererad text (eftersom texten är ny) eller ren polering (eftersom det är en sammanfattning av ord författaren skrev)?
Det här är som att anta en lag 1905 som tillåter bilar, men bara om de dras av en häst.
FÖRBJUD författare från att använda AI-verktyg! Lycka till med det. Och OJ Simpson letar fortfarande efter den riktiga mördaren.
Jag lyssnade precis på din Quickening-rapport om detta ämne och bestämde mig för att kommentera här. (1) Du anger att ChatGPT kan utföra djupa förfalskningar av voice-over för videor. Detta kan också vara ett propagandaknep så att Deep State-aktörerna kan förneka vad de verkligen sa på videobevisen vi samlar in. (2) Allt jag kan vara säker på är att jag inte vet vad som finns i andra änden av gränssnittet. Vem eller vad är mannen bakom ridån? När är det en AI, människa eller propagandist? Se även begreppet Mekanisk. Läs mer "