x
x

ChatGPT kao autor publikacija?

  25.02.2023.

Umjetna inteligencija može pomoći autorima u pripremi i podizanju kvalitete članaka koje žele objaviti. To su alati koji pomažu kod pisanja, gramatike, jezika, u pronalaženju izvora i literature, statističkoj analizi i standardima kako napisati neki izvještaj. Urednici i izdavači također koriste alate potpomognute umjetnom inteligencijom u brojne svrhe, uključujući provjeru pristiglih članaka (npr. plagijat, manipulacija slikama, etička pitanja). Alat je dobar i za sortiranje članaka, provjeru vjerodostojnosti referenci, uređivanje i kodiranje sadržaja za objavljivanje u različitim medijima te za olakšavanje postpublikacijskog pretraživanja na internetu.

ChatGPT kao autor publikacija?

U siječnju 2023. u časopisu Nature je objavljen članak o publiciranju 2 preprinta i 2 članka iz područja medicine koji su uključivali ChatGPT kao koautora s potpisom. Svaki članak je uključivao povezanost s ChatGPT-om, a jedan članak je imao i e-mail adresu iza koje nije postojala osoba. Prema tekstu u časopisu Nature, uključivanje ChatGPT-a u tom članku u retku autora bila je pogreška i u članku su najavili da će to uskoro biti ispravljeno. Međutim, ti članci i navođenje ChatGPT-a kao autora već su indeksirani u PubMed-u i Google Scholar-u.

Nature je od tada definirao politiku u kojoj je zabranio imenovanje takvih alata kao autora u istraživačkom radu jer pripisivanje autorstva nosi sa sobom odgovornost za rad, a umjetna inteligencija ne može preuzeti takvu odgovornost. Navode da se ovi alati mogu dokumentirati u dijelovima metoda ili zahvalama na kraju samog članka. Neki drugi časopisi i organizacije ubrzano su razvili svoje politike koje zabranjuju uključivanje tehnologija kao autora. U politikama navode da se zabranjuje u rad uključiti tekst generiran umjetnom inteligencijom te se zahtijeva potpuna transparentnost i odgovornost u korištenju ovih alata umjetne inteligencije u znanstvenim publikacijama.

Međunarodna konferencija o strojnom učenju također je najavila novu politiku i napomenula da su radovi koji uključuju tekst generiran iz modela umjetne inteligencije kao što je ChatGPT zabranjeni, osim ako proizvedeni tekst predstavlja dio eksperimentalne analize rada.

Znanstvena izdavačka zajednica brzo je izvijestila o zabrinutosti zbog potencijalne zlouporabe ovih jezičnih modela umjetne inteligencije u znanstvenim publikacijama.

Pojedinci su eksperimentirali postavljajući ChatGPT-u niz pitanja o kontroverznim ili važnim temama (npr. uzrokuje li cijepljenje u djetinjstvu autizam), kao i neka druga specifična tehnička i etička pitanja povezana s izdavaštvom. Njihovi su rezultati pokazali da su tekstualni odgovori ChatGPT-a na pitanja, iako uglavnom dobro napisani i formulirani (što nije bilo lako uočiti), nisu ažurni, lažni su ili izmišljeni, bez točne ili potpune reference, i još gore, s izmišljenim nepostojećim dokazima za svoje tvrdnje ili izjave. OpenAI priznaje neka od ograničenja jezičnog modela, uključujući pružanje odgovora koji zvuče uvjerljivo, ali koji su netočni ili besmisleni, te da se trenutno radi o probnom i besplatnom korištenju ChatGPT-a kako bi se dobile povratne informacije za njegovo poboljšanje. To upozorenje potvrda je i jasan signal da model nije spreman za korištenje kao izvor pouzdanih informacija, a imperativ je transparentno i odgovorno korištenje ChatGPT-a.

Časopis JAMA u svom uvodniku poziva sve urednike časopisa da u radovima provjeravaju  sadržaje generirane umjetnom inteligencijom jer će oni vjerojatno eskalirati, osobito kod predatorskih časopisa. Umjetna inteligencija će se i dalje ubrzano razvijati, a u eri sveprisutnih dezinformacija i nepovjerenja, bit će ključna odgovorna upraba jezičnih modela umjetne inteligencije i transparentno izvješćivanje o tome kako se ti alati koriste u stvaranju informacija kako bi se zadržao integritet medicinskih istraživanja i povjerenje u medicinsko znanje.

VEZANI SADRŽAJ > <