ChatGPT: Izvor istinitih informacija ili muljator?

ChatGPT: Izvor istinitih informacija ili muljator?
ChatGPT

Navika korištenja generativnih modela umjetne inteligencije kao tražilica pridonosi širenju dezinformacija

U današnje digitalno doba, uspon umjetne inteligencije donio je brojne napretke u tehnologiji. Jedna takva inovacija je ChatGPT, jezični model poznat po svojoj sposobnosti generiranja ljudskog teksta.

Prednosti ovog alata naširoko se govore o uštedi vremena i resursa, dobivanju sjajnih poslovnih ideja, stvaranju inovativnog sadržaja, pomoći korisnicima u brzom pronalaženju informacija i tako dalje. Iako se ChatGPT pokazao kao dragocjena pomoć u raznim prilikama, postoji zabrinutost zbog njegovog potencijala širenja lažnih vijesti jer ChatGPT nije uvijek 100% točan.

Razmotrite ove slučajeve

Brojni su primjeri kako nas ChatGPT može opasno odvesti na krivi put. Business Reporter piše o chatbotu koji zapravo ne zna odgovor, ali vam ga ipak samouvjereno daje, iako je pogrešan. ChatGPT može čak braniti svoje odgovore i objasniti zašto su točni.

Za razliku od tražilica koje prikazuju informacije izravno iz baza podataka, ChatGPT generira odgovore kroz proces donošenja obrazovanih nagađanja na temelju dostupnih podataka, što ponekad može dovesti do nenamjernog širenja dezinformacija ili lažnih vijesti.

Štoviše, rizik od generiranja lažnih vijesti nadilazi ChatGPT-ov proces stvaranja odgovora

Kao AI chatbotu, ChatGPT nema ljudsku sposobnost razlikovanja mišljenja i članaka s činjenicama, što ga dovodi do prihvaćanja svih informacija zdravo za gotovo.

S obzirom na to da je 62% korisnika interneta u 2021. prijavilo da je naišlo na obmanjujući sadržaj, postoji značajna šansa da ChatGPT također može naići na lažne informacije tijekom procesa generiranja i predstaviti vam ih kao konačan odgovor. Takav alat stoga može predstavljati veliku opasnost, posebice na polju novinarstva.

Prema MIT Technology Review-u, “jezični modeli umjetne inteligencije su notorni muljatori koji često laži predstavljaju kao činjenice. Izvrsni su u predviđanju sljedeće riječi u rečenici, ali ne znaju što rečenica zapravo znači. Zbog toga je nevjerojatno opasno kombinirati ih s pretraživanjem, gdje je ključno razjasniti činjenice.

Guardian je 2023. otkrio da je ChatGPT izmišljao lažne članke pod imenom novina

Njegovo je uredništvo dobilo zanimljiv e-mail – istraživač je naišao na spominjanje Guardianovog članka koji je napisao novinar o određenoj temi od prije nekoliko godina. No djelo se nije moglo pronaći na njihovoj web stranici i u tražilicama.

Navodni autor nije se mogao sjetiti da je napisao određeni članak, ali naslov je sigurno zvučao kao nešto što bi oni napisali. To je bila tema s kojom su se poistovjećivali i imali su dosije o tome. Na kraju je zaključeno da je cijelu stvar izmislio ChatGPT.

ChatGPT može stvoriti ili uništiti posao

ChatGPT se sve više koristi u raznim poslovnim odjelima za zadatke poput kreiranja marketinških kampanja i razvoja proizvoda. Međutim, postoji značajan rizik da ChatGPT pruži netočne informacije na kojima timovi mogu temeljiti cijele projekte.

To bi moglo dovesti do štete po ugledu i financijskog gubitka ako tvrtke ulažu u rješenja temeljena na netočnim prijedlozima. Tehnologija bi mogla ostaviti traga i na drugim karijerama. Godine 2023. tridesetogodišnji veteran iz New Yorka, odvjetnik Steven A Schwartz upotrijebio je ChatGPT za pisanje pravnog sažetka koji je predao sudu.

Čak je pitao jesu li citati stvarni. ChatGPT mu je izravno lagao i on je povjerovao tom odgovoru bez da ga je provjerio. Podnio je podnesak s citatima koji podupiru njegov slučaj, a zatim se morao suočiti sa zakonskim sankcijama, prenosi CNN.

Zato je, kako bi se smanjili rizici širenja lažnih vijesti putem ChatGPT-a, bitno da korisnici kritički procijene informacije s kojima se susreću na internetu. Provjera činjenica i provjera izvora ključni su koraci u borbi protiv širenja dezinformacija.

Iako ChatGPT nudi mnoge prednosti u smislu stvaranja jezika i komunikacije, postoje inherentni rizici u njegovom potencijalu širenja lažnih vijesti. Podizanjem svijesti o tim rizicima i poduzimanjem proaktivnih mjera za njihovo rješavanje, možemo raditi na informiranijoj i odgovornijoj upotrebi AI tehnologija u digitalnom dobu.

Ovaj je članak dio Read Twice – projekta financiranog od strane EU-a, kojim koordinira udruga Euro Advance, koji je usmjeren na mlade ljude i ima za cilj suprotstaviti se dezinformacijama i lažnim vijestima unaprjeđujući njihove vještine za kritičku procjenu informacija, prepoznavanje zlog i štetnog medijskog sadržaja i razlikovanje činjenica i mišljenja, čime se poboljšavaju njihove kompetencije medijske pismenosti.