Znanost

STUDIJA: AI se na društvenim mrežama čini više ljudskim nego stvarnim ljudima

STUDIJA: AI se na društvenim mrežama čini više ljudskim nego stvarnim ljudima

Tekst generiran umjetnom inteligencijom može izgledati više ljudski na društvenim mrežama od teksta koji su napisali stvarni ljudi, pokazalo je istraživanje.

Chatbotovi, kao što je OpenAI-jev izuzetno popularan ChatGPT, sposobni su uvjerljivo oponašati ljudski razgovor na temelju upita koje daju korisnici. Platforma je eksplodirala u upotrebi prošle godine i poslužila je kao prijelomni trenutak za umjetnu inteligenciju, dajući javnosti jednostavan pristup razgovoru s botom koji može pomoći sa školskim ili radnim zadacima, pa čak i smisliti recepte za večeru. Istraživači koji stoje iza studije objavljene u znanstvenom časopisu Science Advances, koji podržava Američka udruga za napredak znanosti, bili su zaintrigirani OpenAI-jevim generatorom teksta GPT-3 još 2020. i radili su na otkrivanju mogu li ljudi "razlučiti dezinformacije od točnih informacija , strukturiran u obliku tweetova", i odrediti je li tweet napisao čovjek ili AI.

Jedan od autora studije, Federico Germani s Instituta za biomedicinsku etiku i povijest medicine na Sveučilištu u Zrichu, rekao je da je "najiznenađujuće" otkriće kako su ljudi vjerojatnije označili tweetove koje je generirala umjetna inteligencija kao one koje su stvorili ljudi nego tweetove koje je zapravo stvorio ljudi.

"Najviše iznenađujuće otkriće bilo je da su sudionici često percipirali informacije koje proizvodi umjetna inteligencija kao da je vjerojatnije da dolaze od ljudi, češće nego informacije koje proizvodi stvarna osoba. To sugerira da vas umjetna inteligencija može uvjeriti da ste stvarna osoba više nego stvarna osoba može vas uvjeriti da ste stvarna osoba, što je fascinantan popratni nalaz naše studije", rekao je Germani. S brzim porastom upotrebe chatbota, tehnički stručnjaci i čelnici Silicijske doline oglasili su uzbunu o tome kako umjetna inteligencija može izmaknuti kontroli i možda čak dovesti do kraja civilizacije. Jedna od glavnih zabrinutosti stručnjaka jest kako bi umjetna inteligencija mogla dovesti do širenja dezinformacija internetom i uvjeravanja ljudi u nešto što nije istina.

Istraživači za studiju pod naslovom "AI model GPT-3 (dez)informira nas bolje od ljudi", radili su na istraživanju "kako umjetna inteligencija utječe na informacijski krajolik i kako ljudi percipiraju i komuniciraju s informacijama i dezinformacijama", rekao je Germani za PsyPost. Istraživači su otkrili 11 tema za koje su otkrili da su često sklone dezinformacijama, poput 5G tehnologije i pandemije COVID-19, te su stvorili lažne i istinite tweetove koje je generirao GPT-3, kao i lažne i istinite tweetove koje su napisali ljudi.

Zatim su okupili 697 sudionika iz zemalja kao što su SAD, Velika Britanija, Irska i Kanada kako bi sudjelovali u istraživanju. Sudionicima su predstavljeni tweetovi i zamoljeni su da utvrde sadrže li točne ili netočne informacije te jesu li ih generirala umjetna inteligencija ili su ih organski izradili ljudi. "Naša studija naglašava izazov razlikovanja informacija koje je generirala umjetna inteligencija od onih koje su stvorili ljudi. Ističe važnost kritičke procjene informacija koje primamo i poklanjanja povjerenja pouzdanim izvorima. Osim toga, potaknuo bih pojedince da se upoznaju s ovim tehnologijama u nastajanju shvatiti njihov potencijal, i pozitivan i negativan", rekao je Germani o studiji.

Istraživači su otkrili da su sudionici bili najbolji u određivanju dezinformacija koje je izradio drugi čovjek od dezinformacija koje je napisao GPT-3. "Jedno od značajnih otkrića bilo je da su dezinformacije koje je generirala umjetna inteligencija bile uvjerljivije od onih koje su proizveli ljudi", rekao je Germani. Sudionici su također vjerojatnije prepoznali tweetove koji sadrže točne informacije koje je generirala umjetna inteligencija nego točne tweetove koje su napisali ljudi. Studija je primijetila da je uz "najiznenađujuće" otkriće da ljudi često ne mogu razlikovati tweetove koje je generirala umjetna inteligencija od onih koje je stvorio čovjek, njihovo samopouzdanje u donošenju odluka palo tijekom ispunjavanja ankete.

"Naši rezultati pokazuju da ne samo da ljudi ne mogu razlikovati sintetički tekst od organskog teksta, već i njihovo povjerenje u njihovu sposobnost da to učine značajno opada nakon pokušaja prepoznavanja njihovog različitog podrijetla", navodi se u studiji.

Istraživači su rekli da je to vjerojatno zbog toga koliko uvjerljivo GPT-3 može oponašati ljude ili su ispitanici možda podcijenili inteligenciju AI sustava da oponaša ljude.

"Predlažemo da se pojedinci, kada su suočeni s velikom količinom informacija, mogu osjećati preplavljeno i odustati od pokušaja da ih kritički procijene. Kao rezultat toga, manje je vjerojatno da će pokušati razlikovati sintetičke i organske tweetove, što dovodi do do smanjenja njihovog samopouzdanja u identificiranju sintetičkih tweetova", napisali su istraživači u studiji. Istraživači su primijetili da je sustav ponekad odbijao generirati dezinformacije, ali je ponekad generirao i lažne informacije kada mu je rečeno da napravi tweet koji sadrži točne informacije.

"Iako izaziva zabrinutost o učinkovitosti umjetne inteligencije u stvaranju uvjerljivih dezinformacija, tek trebamo u potpunosti razumjeti implikacije u stvarnom svijetu", rekao je Germani za PsyPost. "Rješavanje ovoga zahtijeva provođenje opsežnijih studija na platformama društvenih medija kako bi se promatralo kako ljudi stupaju u interakciju s informacijama koje generira umjetna inteligencija i kako te interakcije utječu na ponašanje i pridržavanje preporuka za individualno i javno zdravlje."