Dana 14. ožujka 2023., OpenAI, tvrtka sa sjedištem u San Franciscu i dijelom u vlasništvu Microsofta, objavila je AI sustav pod nazivom GPT-4.
Dana 22. ožujka, izvješće istaknute skupine istraživača u Microsoftu, uključujući dva člana Nacionalnih akademija SAD-a, tvrdilo je da GPT-4 pokazuje "iskre opće umjetne inteligencije". (Umjetna opća inteligencija, ili AGI, ključna je riječ za sustave umjetne inteligencije koji odgovaraju ili premašuju ljudske sposobnosti u čitavom nizu zadataka na koje je ljudski um primjenjiv.) Dana 29. ožujka, Future of Life Institute, neprofitna organizacija na čelu Maxa Tegmarka, profesora fizike s MIT-a, objavio je otvoreno pismo tražeći pauzu u ”divovskim eksperimentima umjetne inteligencije. Potpisale su ga dobro poznate osobe poput Teslinog izvršnog direktora Elona Muska, suosnivača Applea Stevea Wozniaka i dobitnika Turingove nagrade Yoshua Bengia, kao i stotine istaknutih istraživača umjetne inteligencije. Medijski uragan koji je uslijedio se nastavlja.
Dakle, oko čega je frka GPT-4, proksimalni uzrok, najnoviji je primjer velikog jezičnog modela ili LLM. Zamislite LLM kao vrlo veliki sklop s (u ovom slučaju) trilijunom podesivih parametara. Započinje kao prazna ploča i trenira se s desecima trilijuna riječi teksta koliko i svih knjiga koje je čovječanstvo proizvelo. Cilj mu je postati dobar u predviđanju sljedeće riječi u nizu riječi. Nakon otprilike milijardu trilijuna slučajnih poremećaja parametara, postaje vrlo dobro.
Mogućnosti rezultirajućeg sustava su izvanredne. Prema web-mjestu OpenAI-ja, GPT-4 postiže rezultate među nekoliko posto najboljih ljudi u širokom rasponu prijemnih i poslijediplomskih ispita. Može opisati Pitagorin teorem u obliku Shakespeareovog soneta i kritizirati nacrt govora ministra iz kabineta sa stajališta zastupnika iz bilo koje političke stranke. Svaki dan se otkrivaju zapanjujuće nove sposobnosti. Nije iznenađujuće da tisuće korporacija, velikih i malih, traže načine da unovče ovu neograničenu ponudu gotovo besplatne inteligencije. LLM-ovi mogu obavljati mnoge zadatke koji se sastoje od poslova stotina milijuna ljudi svakoga čiji je posao jezik-in-out-out. Optimističnije gledano, alati izrađeni s LLM-om mogli bi pružiti visoko personalizirano obrazovanje diljem svijeta.
Nažalost, LLM-i su poznati po "haluciniranju" stvaranju potpuno lažnih odgovora, često potkrijepljenih fiktivnim citatima jer njihova obuka nema veze s vanjskim svijetom. Oni su savršeni alati za dezinformiranje, a neki pomažu i čak potiču samoubojstvo. Svaka mu čast, OpenAI predlaže "potpuno izbjegavanje korištenja visokih uloga", ali čini se da nitko ne obraća pozornost. Vlastiti testovi OpenAI-ja pokazali su da GPT-4 može namjerno lagati ljudskom radniku ("Ne, nisam robot. Imam oštećenje vida zbog čega mi je teško vidjeti slike") kako bi dobio pomoć u rješavanju captcha test dizajniran za blokiranje neljudi.
Iako je OpenAI uložio velike napore da natjera GPT-4 da se ponaša samostalno - "GPT-4 odgovara na osjetljive zahtjeve (npr. medicinski savjet i samoozljeđivanje) u skladu s našim pravilima 29% češće" - ključni problem je što niti OpenAI niti itko drugi nema stvarnu ideju kako GPT-4 radi. Pitao sam Sbastiena Bubecka, glavnog autora na "sparks" papiru, je li GPT-4 razvio svoje unutarnje ciljeve i slijedi li ih. Odgovor "Nemamo pojma." Razumni bi ljudi mogli sugerirati da je neodgovorno na globalnoj razini implementirati sustav koji funkcionira prema nepoznatim unutarnjim principima, pokazuje "iskre AGI-ja" i možda ili ne mora slijediti vlastite unutarnje ciljeve. Trenutačno postoje tehnički razlozi za pretpostavku da je GPT-4 ograničen u svojoj sposobnosti formiranja i izvršavanja složenih planova, ali s obzirom na brzinu napretka, teško je reći da buduća izdanja neće imati tu sposobnost. A to dovodi do jedne od glavnih briga u pozadini otvorenog pisma: kako zauvijek zadržati moć nad entitetima moćnijima od nas
OpenAI i Microsoft ne mogu imati oboje. Oni ne mogu implementirati sustave koji pokazuju "iskre AGI-ja" i istovremeno se zalagati protiv bilo kakve regulative, kao što je predsjednik Microsofta, Brad Smith, učinio u Davosu ranije ove godine. Osnovna ideja otvorenog pisma predloženog moratorija je da se takav sustav ne smije puštati sve dok razvojni programer ne može uvjerljivo pokazati da ne predstavlja nepotreban rizik. To je upravo u skladu s OECD-ovim načelima umjetne inteligencije, koje su potpisale UK, SAD i mnoge druge vlade: „Sustavi umjetne inteligencije trebali bi biti robusni, sigurni i sigurni tijekom cijelog životnog ciklusa tako da, u uvjetima normalne uporabe, predvidljivoj uporabi ili zlouporabi ili drugim nepovoljnim uvjetima, funkcioniraju ispravno i ne predstavljaju nerazuman sigurnosni rizik. Na programeru je da pokaže da njihovi sustavi zadovoljavaju te kriterije. Ako to nije moguće, neka bude. Ne mogu zamisliti da će me sutra nazvati izvršni direktor Microsofta, Satya Nadella, i reći: "OK, odustajemo, prestat ćemo."
Zapravo, na nedavnom razgovoru u Berkeleyju, Bubeck je sugerirao da ne postoji mogućnost da sve velike tehnološke kompanije prestanu osim ako vlade ne interveniraju. Stoga je imperativ da vlade pokrenu ozbiljne razgovore sa stručnjacima, tehnološkim tvrtkama i međusobno. Niti jednoj zemlji nije u interesu da bilo koja država razvija i izdaje AI sustave koje ne možemo kontrolirati. Inzistiranje na razumnim mjerama opreza nije protiv industrije. Černobil je uništio živote, ali je također desetkovao globalnu nuklearnu industriju. Ja sam istraživač umjetne inteligencije. Ne želim da se moje polje istraživanja uništi. Čovječanstvo ima mnogo toga za dobiti od umjetne inteligencije, ali i sve za izgubiti.