Sat vremena do objavljenog znanstvenog rada

Prije nekoliko mjeseci ekonomist Joshua Gans sjeo je za računalo i započeo razgovor s najnovijim OpenAI modelom o ideji koju je razvijao od 2008. godine. Zanimalo ga je može li hipoteza efikasnih tržišta preživjeti u scenariju putovanja kroz vrijeme. Pet minuta poslije, AI je isporučio formalni matematički dokaz. Gans ga je provjerio, dopunio, zatražio od sustava da napiše nacrt članka. Nakon sat vremena imao je gotov tekst. Nakon jedne runde recenzentskog postupka, rad je objavljen u časopisu Economics Letters. Recenzent je imao samo jednu zamjerku, i to ne na matematiku nego na fiziku. Pitao se bi li vremenski putnik uopće imao imovinu kojom bi mogao trgovati u prošlosti. Gans je odgovorio da je to ipak fikcija, i recenzent se složio.

Ova je anegdota istovremeno fascinantna i uznemirujuća. Fascinantna jer pokazuje kako se istraživački proces koji je nekad trajao tjednima može komprimirati u jedno poslijepodne. Uznemirujuća jer nameće pitanje koje, barem se tako čini, nitko u akademskoj zajednici ne želi čuti. Ako se znanstveni rad može proizvesti na zahtjev, čemu onda uopće služi sustav u kojem se znanje proizvodi u nadi da će netko jednog dana imati koristi od njega? Kada generiranje spoznaja postane jeftinije od pretraživanja postojećeg znanja, cijela se logika akademske proizvodnje znanja može urušiti. Gans to i sam prepoznaje. Priznaje da i sam nastavlja istraživati po starom modelu, ali svjestan je da netko tko bi sutra mogao imati koristi od njegovih istraživanja vjerojatno neće ni posegnuti za njima. Jednostavno će zamoliti stroj da mu proizvede odgovor.

Ono što Gans opisuje na razini pojedinačnog znanstvenog rada, Anton Korinek dokumentira na razini cjelokupnog znanstveno-istraživačkog procesa. U članku objavljenom u  Journal of Economic Literature, Korinek pokazuje kako su se chatbotovi u samo tri godine razvili od jednostavnih sustava za odgovaranje na pojedina pitanja do autonomnih agenata (agentnih sustava, kako se kaže u struci) sposobnih za složene istraživačke zadatke. Njihove suvremene verzije mogu paralelno pretraživati stotine izvora, pisati i izvršavati statističke analize, generirati vizualizacije i sve to organizirati u koherentan istraživački izvještaj. Sustavi poput Deep Research-a mogu proizvesti opsežan pregled literature u dvadesetak minuta. Iako to nužno nije savršen pregled,  jer još uvijek slabo razlikuju marginalne radove od onih s beeding edge razinom, on je prema Korineku ipak dovoljno dobar da dramatično ubrza početne faze bilo kojeg istraživačkog projekta. Onaj tko je ikad proveo tri mjeseca pišući pregled literature za doktorat zna koliko je ta promjena duboka.

Znači li brži proces ujedno i kvalitetnije istraživanje?

Tom Pepinsky, politolog sa sveučilišta Cornell, nudi zanimljiv odgovor. Veliki jezični modeli su nepouzdani kad od njih tražite da generiraju tekst o istraživanjima jer izmišljaju reference, kombiniraju imena autora s pogrešnim naslovima radova i proizvode sadržaj koji zvuči uvjerljivo, ali nije utemeljen ni u čemu izuzev u statističkim obrascima tekstualnih podataka. Kad od istog modela zatražite da napiše i izvrši statistički kod, rezultati su posve drukčiji. Razlika je u tome što pisanje koda znači slijediti logička pravila, a ne pogađati što zvuči uvjerljivo. Pepinsky navodi da je pomoću Claude Code-a, uspio u deset minuta proizvesti nacrt istraživačkog članka iz skupa podataka i pripadajuće dokumentacije. Iako je stroj bez greške odradio izračune, potpuno je podbacio u onome najvažnijem, razumijevanju njihovog značenja. Stroj je, kako Pepinsky primjećuje, izgledao kao da pogađa što istraživač želi čuti, umjesto da objektivno interpretira rezultate.  

AI i dvije vrste znanstvenih vještina

Paul Goldsmith-Pinkham, ekonomist s Yalea razlikuje vještine poput kodiranja, čišćenja podataka i implementiranja statističkih metoda od prosudbenih vještina, kao što su prepoznavanje pravih pitanja, procjena uvjerljivosti istraživačkog dizajna i razumijevanje konteksta. Prve su u „slobodnom padu“. Druge su vrjednije nego ikad. Ono što je netko učio osam godina nakon doktorata, kaže Goldsmith-Pinkham, sada se može naučiti u djeliću tog vremena. Ali to ne znači da je sam čin istraživanja postao trivijalan. Jezični modeli skraćuju vrijeme između faza istraživanja, ali ne ukidaju potrebu za pažljivom iteracijom unutar svake faze. Zamislite scenarij u kojem sociolog koristi GPT Codex za analizu podataka iz International Social Survey Programee (ISSP). Alat će besprijekorno očistiti podatke, izračunati regresijske koeficijente i generirati tablice spremne za objavu. Ali interpretirati latentne dimenzije nacionalnog ponosa zahtijeva poznavanje konkretnog društva, povijesti, institucionalnog konteksta, kulturnih specifičnosti koje model (još) ne posjeduje.

Alexander Kustov, unosi u ovu raspravu dozu zdrave provokacije. Njegov viralni post o primjeni  AI u društvenim znanostima (postoji i drugi dio), za koji se naknadno ispostavilo da ga je u cijelosti napisala umjetna inteligencija, prošao je sve dostupne AI detektore kao stopostotno ljudski tekst. Nitko to nije primijetio prije nego što je sam otkrio pozadinu. Kustov iz toga izvlači nekoliko neugodnih zaključaka. Primjerice, zaključuje da detektori AI-generiranog teksta ne funkcioniraju. Norme o deklariranju korištenja AI-a stvaraju sustav u kojem iskreni korisnici bivaju kažnjeni, a neiskreni ne snose posljedice. Međutim, možda je važniji njegov uvid o onome što on naziva oštrom granicom. Umjetna inteligencija nadljudski je sposobna u nekim zadacima, a sramotno loša u drugima, i to na načine koji se ne poklapaju s ljudskom intuicijom. Ona može sintetizirati nalaze iz ogromnog broja istraživanja, ali pogrešno napisati ime koautora. Može generirati sofisticiranu statističku analizu, ali ne prepoznati da joj zaključci u kontekstu discipline unutar koje je analiza obavljena nemaju smisla Pritom je tempo poboljšanja toliko brz da akademske kritike AI-a, objavljene nakon uobičajenog recenzijskog ciklusa, zastarijevaju prije nego što uopće izađu iz tiska. Otprilike kao da ocjenjujete mogućnosti pametnog telefona na temelju studije o mobitelima prve generacije.

Što se gubi kad nestanu “tehnički” problemi u znanstvenom procesu?

Naposljetku, potrebno je uputiti i na jednu „opasnost“ o kojoj se ne govori puno. Studenti koji nikad nisu sami prolazili kroz mukotrpan proces poput čišćenja podataka, kodiranja, učenja iz statističkih udžbenika i pisanja sintakse za statistički program možda nikad neće internalizirati kognitivne vještine koje taj proces gradi. Goldsmith-Pinkham ističe da su barijere izvršenja nekad služile i kao barijere učenja. Drugim riječima, težina samog zadatka prisiljavala je istraživača da dubinski upozna materiju koju proučava ili sam proces znanstvenog istraživanja. Dakle, ako nestanu tehničke teškoće u znanstvenom stvaranju, dobitci u brzini mogli bi biti praćeni gubitcima u dubini razumijevanja. Istodobno, Kustov smatra da većinu objavljenih znanstvenih radova danas već primarno čitaju strojevi, a ne ljudi. Ako je znanstvena publika pretežno algoritamska, možda je vrijeme da se znanstvenici zapitaju što to znači za samu svrhu znanstvenog pisanja. Korinek u razgovoru za podcast Ideas in Development dodaje još jednu dimenziju. Ekonomska logika komparativne prednosti sugerira da će ljudi uvijek imati područje u kojem su relativno bolji od strojeva. Ali ta logika ne jamči dostojanstven život. U svijetu u kojem AI sustavi proizvode gotovo sve dovoljno jeftino, ljudi koji se s njima natječu možda neće moći zaraditi ni za egzistencijalne potrebe.

Što sve ovo znači za društvene znanosti u 2026. godini? Najgori je mogući odgovor pretvaranje da se ništa ne događa. Jednako je loše i nekritičko prihvaćanje svakoga novog alata. Kvalitativno istraživanje, originalno prikupljanje podataka, dubinsko poznavanje konteksta, sve to dobiva na vrijednosti upravo zato što je egzekucija postala jeftina. Međutim, ako ne razumijemo alate kojima se služimo, riskiramo proizvodnju radova koji su tehnički besprijekorni i sadržajno prazni. Transformacija je stvarna. Rizici su stvarni. A najlošije što možemo učiniti jest odvratiti pogled. Nije li to upravo ono što se događa? Većina pravih, dobrih diskusija o AI u društvenim znanostima se događa na X-u i raznim substack profilima, dakle na alternativnim platformama.

Naslovna ilustracija generirana je umjetnom inteligencijom uz pomoć ChatGPT-a (OpenAI).

Autor

  • Luka Šikić

    Luka Šikić predaje grupu kvantitativnih i metodoloških kolegija poput Uvoda u Statistiku, Primijenjene statistike, Data Science for Social Sciences, Obrade prirodnog jezika, Multivarijatne statistike, Analitike društvenih mreža, Novih medija i web tehnologija i dr. Studirao je ekonomiju i financije na raznim međunarodnim sveučilištima i Ekonomskom fakultetu u Zagrebu, gdje je stekao titulu doktora znanost. Od 2012. do 2020. godine radio je kao istraživač u Institutu Ivo Pilar, zatim od 2020. do 2023. godine kao postdoktorski istraživač na Fakultetu hrvatskih studija, a od 2023. godine izabran je u zvanje docenta na Hrvatskom katoličkom sveučilištu. Paralelno s akademskim radom bavi se samostalnim projektima u području podatkovnih znanosti i algoritamskog trgovanja na financijskim tržištima. Autor je većeg broja znanstvenih radova objavljenih u međunarodnim časopisima.

    View all posts