Krajem 2022. godine eksplozivno se proširila vest o besplatnom interaktivnom robotu nove generacije. ChatGPT (Chat Generative Pre-trained Transformer) je brzo privukao veliku pažnju, jer su ga mnogi hteli isprobati, a rezultati korišćenja su premašili sva očekivanja. 

Šta je ChatGPT, asistent o kojem bruje društvene mreže? U pitanju je robot za razgovor (engl. chatbot) konstruisan od strane istraživačke organizacije OpenAI iz San Franciska koji je lansiran kao prototip 30. novembra 2022. godine. OpenAI je neprofitna istraživačka organizacija koja se bavi razvojem i primenom veštačke inteligencije (engl. Artificial Intelligence, AI). Osnovali su je Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever, Wojciech Zaremba i John Schulman 2015. godine. S tim da je Elon Musk 2018. godine napustio odbor ove organizacije, ali je ostao jedan od investitora.

Ako pitamo ovog chatbot-a da definiše sâm sebe, dobićemo odgovor da je ChatGPT jezički model temeljen na veštačkoj inteligenciji koji može razumeti prirodni ljudski jezik i isporučiti prilično detaljan tekst koji deluje kao da ga je napisao ljudski um. ChatGPT je dodatno treniran na osnovi GPT-3.5 koristeći se i superviziranim učenjem (učenjem pod nadzorom) i ojačanjem upotrebom povratne informacije. Oba pristupa su koristila ljudske trenere kako bi poboljšali performanse novog modela. U slučaju superviziranog učenja, modelu su dostavljeni razgovori u kojima su treneri igrali oba učesnika: korisnika i AI asistenta. U koraku ojačanja, treneri su prvo rangirali odgovore koje je model stvorio u prethodnom razgovoru. Ova rangiranja su korišćena za kreiranje 'modela nagrada' na osnovu kojih je ChatGPT dodatno prilagođen.

Često u definiciji ovog modela za jezik nailazimo na informaciju da je “fine-tuned”. Šta to zapravo znači? Znači da je prošao proces adaptacije velikog modela za jezik na specifičan zadatak. To se radi na način da se model dodatno trenira na skupu podataka koji se odnosi na željeni zadatak, nakon što je već treniran na velikom, opštem skupu podataka. Ovaj proces može poboljšati performanse modela u specifičnom domenu u odnosu na opšte performanse dobijene tokom prvobitnog treninga. "Large Language Model" (LLM) je termin koji se odnosi na AI tehnologiju za obučavanje računara da poveća svoje razumevanje jezika i obrade tekstualne informacije. Ovi modeli se uče iz velikih skupova tekstualnih podataka i njihov cilj je da generišu smislene tekstove i odgovore na pitanja. Ukratko, LLM-ovi su računarski programi koji se koriste za povećanje sposobnosti računara da razume i raspolaže jezičkim podacima.

Kako ChatGPT funkcioniše? Korisnici jednostavno unose svoja pitanja, a chatbot im automatski odgovara. Prvi korisnici ga opisuju kao alternativu Google-u jer u roku od nekoliko sekundi može ponuditi odgovore na različita kompleksna pitanja. Još je u ranoj fazi razvoja i ono što je bitno naglasiti je da, za razliku od Google platforme, ChatGPT nema mogućnost pretraživanja Interneta. Njegovo “znanje” se zasniva na informacijama koje su treneri unosili i zaključno je sa 2021. godinom. Razlikuje se od drugih chatbot-ova po tome što može da odgovori na dodatna pitanja u razgovoru, prizna svoje nedostatke, ispravi pogrešne izjave i da odbije neprikladne zahteve. Dok je GPT-3, kao i svaki program, predstavljao suštu hladnu izmena informacija, ChatGPT može da deluje gotovo kao saradnik s kojim korisnici mogu da izmene ideje. Doslovno, da vodi smislen razgovor. Prema proceni OpenAI-a, do 4. decembra 2022. ChatGPT je već imao preko milion korisnika i tako postao prava senzacija.

Kao što je već poznato, veštačka inteligencija ima potencijal da doprinese revolucionarnim otkrićima u okviru mnogih oblasti. Najočitiji primer je primena AI u astronomiji, gde donosi veliku korist zbog mogućnosti brzog i preciznog analiziranja velikih količina podataka dobijenih iz teleskopa, satelita i drugih instrumenata. AI algoritmi mogu brzo i efikasno obrađivati te podatke, identifikujući modele i trendove koji ne bi bili odmah vidljivi ljudima. Na taj način se postiže velika ušteda truda i vremena gde je krajnji rezultat bolje razumevanje pojava u kosmosu. 

Međutim, usprkos brojnim pozitivnim aspektima koje nosi ovakav razvoj tehnologije, krucijalno je naglasiti i stranu koja izaziva veliku brigu u naučnoj populaciji.

Primer razgovora

U slepom testiranju, ChatGPT je ocenjen prolaznom, C+ ocenom polaganjem ispita na univerzitetima u Minesoti i Pensilvaniji. Anketa koju je sproveo Nature časopis potvrđuje da mnogi profesori sada razmatraju mogućnost studentske zloupotrebe ChatGPT-a kako bi esejski položili ispite. Samo 20% ispitanika se susrelo sa ovakvim ponašanjem na svojim kursevima, ili je to svedočilo na svojim univerzitetima, ali oko 50% je izrazilo zabrinutost zbog razvoja sposobnosti ovog chatbot-a i očekuje da će se susresti sa navedenim problemom u narednoj godini.

Isto tako, prema preprintu objavljenom na serveru bioRxiv krajem decembra 2022. godine, ChatGPT može da napiše apstrakte naučnih radova takve da naučnici često ne mogu da ih prepoznaju. Iz tog razloga naučnici su podeljeni u vezi pozitivnog doprinosa ovog razvoja tehnologije nauci. Ovde nije u pitanju samo autentičnost informacija u takvim tekstovima, odnosno strah od plagijarizma, nego i njihova tačnost. Na svojoj web stranici, OpenAI priznaje da ponekad ChatGPT piše odgovore koji zvuče verodostojno, ali su netačni. Ovo ponašanje je uobičajeno kod velikih jezičkih modela i naziva se “halucinacijom”. Iz tog razloga razvijeno je nekoliko automatizovanih alata za otkrivanje sadržaja napisanog od strane chatbot-a, kao na primer GPT Detector. Paradoksalno je da će detekcija najnovijeg tehnološkog otkrića biti moguća samo razvojem novije tehnologije.

ChatGPT je već naveden kao koautor u nekoliko naučnih radova, što je naišlo na osudu akademika. U toku su rasprave o mestu takvih alata veštačke inteligencije u objavljenoj literaturi i da li ih je primereno navoditi kao koautore.

Matt Hodgkinson, menadžer za integritet istraživanja u UK Research Integrity Office u Londonu navodi da već postoje jasne smernice za navođenje autorstva koje znače da ChatGPT ne bi trebalo da bude naveden kao koautor. On smatra kako je jedna smernica da koautor mora dati "značajan naučni doprinos" radu - što može biti moguće sa alatima kao što je ChatGPT. Ali, takođe, mora imati i sposobnost da se složi da bude koautor i da preuzme odgovornost za istraživanje - ili barem za deo kojem je doprineo. On smatra da upravo ova druga smernica onemogućava navođenje AI kao koautora u naučnom radu. 

Alex Zhavoronkov, glavni izvršni direktor kompanije Insilico Medicine, koja se bavi istraživanjem lekova upotrebom AI izjavio je: "Definitivno bih se brinuo o zloupotrebi sistema u akademskom svetu, jer sada ljudi bez stručnosti u nekoj oblasti mogu pokušati da pišu naučne radove.” Ovaj naučnik je, takođe, naveo ChatGPT kao koautora u svom objavljenom radu gde opisuje prednosti i mane rapamicina, te na taj način pokazao praktičnu primenu chatbot-a u pisanju naučnog rada.

Finalno, postavlja se pitanje: gde bismo trebali podvući liniju kada je u pitanju veštačka inteligencija?

Iako AI algoritmi mogu biti veoma efikasni u analiziranju podataka i predviđanju, oni još uvek ne mogu zameniti ljudsku sposobnost da postavljaju pitanja, prave kreativne veze i kritički razmišljaju o podacima. Postoji rizik da će zavisnost od AI dovesti do smanjenja ljudske kreativnosti i znatiželje. Problem koji se često javlja kod mnogih eksperimentalnih AI alata, kao što su oni zasnovani na LLM-ima, jeste da imaju mnogo ograničenja koja nisu dovoljno razumljiva, ali koja bi mogla da dovedu, namerno ili nenamerno, do štetnih primena. Zato oni koji doprinose razvoju AI-a, trebaju da se angažuju u etičkim procesima kako bi osigurali odgovorno delovanje i objavljivanje AI alata. 

Izvori informacija:

1. https://doi.org/10.1038/s42256-022-00598-x
2. https://doi.org/10.1038/s41550-023-01891-4
3. https://doi.org/10.1038/d41586-023-00056-7
4. https://doi.org/10.1038/s42256-023-00613-9
5. https://doi.org/10.1038/d41586-022-04397-7
6. https://doi.org/10.1038/d41586-023-00107-z
7. https://doi.org/10.1007/s11019-023-10136-0
8. ChatGPT Generative Pre-trained Transformer & Zhavoronkov, A. (2022). Rapamycin in the
context of Pascal’s Wager: generative pre-trained transformer perspective. Oncoscience. 9.
 

 


Komentari

  • Baki said More
    Verovatno bi bilo zanimljivo pročitati... 3 sati ranije
  • Miroslav said More
    Verujem da ste svi neko poodavno neko... 4 dana ranije
  • Aleksandar Zorkić said More
    Poslao sam pet primedbi – odgovora na... 4 dana ranije
  • Miki said More
    A ja b' rek'o da će ipak 'Merikanci...... 5 dana ranije
  • Драган Танаскоски said More
    Neobjavljeni tekst je pisao čovek koji... 5 dana ranije

Foto...