Nakon što su bivši i sadašnji zaposleni u OpenAI-u (kompaniji koja je napravila ChatGPT) objavili otvoreno pismo u kojem tvrde da su ućutkivani zbog postavljanja bezbednosnih pitanja, jedan od potpisnika pisma je dao još strašnije predviđanje.

Upozorenje je dao i Centar za AI bezbednost, neprofitna organizacija. „Ublažavanje rizika od našeg izumiranja uzrokovano od AI trebalo bi da bude globalni prioritet pored drugih društvenih rizika, kao što su pandemije i nuklearni rat“. Otvoreno pismo je potpisalo više od 350 rukovodilaca, istraživača i inženjera koji rade u AI [1].

U intervjuu za The New York Times, bivši istraživač u OpenAI Daniel Kokotajlo je izjavio da su šanse da će AI uništiti ili katastrofalno naškoditi čovečanstvu veće od bacanja kovanice, tj. veće od 50%. Optužio je kompaniju da ignoriše ogroman rizike koje predstavlja opšta veštačka inteligencija (AGI) jer su donosioci odluka oduševljeni njenim mogućnostima AI [2].

DT1
Slika 1. Da li nam preti uništenje od AI, koja će ući u svaku poru ljudskog društva?

Kokotajlova najoštrija tvrdnja je da je šansa da će veštačka inteligencija uništiti čovečanstvo oko 70% — šanse koje ne biste prihvatili ni za jedan negativan veliki životni događaj, ali da OpenAI i drugi itekako napreduju. „Bezobzirno se utrkuju ko će biti prvi“ rekao je Kokotajlo.

31-godišnji Kokotajlo je rekao da je, nakon što se pridružio OpenAI-u 2022. i od njega zatraženo da predvidi napredak tehnologije, postao je uveren ne samo da će AGI biti dosegnut do 2027. godine, već da postoji velika verovatnoća da će katastrofalno naškoditi ljudima ili čak uništilo čovečanstvo.

Kao što je navedeno u otvorenom pismu, Kokotajlo i njegovi saradnici — što uključuje bivše i sadašnje zaposlene u Google DeepMind i Anthropicu (glavni investitor je Amazon), kao i Džefri Hinton, takozvani „Kum veštačke inteligencije“ koji je napustio Google prošle godine zbog slične zabrinutosti.

Kokotajlo je postao toliko ubeđen da veštačka inteligencija predstavlja ogromne rizike za čovečanstvo da je na kraju lično pozvao izvršnog direktora OpenAI Sema Altmana da ga upozori da kompanija treba da se „okrene ka bezbednosti“ i da provede više vremena na implementaciji zaštitnih ograda kako bi se vladala tehnologijom, a ne da nastavi da je činimo pametnijom. Činilo se da se Altman, prema pričanju bivšeg zaposlenog, u to vreme slagao sa njim, ali vremenom je to to nestalo.

Kokotajlo je napustio firmu u aprilu, rekavši svom timu u mejlu da je „izgubio poverenje da će se OpenAI ponašati odgovorno“ dok nastavlja u pokušajima da napravi veštačku inteligenciju skoro na nivou čoveka.„Svet nije spreman, a mi nismo spremni“, napisao je on u svom mejlu, koji je dostavljen New York Timesu. 

Na upozorenja velikih imena i ovakvih zastrašujućih predviđanja, OpenAI odgovara: „Ponosni smo na našu reputaciju koja pruža najsposobnije i najsigurnije sisteme veštačke inteligencije i verujemo u naš naučni pristup rešavanju rizika. Slažemo se da je rigorozna debata ključna s obzirom na značaj ove tehnologije i nastavićemo da sarađujemo sa vladama, civilnim društvom i drugim zajednicama širom sveta. To je takođe razlog zašto imamo načina da zaposleni izraze svoju zabrinutost, uključujući anonimnu telefonsku liniju za integritet i Komitet za bezbednost i bezbednost koji predvode članovi našeg odbora i lideri za bezbednost iz kompanije“.

DT2
Slika 2. Da li će posle tragičnih događaja i velikog izumiranja čovek doći do spoznaje da treba da živi u svetu bez robata i veštačke inteligencije.

Šta možemo zaključiti? Ako toliki broj strućnih ljudi za AI upozorava, upozorenje treba shvatiti ozbiljno. Ono što u upozorenje nedostaje su smernice kako bi do katastrofe moglo da dođe. Da li:

- predajom nuklearnog arsenala na upravljanje AI
- kontrolom i razvojem bioloških i hemijskih oružija od strane AI
- integracijom AI u sve pore društva (proizvodnja, saobraćaj, obrazovanje, zdravstvo...)
- nestajanjem potrebe za ljudskim radom

Spisak se sigurno može proširiti. Svaka navedena stavka nosi svoje rezike, jer može doći do njenog kolapsa i do katastrofalnih posledica. Ostaje nam da se nadamo da posledice ne budu teške i da budu na nauk kako se obezbediti od istih ili sličnih nemilih događaja.

Ili će možda doći dan, kako je opisano u glavnim SF delima (Zadužbina, Dina...), veliki rat između čoveka i mašina, nakon koga su zauvek zabranjeni roboti i veštačka inteligencija.

Izvori:

[1] https://www.safe.ai/work/statement-on-ai-risk

[2] https://futurism.com/the-byte/openai-insider-70-percent-doom

 


Komentari

  • Miroslav said More
    U svakom slučaju biće gore pre kineza... 1 dan ranije
  • Драган Танаскоски said More
    Ako bude 2028. god. to će biti fantastično. 1 dan ranije
  • Aleksandar Zorkić said More
    Što da ne. Ako postoje i to takvi kakvi... 2 dana ranije
  • Željko Perić said More
    Zdravo :D
    imam jedno pitanje na ovu... 4 dana ranije
  • Baki said More
    Dobar izbor. Ideja filma nije nova, ali... 6 dana ranije

Foto...