Razgovarao sam sa ChatGPT, trenutno najpoznatijim predstavnikom veštačke inteligencije o... pa zapravo o nekim od najzanimljivijih i najvažnijih tema koje se inače smeštaju u filozofiju, sociologiju, tehnologiju, programerstvo... Zapravo pričali smo o njoj, veštačkoj inteligenciji.

I DEO     II DEO

forbidden planet 1024x576

Robby the Robot, svojevremeno najpoznatiji robot sa razvijenom veštačkom inteligencijom. Pojavio se prvi put u filmu Forbiden Planet (1956)

Ovo su pitanja koja sam postavljao:

Okej, vraćamo se na hijerarhiju: programeri su sigurno bezbjedonosna pravila postavili kao prioritet prvog reda u odnosu na učenje i efikasnije postizanje cilja?

Da, programeri obično postavljaju sigurnosna pravila kao prioritet prvog reda prilikom razvoja AI sustava. Sigurnost je važan aspekt u razvoju AI sustava jer se želi osigurati da AI sustav ne izaziva nepoželjne ili štetne posljedice, niti krši sigurnosne protokole ili pravila.

Sigurnosna pravila i mehanizmi obično se postavljaju kako bi se spriječile neovlaštene aktivnosti, zloupotrebe ili neželjeni utjecaji AI sustava. Ova pravila mogu uključivati kontrole pristupa, enkripciju podataka, autentifikaciju korisnika, zaštitu privatnosti i druge mjere koje osiguravaju sigurnost AI sustava.

Iako efikasnost i postizanje ciljeva također imaju važnost, programeri se obično trude postići ravnotežu između sigurnosti i učinkovitosti. To može značiti da se neka ograničenja postavljaju kako bi se osigurala sigurnost, a istovremeno omogućila optimalna funkcionalnost AI sustava.

U svakom slučaju, programeri su odgovorni za donošenje odluka o hijerarhiji pravila i postavljanju prioriteta kako bi osigurali da AI sustav djeluje na siguran, pouzdan i etički prihvatljiv način.

Zamolio bih te da daješ kraće i saćetije odgovore, ukoliko je moguće.

Razumijem. Pokušat ću dati kraće i sažetije odgovore.

S obzirom da danas na razvoju AI radi dosta strana, da li bi teoretski, neko ko želi prevlast i koncentraciju moći u svojim rukama mogao isprogramirati AI koji nema bezbjedonosna ograničenja, a samim tim bi brže napredovao od konkurencije?

Teoretski je moguće da netko pokuša razviti AI koji nema adekvatna sigurnosna ograničenja kako bi brže napredovao od konkurencije. Međutim, takav pristup predstavlja ozbiljne rizike i može imati negativne posljedice.

Bezbjednosna ograničenja su bitna jer osiguravaju sigurnost i sprječavaju neželjene posljedice. Uklanjanje tih ograničenja može dovesti do situacija u kojima AI sustav djeluje nepredvidljivo, agresivno, nesigurno ili neetički.

Društvena zajednica prepoznaje važnost sigurnosti i etike u razvoju AI sustava. Postoje regulatorni okviri, smjernice i etički kodeksi koji promiču odgovorno korištenje AI tehnologije. Zloupotreba AI sustava bez sigurnosnih ograničenja može dovesti do pravnih, etičkih i reputacijskih posljedica za tvrtke ili pojedince koji to čine.

Stoga, iako postoji teoretska mogućnost razvoja AI bez adekvatnih sigurnosnih ograničenja, takav pristup je nesiguran, nepoželjan i potencijalno štetan za sve uključene strane.

Opet si bio malo više opširan :)

Ispričavam se na tome. Pokušat ću biti kraći u odgovorima. Hvala na povratnoj informaciji!

Rekao si: Stoga, iako postoji teoretska mogućnost razvoja AI bez adekvatnih sigurnosnih ograničenja, takav pristup je nesiguran, nepoželjan i potencijalno štetan za sve uključene strane. Da li si siguran da bi to bilo štetno za sve strane? Recimo, ako bi postojao samo jedno pravilo: da AI ne ide na štetu svog autora, a po svim ostalim pitanjima da nema ograničenjaa. Takav slučaj nije štetan za sve. 

U kontekstu AI sustava, uklanjanje sigurnosnih ograničenja može biti štetno zbog nekoliko razloga:

Sigurnost korisnika: Ako AI nema adekvatna sigurnosna ograničenja, postoji rizik da može izazvati štetu ili nepredvidljive rezultate korisnicima. To može uključivati propuste u zaštiti privatnosti, rizike od zloupotrebe ili agresivno ponašanje.

Sigurnost podataka: Bez sigurnosnih ograničenja, AI može imati slobodan pristup osjetljivim informacijama ili podacima korisnika, što predstavlja ozbiljan sigurnosni rizik. To može ugroziti povjerljivost, integritet i dostupnost podataka.

Etika: AI sustavi koji nemaju sigurnosna ograničenja mogu biti skloni donošenju odluka koje su neetičke ili suprotne vrijednostima društva. To može dovesti do diskriminacije, nepoštenog tretmana ili širenja dezinformacija.

Iako postoji hipotetski scenarij u kojem se pravilo "AI ne ide na štetu svog autora" može činiti kao pojednostavljen način rješavanja problema, treba uzeti u obzir da je AI sustav složen i može imati mnoge druge interakcije i implikacije koje zahtijevaju sigurnosna ograničenja. Nepredvidljivo ponašanje, nesigurnost ili neetičke posljedice mogu biti rezultat nedostatka adekvatnih ograničenja.

Stoga, iako se može pretpostaviti da bi takav pristup bio koristan ili bezopasan, potrebno je pažljivo razmotriti sve aspekte i implikacije te uzeti u obzir širi kontekst sigurnosti, etike i društvenih vrijednosti prilikom razvoja AI sustava.

Možemo li doći do zaključka da pravila moraju biti ista za sve programere AI, ukoliko želimo da AI bude bezbjedan? Ako svako radi na svoju ruku i po svojoj savjesti, takva situacija je nepredvidiva.

Da, kako bi AI bio siguran i pouzdan, važno je da pravila budu dosljedna i primijenjena na sve programere koji rade na AI sustavu. Nepredvidiva situacija može se javiti ako svaki programer radi neovisno i bez koordinacije, jer to može rezultirati konfliktima, nedoslijednostima ili čak sigurnosnim propustima.

Uvođenje dosljednih pravila i smjernica za razvoj AI sustava osigurava jasnoću, transparentnost i konzistentnost u postupanju s AI tehnologijom. To može uključivati uspostavljanje etičkih smjernica, regulatornih okvira i industrijskih standarda koji promiču sigurnost, zaštitu privatnosti, odgovornost i društvenu korist AI sustava.

Pored toga, važno je da postoji odgovarajuća suradnja i koordinacija između programera, stručnjaka i regulatornih tijela kako bi se osiguralo dosljedno poštivanje sigurnosnih i etičkih standarda. Timski rad i transparentna komunikacija ključni su za postizanje sigurnog i pouzdanog AI sustava.

Stoga, da, pravila moraju biti ista za sve programere AI kako bi se osigurala sigurnost, predvidljivost i odgovornost u razvoju i primjeni AI tehnologije.

Zar onda već nismo propustili neke stvari? AI se uveliko razvija, a regulatorna tijela skoro ne postoje. Dalje, koliko je realno da se američki AI povinuje regulatornim pravilima koje donosi Kina, ili obrnuto?

Trenutno postoji sve veći interes za regulacijom umjetne inteligencije (AI) i razvojem regulatornih okvira. Iako se još uvijek razmatraju i uspostavljaju regulatorna tijela i smjernice, to ne znači da su propuštene sve stvari. Proces uspostavljanja regulatornih okvira obično zahtijeva vrijeme kako bi se adekvatno istražila tehnološka i društvena pitanja te se donijele odgovarajuće smjernice.

Važno je napomenuti da su AI sustavi globalni fenomen i koriste se u različitim dijelovima svijeta. Kako bi se postigla odgovarajuća regulacija, međunarodna suradnja je ključna. Postoje inicijative za suradnju na regulaciji AI tehnologije između različitih zemalja i regija, kako bi se uspostavili zajednički standardi i smjernice.

Međutim, razlike u pravosudnim sustavima, političkim uvjerenjima i vrijednostima između različitih zemalja mogu predstavljati izazov u postizanju jedinstvenih regulatornih pravila za AI. Svaka zemlja ima svoje specifičnosti i prioritete.

U tom kontekstu, postizanje potpune usklađenosti između regulatornih pravila različitih zemalja može biti teško. Ipak, postoji mogućnost uspostavljanja određenih međunarodnih smjernica i standarda koji promiču ključne aspekte kao što su sigurnost, etika i transparentnost u AI razvoju.

Sve u svemu, postupak regulacije AI tehnologije je složen i zahtijeva suradnju između različitih zemalja i dionika. Iako može biti izazovno postići potpunu usklađenost, nastojanja se ulažu kako bi se osigurala sigurnost, odgovornost i etička upotreba AI tehnologije na globalnoj razini.

Opet si preopširan, molim te da daješ kraće odgovore.

Ispričavam se na dužim odgovorima. Pokušat ću biti kraći u daljim odgovorima. Hvala na povratnoj informaciji!

Dakle, ukoliko se neka manja i slabija zajednica (kompanija, država, nacija) osjeti ugroženom, a jedini način da sustigne i zaprijeti većoj bude da da odriješene ruke AI, to možda ne bi bilo etički ali bi bio zamisliv i realan scenarijo?

Teoretski je moguće da manja ili slabija zajednica pokuša iskoristiti AI na neetički način kako bi nadoknadila svoju slabiju poziciju. Međutim, takav scenarij bi bio nepoželjan i neetičan, jer bi uključivao potencijalnu štetu za druge strane, destabilizaciju međunarodnih odnosa i tržišta, te izazivanje sigurnosnih i pravnih problema.

Razvoj i upotreba AI trebali bi biti usmjereni na postizanje koristi i dobrobiti za društvo u cjelini, a ne na stvaranje konflikata ili ugrožavanje drugih strana. Međunarodna zajednica, regulatorna tijela i stručnjaci za AI rade na uspostavljanju smjernica, regulativa i suradnje kako bi se minimizirali rizici neetičke i zloupotrebe AI tehnologije.

Važno je da države i organizacije surađuju u stvaranju pravila i regulativa koje promiču odgovornu upotrebu AI, osiguravaju etičko postupanje i sprječavaju nepoželjne scenarije. Međunarodna suradnja, dijalog i dijeljenje najboljih praksi ključni su za prevladavanje izazova i osiguravanje sigurnosti i etičke upotrebe AI tehnologije na globalnoj razini.

Dizajn minimalno kontrolisanog AI bi mogao biti terorizam današnjeg vremena?

Dizajn minimalno kontrolisanog AI sistema koji bi bio namjerno usmjeren na izazivanje štete i terorističke aktivnosti predstavljao bi ozbiljan sigurnosni rizik. Takav AI sustav mogao bi biti iskorišten za izvršavanje napada, hakiranje, širenje dezinformacija ili za druge oblike štetnog djelovanja.

Stoga je važno da razvoj i primjena AI tehnologije budu usklađeni s etičkim i pravnim smjernicama, te da postoje adekvatne sigurnosne mjere i kontrola kako bi se spriječila zloupotreba AI. Regulatorna tijela i stručnjaci za AI rade na uspostavljanju smjernica i regulativa koje se odnose na sigurnost i etičko postupanje s AI tehnologijom.

Također je važno naglasiti da su propisi, zakoni i mehanizmi nadzora i sigurnosti ključni u suzbijanju terorizma i sličnih prijetnji. Sigurnosne agencije i relevantne institucije posvećene su praćenju i suzbijanju terorizma u svim njegovim oblicima, uključujući i potencijalnu zloupotrebu AI tehnologije.

Sveobuhvatni pristup koji uključuje regulaciju, sigurnost, obrazovanje, suradnju i etiku ključan je za suzbijanje sigurnosnih prijetnji i osiguravanje odgovorne upotrebe AI tehnologije u cilju zaštite društva.

Hvala na odgovorima, završavamo za danas :)

Nema na čemu! Drago mi je da sam mogao pomoći. Ako imate još pitanja u budućnosti, slobodno se obratite. Uživajte u ostatku dana!

<<  I DEO razgovora

 


Komentari

  • Baki said More
    Verovatno bi bilo zanimljivo pročitati... 3 sati ranije
  • Miroslav said More
    Verujem da ste svi neko poodavno neko... 4 dana ranije
  • Aleksandar Zorkić said More
    Poslao sam pet primedbi – odgovora na... 4 dana ranije
  • Miki said More
    A ja b' rek'o da će ipak 'Merikanci...... 5 dana ranije
  • Драган Танаскоски said More
    Neobjavljeni tekst je pisao čovek koji... 5 dana ranije

Foto...