Gradimo distopiju samo da bi ljudi kliktali na reklame

We're building a dystopia just to make people click on ads

 

Tufekci120

Zeynep Tufekci

Tehnosociolog

Tufekci postavlja velika pitanja o našim društvima i našim životima, kako se i algoritmi i digitalna povezanost šire.

  

Mi pravimo distopiju koju pokreće veštačka inteligencija, klik po klik, kaže tehno-sociološkinja Zajnep Tufekči. U govoru koji će vam otvoriti oči, ona u detalje otkriva kako isti algoritmi koje kompanije kao što su Fejsbuk, Gugl i Amazon koriste kako bi vas navele da kliknete na reklame se takođe koriste kako biste dobili pristup informacijama o političkoj i društvenoj sceni. No, mašine ovde nisu prava pretnja. Ono što treba da razumemo je način na koji moćnici koriste veštačku inteligenciju da bi nas kontrolisali - i šta mi možemo da učinimo povodom toga.

Uključite / isključite prevod dole desno: strelica

TedDistopija 1

TedDistopija 2

TedDistopija 3

 

  

  

 
 
 Transkript 
 

Ivana Korom, Translator

Aleksandar Korom, Reviewer

00:04

Kada ljudi pričaju o strahu od veštačke inteligencije, veoma često se pozivaju na slike humanoidnih robota koji divljaju. Znate? Terminator? Znate, o tome bi možda i trebalo da razmišljamo, ali to je daleka pretnja. Ili se plašimo digitalnog nadzora putem metafora iz prošlosti. "1984" Džordža Orvela ponovo se našla na listi bestselera. To je odlična knjiga, ali ne i tačan opis distopije za 21. vek. Ono čega bi najviše trebalo da se plašimo nije ono što veštačka inteligencija može da nam uradi sama od sebe, nego kako će moćnici koristiti veštačku inteligenciju kako bi nas kontrolisali i manipulisali nama na neki nov, ponekad diskretan, suptilan i neočekivan način. Tehnologije koje će u skorijoj budućnosti početi da prete našoj slobodi i našem dostojanstvu većinom razvijaju velike kompanije koje se bave prikupljanjem i prodajom naših informacija i naše pažnje oglašivačima i drugima: Fejsbuk, Gugl, Amazon, Alibaba, Tencent.

01:17

Sad, i veštačka inteligencija je postala potpora njihovog poslovanja. I iako se možda čini da će veštačka inteligencija postati trend odmah posle internet reklama, nije tako. To nije ista kategorija. To je potpuno drugi svet koji ima veliki potencijal. To može ubrzati naše razumevanje mnogih naučnih oblasti i istraživanja. Ali da parafraziram poznatog holivudkog filozofa: "Ogroman potencijal prati i ogroman rizik."

01:52

Hajde da se vratimo na osnovu naših digitalnih života - internet reklame. Mi ih nekako odbacujemo, zar ne? Čine nam se banalnim, uzaludnim. Svi smo doživeli da se osećamo kao da nas neko posmatra na internetu zahvaljujući reklami baziranoj na onome što smo tražili ili pročitali. Znate kako ide, jedan dan tražite čizme i narednih neoliko dana te čizme vas prate kuda god da odete. Čak i nakon što se povinujete i kupite ih, one vas i dalje prate svuda okolo. Mi smo nekako uvučeni u taj tip osnovne, jeftine manipulacije. Zakolutamo očima i pomislimo: "Znate šta? Ovako nešto ne može da funkcioniše." Osim što na internetu digitalne tehnologije nisu samo reklame. Da bismo to razumeli, uzmimo primer iz fizičkog sveta. Znate kako blizu kase u supermarketu slatkiši i žvake uvek stoje u nivou očiju male dece? To je dizajnirano da bi deca počela da se prenemažu baš kada roditelji treba da plate račun. E to vam je arhitektura ubeđivanja. Nije lepo, ali funkcioniše. Zato to vidite u svakom supermarketu. Sada, u fizičkom svetu, takva arhitektura ubeđivanja ima svoje granice, jer pored kase možete da stavite samo određen broj stvari, zar ne? A slatkiši i žvake isti su za svakoga iako ovo obično funkcioniše samo kod ljudi koji vode male kenjkave osobe sa sobom. U fizičkom svetu živimo sa ovakvim ograničenjima.

03:25

U digitalnom svetu, doduše, mogu da se izgrade milijarde objekata po arhitekturi ubeđivanja i oni mogu da targetiraju, zaključuju, razumeju i mogu da budu raspoređeni prema pojedincima jedan po jedan tako što će razumevati naše slabosti, i mogu da se pošalju na svačiji privatni ekran tako da ne budu svima vidljivi. I tu leži ta razlika. To je samo jedna od osnovnih stvari koje veštačka inteligencija može da uradi.

03:56

Sada, uzmimo jedan primer. Recimo da želite da prodate avionske karte za Vegas. U starom svetu mogli biste se setiti neke demografije koju treba da targetirate na osnovu iskustva i onoga što možete da pogodite. Mogli biste da probate da ih reklamirate, recimo, muškarcima od 25 do 35 godina ili ljudima koji imaju visok limit na svojim kreditnim karticama, ili parovima u penziji. Zar ne? To biste uradili u prošlosti.

04:19

Zahvaljujući velikoj količini podataka i mašinskom učenju, to tako više ne funkcioniše. Da biste to sada zamislili, setite se svih onih podataka o vama koje poseduje Fejsbuk: svaki status koji ste ikada napisali, svaki razgovor na Mesindžeru, svako mesto sa kojeg ste se ulogovali, sve vaše fotografije koje ste tamo postavili. Čak i kada počnete da pišete nešto pa se predomislite i obrišete, Fejsbuk čuva te informacije i takođe ih analizira. Sve više pokušava da vas poveže sa informacijama koje nisu na internetu. Uz to i kupuje veliki broj informacija od data brokera. To može biti sve, od vaših finansijskih izveštaja, sve do dobrog dela istorije u vašem pretraživaču. U SAD se takve informacije rutinski prikupljaju, sređuju i prodaju. U Evropi postoje čvršća pravila.

05:15

Tako se dešava da mešanjem svih tih informacija ovi algoritmi mašinskog učenja - jer tako se zovu: algoritmi za učenje - oni pokušavaju da razumeju karakteristike ljudi koji su ranije kupili karte za Vegas. Kada ovo nauče od postojećih informacija takođe nauče kako isto da primene na drugim ljudima. Pa ako im se predstavi nova osoba, mogu da je svrstaju među one koje će verovatno kupiti karte za Vegas ili među one koji neće. Dobro. Vi sada mislite: "Ponuda za karte za Vegas. Ignorisaću to." Ali problem ne leži u tome. Problem je što mi više ne razumemo kako zaista ti algoritmi funkcionišu. Ne razumemo kako oni prave tu kategorizaciju. Njihove grandiozne metrike, hiljade redova i kolona, možda milione redova i kolona, a ne čak ni programeri, ili bilo ko drugi ko radi na tome, čak i ako poseduju sve informacije ne razumeju kako tačno oni rade ništa više od onoga što vi znate o onome o čemu ja trenutno razmišljam čak i ako biste videli poprečni presek mog mozga. Čini se da mi više ne programiramo, mi gajimo inteligenciju koju istinski ne razumemo.

06:44

A ove stvari funkcionišu samo ako postoji ogromna količina podataka, tako da oni takođe ohrabruju teški nadzor nad svima nama kako bi algoritmi mašinskog učenja funkcionisali. Zbog toga Fejsbuk želi da prikupi sve moguće informacije o vama. Da bi algoritmi radili bolje.

07:00

Hajde da se još malo poigramo sa primerom o Vegasu. Šta ako je sistem koji ne razumemo shvatio da je lakše prodati karte za Vegas ljudima koji su bipolarni i koji su na pragu manične faze. Ovakvi ljudi prelako troše novac i imaju tendenciju da postanu kompulsivni kockari. Oni to mogu da urade, a da vi nemate pojma da su baš te informacije prikupljali. Jednom sam dala ovaj primer grupi kompjuterskih naučnika da bi mi, nakon toga, jedan od njih prišao. Nešto ga je mučilo i rekao je: "Zato nisam mogao da ga objavim." A ja sam ga pitala: "Šta niste mogli da objavite?" Pokušao je da ustanovi da li zatista može da se utvrdi početak u manične faze na osnovu postova na društvenim mrežama pre nego što se pojave klinički simptomi, i uspelo mu je, veoma mu je uspelo, a da on nije imao pojma kako je uspelo i kakve informacije su se prikupljale.

07:58

No, problem se neće rešiti ukoliko on to ne objavi, jer već postoje kompanije koje razvijaju ovakvu tehnologiju, i mnogo je stvari sada dostupno. To više nije tako komplikovano.

08:13

Da li vam se ikada desilo da odete na Jutjub da pogledate jedan video i sat vremena kasnije pogledali ste već njih 27? Znate kako Jutjub ima onu kolonu sa desne strane koja kaže "Sledeće..." pa onda automatski pusti nešto? To je algoritam koji pokazuje ono za šta misli da bi moglo da vas interesuje, a da možda sami nećete naći. To nije živi urednik. To rade algoritmi. Oni prikupljaju sve ono što ste gledali i ono što su gledali ljudi poput vas, i zaključuje da bi to trebalo da bude ono što vas interesuje, ono čega želite još, pa vam pokazuje još toga. To deluje kao benigna i korisna odlika, ali ipak nije.

08:53

Tokom 2016. sam posećivala mitinge tadašnjeg kandidata Donalda Trampa kako bih kao naučnik izučavala pokrete koji ga podržavaju. Ja se bavim društvenim pokretima, tako da sam i njih izučavala. I onda sam htela da napišem nešto o jednom od njegovih mitinga, pa sam ga nekoliko puta pogledala na Jutjubu. Jutjub je onda počeo da mi preporučuje i automatski pušta video snimke belačkih supremacističkih grupa po rastućem redosledu ekstremizma. Ako bih pogledala jedan, spremio bi mi jedan još ekstremniji pa bi mi ga pustio automatski, takođe. Ako biste gledali sadržaj vezan za Hilari Klinton ili Bernija Sandersa, Jutjub bi vam preporučio i automatski puštao snimke o zaveri levice, i od toga sve odlazi nizbrdo.

09:43

Pa, mogli biste pomisliti, ovo je politika, ali nije. To nema veze sa politikom. To je samo algoritam u pokušaju da prokljuvi ljudsko ponašanje. Jednom sam na Jutjubu gledala video o vegetarijanstvu, pa mi je Jutjub preporučio i automatski pustio video o tome kako je biti vegan. Kao da ništa nije dovoljno hardkor za Jutjub.

10:04

(Smeh)

10:05

Pa, o čemu se radi? Jutjubov algoritam je vlasnički, ali evo šta ja mislim o tome. Algoritam je shvatio da ako možete da namamite ljude da misle da možete da im pokažete nešto još više hardkor verovatnije je da će ostati na sajtu i gledati video za videom, kao da propadaju kroz zečiju rupu, dok im Gugl servira reklame. Sad, dok god nikoga ne brine etika prodavnice, ovi sajtovi mogu da profilišu ljude koji mrze Jevreje, koji misle da su Jevreji paraziti, i koji poseduju tako eksplicitni antisemitski sadržaj i dopuštaju vam da ih vaše reklame targetiraju. Oni takođe mogu da mobilizuju algoritme ne bi li vam našli slične publike, ljude koji ne poseduju tako eksplicitni antisemitski sadržaj na svojim profilima ali koje algoritam prepoznaje kao podložne takvim porukama, i dopušta vam da i njih targetirate. Sad, ovo će možda zvučati kao malo verovatan primer, ali je realan. ProPublika je istraživala ovo i saznala da to zaista možete da uradite na Fejsbuku i da će vam Fejsbuk ljubazno ponuditi još predloga kako da proširite auditorijum. Bazfid je isto pokušao sa Guglom i veoma brzo su shvatili da, naravno, isto možete da uradite i na Guglu. A nije bilo ni skupo. Reporter ProPublike potrošio je oko 30 dolara na targetiranje ove kategorije.

11:54

Tako je prošle godine menadžer društvenih stranica Donalda Trampa otkrio da su koristili Fejsbukove mračne postove da demobilišu ljude, ne da ih navedu, već da ih ubede da ne glasaju uopšte. A da bi to uradili, targetirali su posebno, na primer, muškarce Afroamerikance iz ključnih gradova poput Filadelfije, i sada ću vam pročitati tačno šta je on rekao. Citiram:

12:21

Koristili su "privatne postove čije preglede kontroliše kampanja kako bi ih videli samo oni ljudi za koje želimo da ih vide. Mi smo to modelovali. To će dramatično uticati na njenu sposobnost da odbije ove ljude."

12:37

Šta je u ovim mračnim postovima? Mi nemamo pojma. Fejsbuk neće da nam kaže.

12:43

To znači da Fejsbuk postove vaših prijatelja ili stranica koje pratite raspoređuje po algoritmu. Ne pokazuje vam sve hronološki. Raspored utvrđuje po tome šta algoritam misli da će vas namamiti da što duže ostanete na sajtu.

13:02

Sve to ima brojne posledice. Možda mislite da vas neko ignoriše na Fejsbuku, a zapravo im Fejsbuk nikada ne pokazuje vaše postove. Algoritam daje prednost nekima dok druge ukopava.

13:20

Eksperimenti pokazuju da ono što algoritam odabere da vam pokaže može da utiče na vaše emocije. Ali, to nije sve. Takođe utiče na političko ponašanje. 2010. godine, usred srednjoročnih izbora, Fejsbuk je napravio eksperiment nad 61 milionom ljudi u SAD koji je kasnije obelodanjen. Neki ljudi su videli: "Danas su izbori", jednostavnija verzija, dok je nekima puštena ona pomalo izmenjena, sa onim malim slikama svih vaših prijateljima koji su kliknuli na "Glasao sam". Mala je razlika. OK? Dakle, samo su se slike razlikovale, i taj post pušten samo jednom odbio je dodatnih 34.000 glasača na tim izborima, sudeći po ovom istraživanju a što je potvrđeno glasačkim listićima. Slučajnost? Nije. Jer su 2012. ponovili isti eksperiment. I taj put ta građanska poruka viđena samo jednom odbila je dodatnih 270.000 glasača. Radi poređenja, rezultat predsedničkih izbora u SAD 2016. godine odredilo je oko 100.000 glasova. Sad, Fejsbuk takođe može da vrlo lako da zaključi koji su vaši politički stavovi čak i ako ih nikada niste otvoreno pokazali na ovom sajtu. Jasno? To ovi algoritmi mogu vrlo lako da urade. Šta ako platforma koja ima toliku moć odluči da izostavi pristalice jednog kandidata u odnosu na druge? Kako bismo ikada saznali za to?

15:17

Počeli smo nečim čini se bezazlenim - internet reklame nas prate svuda - a mi smo otišli negde drugde. Kao javnost i kao građani, mi više ne znamo da li vidimo iste informacije niti šta bilo ko drugi vidi, a bez zajedničke baze informacija, malo po malo, javna debata postaje nemoguća, a mi smo još samo u početnoj fazi ovoga. Ovi algoritmi mogu vrlo lako da izvedu zaključak o stvarima poput etničke pripadnosti ljudi, religiji i političkim stavovima, ličnim osobinama, inteligenciji, sreći, zavisnosti o supstancama, separaciji roditelja, polu i rodu, samo po lajkovima na Fejsbuku. Ovi algoritmi mogu identifikovati demonstrante čak i ako su njihova lica delimično skrivena. Ovakvi algoritmi mogu biti sposobni da otkriju seksualnu orijentaciju ljudi samo po njihovnim slikama na profilma za traženje partnera.

16:25

Ovo su verovatne pretpostavke, što znači da neće biti 100 posto tačne, ali ne vidim moćnike kako odbijaju iskušenju da iskoriste ove tehnologije samo zato što postoje neki lažni pozitivi, koje će svakako napraviti sasvim novi sloj problema. Zamislite šta država može da uradi sa ogromnom količinom podataka koje poseduje o svojim građanima. Kina već koristi tehnologiju prepoznavanja lica za identifikaciju i hapšenje ljudi. U ovome je tragedija: pravimo infrastrukturu nadzorskog autoritarizma samo da bismo naveli ljude da klikću na reklame. A ovo neće biti orvelovski autoritatizam. Ovo nije "1984". Sada, ako autoritarizam otvoreno koristi strah da bi nas terorisao, svi bismo bili uplašeni, ali bismo ga prepoznali, mrzeli bismo ga i oduprli mu se. Ali, ako ove algoritme koriste moćnici da nas posmatraju iz prikrajka, da sude o nama i da nas gurkaju, da predvide i identifikuju problematične i buntovnike, da što više razviju arhitekturu ubeđivanja i da manipulišu pojedincima jednim za drugim koristeći njihove lične slabosti i ranjivosti, a ako to rade na taj način kroz naše privatne ekrane tako da mi ni ne znamo šta naši sugrađani i komšije vide, takav autoritarizam će nas uhvatiti kao u paukovu mrežu i možda nećemo ni znati da smo u njoj.

18:13

Dakle, Fejsbukov tržišni kapital se približava polovini biliona dolara. To je zato što odlično funkcioniše kao arhitektura ubeđivanja. Ali, struktura te arhitekture je ista bez obzira da li prodajete cipele ili političke stavove. Algoritam ne poznaje razliku. Isti oni algoritmi koji se koriste nad nama da bi nas učinili manje otpornim na reklame takođe organizuju protok političkih, ličnih i društvenih informacija do nas, i to je ono što mora da se promeni.

18:53

Nemojte pogrešno da me shvatite, digitalne platforme koristimo jer su nam veoma dragocene. Ja koristim Fejsbuk da budem u kontaktu sa prijatejima i porodicom širom sveta. Pisala sam o tome da su društvene mreže od ključne važnosti za društvene pokrete. Izučavala sam kako ove tehnologije mogu da budu korišćene širom sveta kako bi se izbegla cenzura. Ali, to ne znači da su ljudi koji vode Fejsbuk ili Gugl zli, niti da namerno pokušavaju da još više razdvoje zemlju ili svet i da podržavaju ekstremizam. Pročitala sam mnogo dobronamernih izjava ovih ljudi. Ali nije važna namera ili izjave koje daju ljudi iz tehnologije, nego strukture i modeli poslovanja koje grade. To je srž problema. Ili je Fejsbuk ogromna prevara od pola biliona dolara i oglasi ne rade na sajtu, ne funkcioniše kao arhitektura ubeđivanja, ili je njegova moć uticaja veoma zabrinjavajuća. Ili jedno ili drugo. Slično je i sa Guglom.

20:16

Šta možemo da uradimo? Ovo mora de se promeni. Ne mogu da ponudim jednostavan recept, jer moramo da restrukturišemo ceo način na koji digitalna tehnologija radi. Sve od načina na koji se tehnologija razvija to načina na koji su motivacija, ekonomija i drugo utkani u sistem. Moramo da se suočimo i pokušamo da se izborimo sa nedostatkom transparentnosti koji stvaraju zaštićeni algoritmi, strukturalnim izazovom razumljivosti mašinskog učenja, svim ovim nasumičnim podacima koji se o nama prikupljaju. Pred nama je veliki zadatak. Moramo da upregnemo našu tehnologiju, našu kreativnost, i da, našu politiku kako bismo izgradili veštačku inteligenciju koja nas podržava u našim humanim ciljevima ali je i ograničena našim humanim vrednostima. Razumem da ovo neće biti lako. Možda se čak ni ne slažemo šta ti termini znače. Ali ako ozbiljno shvatimo kako funkcionišu ovi sistemi od kojih toliko zavisimo, ne vidim kako možemo da odložimo taj razgovor. Ove strukture organizuju naše funkcionisanje i one kontrolišu šta možemo i šta ne možemo da uradimo. I mnoge od ovih platformi koje finansiraju reklame, one se hvale da su besplatne. U ovom kontekstu, to znači da smo mi proizvod koji se prodaje. Potrebna nam je digitalna ekonomija gde naši podaci i naša pažnja nisu na prodaju onom vladaru ili demagogu koji naviše plati.

22:14

(Aplauz)

22:21

Da se vratim onoj holivudskoj parafrazi, mi želimo da izuzetan potencijal veštačke inteligencije i digitalne tehnologije procveta, ali za to moramo da se suočimo sa izuzetnom opasnošću, otvorenih očiju i sada.

22:39

Hvala vam.

22:41

(Aplauz)

 


Komentari

  • Baki said More
    “Zabavna činjenica”. Ideja da... 2 dana ranije
  • Željko Kovačević said More
    Sjajni intervju, pravo uživanje. Jako... 4 dana ranije
  • Željko Kovačević said More
    Željo Perić wrote:
    Šta Vas je navelo da napišete ovako...
    4 dana ranije
  • Slavko said More
    Nije mi jasno zašto se Bubnjević javno... 4 dana ranije
  • yagodinac said More
    Voleo bih da, nakon gostovanja... 6 dana ranije

Foto...