Download as pdf or txt
Download as pdf or txt
You are on page 1of 6

Cécile Puyhardy

KAKVA PRAVA TREBA


DA IMAJU ROBOTI?
Sa razvojem veštačke inteligencije, roboti sve više postaju slični ljudima. Da li bi
stoga trebalo da postoje „prava robota“, koja će ih štititi od ljudi?

Ruski pisac naučne-fantastike Isak Asimov je 1942. godine sastavio Tri zakona robotike:
1) Robot ne sme naškoditi čoveku ili svojom pasivnošću dopustiti da se čoveku naškodi;
2) Robot mora slušati ljudske naredbe, osim kad su one u suprotnosti sa prvim zakonom;
3) Robot treba da štiti svoj integritet, osim kad je to u suprotnosti sa prvim ili drugim
zakonom.

1
Ove odredbe već 75 godina inspirišu istraživanja i razmišljanja o pravima robota. Štaviše,
uključena su i u prvu Etičku povelju za robote, koju je sastavila Južna Koreja 2007. godine.
Međutim, zakoni Isaka Asimova danas izgledaju previše simplistički i zastarelo, jer su
pisani u odnosu na ljude a ne u odnosu na robote. Etika i pravā mašina danas idu mnogo
dalje. Roboti sve više postaju slični ljudima, kako u inteligenciji tako i u izgledu, pa neki
istraživači digitalne tehnologije smatraju da je vreme da im se da status – koji trenutno
nemaju. Holandski stručnjak za kompjuterske nauke Ronald Sibes [Ronald Siebes] kaže:
„Roboti počinju da liče na ljude do te mere da je potrebno da razmišljamo i o tome kako
da ih zaštitimo, na isti način na koji štitimo ljude.“

Koja su to formalna prava koja su nam potrebna


kako bismo kontrolisali korišćenje veštačke
inteligencije?

„Robot je neidentifikovani pravni objekat“, ističe Alen Bensusan [Alain Bensoussan],


advokat koji se bavi pravima robota. „Što je više mašina nezavisna od svog vlasnika, to
više zaslužuje da ima ljudska prava. Ja nisam odgovoran za moja kola, koja mogu da se
odvezu do Tuluza, na isti način na koji sam odgovoran za moj toster“, objasnio je u
razgovoru objavljenom u francuskom nedeljniku L’Express aprila 2015. godine.

L’Atelier je već pisao o tome kako je sve izvesnije da će roboti početi da igraju ulogu naših
saputnika u svakodnevnom životu. Oni danas već imaju sposobnost da učestvuju u
razgovoru i iskazuju „veštačku empatiju“, objasnio je francuski psihoanalitičar i psihijatar
Serž Tiseron [Serge Tisseron] u januarskom razgovoru za L’Atelier. To što su u mogućnosti
da prepoznaju ton našeg glasa i našu mimiku još ih više približava nama i kako je
inženjerka Nela Votson [Nell Watson] rekla u odgovoru na jedno od pitanja na konferenciji
Next Web: „ [...] biće vrlo teško izbeći da se emotivno vežemo za njih ili da ih zavolimo“.

2
Ona smatra da će ljudi uskoro početi da sa robotima ostvaruju sličnu vezu koju imaju sa
kućnim ljubimcima. Kao što postoje prava životinja i kao što se okrutnost prema
životinjama zakonski kažnjava, neko bi mogao da tvrdi da i roboti treba da imaju prava
koja sprečavaju loše ophođenje prema robotima, kao i druge vrste zloupotreba.

Advokatica Mjurijel Kaen [Murielle Cahen] na svom blogu predlaže da bi „fizički napad
na telo robota trebalo bi zakonom sankcionisati, ne u cilju izbegavanja same materijalne
štete, već u cilju očuvanja ljudskih osećanja i održavanja interesa našeg društva“.

Jasno je da neograničena kontrola ljudi nad mašinama može dovesti do raznih ekscesa, kao
što je korišćenje mašina u zlonamerne svrhe. Veštačka inteligencija je, na primer, sposobna
da analizira osobu, generiše profil i da posle tu osobu prati. To bi se moglo zloupotrebiti
ako bi veštačkoj inteligenciji neko naredio da traži lozinke prema osnovnim podacima neke
osobe – kao što je datum rođenja, koji je najčešća osnova za lozinke. Moglo bi se takođe

3
desiti da robot primi lažne informacije koje bi potom preneo drugom robotu. Prevare i lažna
dokumenta postaće zajednička valuta u bliskoj budućnosti, koja će, kako predviđa Nela
Votson, „ohrabriti usvajanje tehnologije kao što je blokčejn, koju je jako teško lažirati“.
Štaviše, ako želimo da se roboti ponašaju odgovorno, moramo ih priznati kao ljude,
predlaže Votsonova.

U osnovi, prava robota će morati da ustanove etičke norme u relevantnim oblastima delanja
i utvrde nivo autonomije robota u donošenju odluka. Da li, na primer, robot ima pravo da
kaže „ne“, ili mora da uradi sve i svašta što ljudsko biće može da mu zatraži? Šta se dešava
ako dete obuči robota da se igra na ulici, ili ako pijani vozač hoće da robot preuzme volan?
„Ako robot treba da bude efikasan sluga onda mora da mu bude omogućeno da kaže ‘ne’“
ističe Nela Votson. Problem samoodbrane izvodi se upravo iz toga da li robot ima pravo
na nju? Ako je zadatak robota da štiti ljudsko biće ili neku robu, da li on može da ide dotle
da upotrebi smrtonosnu silu? Google je nedavno najavio da namerava da kreira „isključi“
dugme na veštačkoj inteligenciji, što nas uvodi na minsko polje kada je u pitanju korišćenje
veštačke inteligencije. Pod kojim uslovima bi vlasnici – ili oni koji nisu vlasnici – mogli
da koriste to dugme? Da li bi robot imao pravo da zaustavi čoveka da ga deaktivira?

Ovo su teška pitanja koja, čini se, opravdavaju ustanovljenje prava robota danas.
Psihoanalitičar Serž Tiseron je publici na konferenciji Next Web rekao: „Ono oko čega se
brinem jesto da danas ne posvećujemo dovoljno pažnje kreiranju pravnog i obrazovnog
okvira. Naučni progres je neizbežan. Moramo već sada da razmišljamo o obrazovnim i
regulatornim referentnim tačkama. Ne smemo čekati da roboti već budu prisutni kako
bismo počeli da razmišljamo o tome kako da njima upravljamo.“ Ronald Sibes dodaje:
„Pošto današnji robot može da razume nas, zašto se mi ne bismo stavili na mesto robota?“

4
Robotska „etika“: problematičan koncept

Prvi korak je definicija primene etičkog polja kod robota. Nekoliko komiteta već radi na
tome: Francuski nacionalni centar za naučna istraživanja (CNRS) i CERNA – francuska
organizacija oformljena kako bi se pozabavila etikom naučnih istraživanja i digitalnih
tehnologija, RoboLaw projekat Evropske unije, kao i Google i OpenEth – „mehanizam za
etičko objašnjavanje“ koji za cilj ima da kraudsorsuje etičku heuristiku za autonomne
sisteme – na svetskom nivou.

Nela Votson, koosnivačica OpenEth-a, smatra da je neophodno da veštačka inteligencija


poprimi etiku biznisa i privatnosti. „Mašina mora da poštuje želje čoveka, da bude
transparentna, a da istovremeno poštuje privatnost. Ona mora da bude u stanju da
indentifikuje informacije koje njen korisnik ne želi da obelodani, na primer, zdravstvene
ili finansijske podatke,“ izjavila je na konferenciji. Mnogi istraživači se slažu po pitanju
transparentnosti: robot ne bi trebalo da obmanjuje svoje korisnike, već treba da ih otvoreno
informiše o postupcima koje je preduzeo i saopšti razloge zašto je tako postupio.

Međutim, koje je zakonsko stanovište po pitanju ovoga? Alen Bensusan predlaže kreiranje
statusa „robota-osobe“ po uzoru na „moralnu osobu“ – tj. registrovanu kompaniju ili
organizaciju. On smatra da je mogućnost indentifikovanja robota, na primer, pomoću
jedinstvenog matičnog broja, od suštinske važnosti – „Mi koristimo broj 1 kao simbol
muškarca, a broj 2 kao simbol žene, zašto onda ne bismo koristili broj 3 kao simbol za
robote“ – kao i da bi svaki robot trebalo da dobije zakonskog predstavnika i polisu
osiguranja. Ta polisa bi pružala kompenzaciju trećoj strani. U zamenu za to bila bi
sastavljena Povelja robotskih prava koja im daje pravo na poštovanje i dignitet.

Kada se radi o zakonskoj odgovornosti za postupke, Alen Bensusan to posmatra kao


problem koji bi prelazio iz ruku proizvođača robota u ruke vlasnika i korisnika. Drugi
stručnjaci koji se bave ovom temom predlažu ideju „crne kutije“, koja bi mogla da ustanovi

5
odgovornost na „objektivniji“ način u slučaju da se dogode nesreće, kao i da postavi pitanje
odgovornosti onih koji su odgovorni za fizičko održavanje/stanje robota.

Sastavljanje etičkog obrasca za upotrebu robota nije lak zadatak, s obzirom da ne dele svi
iste vrednosti niti definišu moral na isti način. Vrednosti se naravno razlikuju u zavisnosti
od kulture, generacije, religije, obrazovanja, itd. Nel Votson je pokušala da započne ovaj
proces: „Morate da dekonstruišete koncepte i da ih objasnite na najjednostavniji mogući
način da bi ih svi razumeli. Morate da ustanovite osnovna pravila, poput onih koje naučite
kada ste dete. Zatim morate da razmotrite koncepte i njihove varijacije. Cilj nije kreiranje
jedne etike, već mapiranje prostora i potencijalnih povezanosti između mašina i drugih
činilaca“. Ali ko će preuzeti taj zadatak? Etičke odluke ne smeju biti prepuštene
istraživačima, već se moraju ispitati na svim nivoima društva, naglašava Nel Votson i
nastavlja: „Ja čvrsto verujem u mudrost masa. Potrebni su nam pesnici, političari,
sveštenici, programeri, itd., kako bismo svi zajedno raspravljali o ovim temama.“

Da li bi prava robota trebalo da budu poput ljudskih prava ili poput prava kompanija?
Možda bi trebalo da preuzmu nešto i od jednog i od drugog. Nel Votson veruje da bi prava
ljudi i mašina trebalo da budu što više izjednačena, ali ne nužno i identična, slično odnosu
koji imaju deca i njihovi roditelji, doktori i pacijenti, kompanije i njihovi zaposleni sa
različitim prava. „Uvek je prisutan balans, ispravna mera između dužnosti i prava svih.
Ovo moramo da primenimo i na robote, jer najgore ponašanje u ljudskoj civilizaciji plod
je ideje da jedna grupa individua treba da bude tretirana drugačije od drugih.“

Inženjer i mislilac, član fakulteta na Singularity univerzitetu u Kaliforniji, duboko je


zabrinuta koliko daleko su ljudi spremni da idu prilikom integracije robota u društvo. „Mi
ne možemo da predvidimo kakve će mašine zapravo biti, ali ljude je lakše predvideti. Imali
smo neke tužne primere u prošlosti. Samo se nadam da će civilizacija ovaj put biti u stanju
da se nosi sa ovim novonastajućim okvirom mašinskog morala“, zaključila je Votsonova.

You might also like