Download as pdf or txt
Download as pdf or txt
You are on page 1of 9

1

John Danaher

Da li bi roboti trebalo da imaju prava?


Četiri perspektive

Oduvek sam bio slab na C3PO-a. Znam da ga većina ljudi mrzi. On je previše pokoran, jako
nervozan i u velikom broju slučajeva iritantan. R2D2 je vragolastiji, izdržljiviji i robusniji. Bez obzira
na to, smatram da je C3PO simpatičan. Prosto je nemoguće ne saosećati se sa njegovim
nedaćama, dok ga hrabriji saputnici uvlače u razne vrste avantura, od kojih većina umnogome
prevazilaze sposobnosti običnog protokolarnog droida kao što je on.

Ovo mi je palo na pamet dok sam čitao nedavno objavljen članak Dejvida Gankela [David Gunkel]
„Drugo pitanje: Da li roboti mogu i da li bi trebalo da imaju prava?”. Gankel je poznat po svojim
filozofskim razmišljanjima o tehnologiji, kiborzima i robotima. Autor je pionirske knjige The
Machine Question iz 2011. godine, a nedavno je zagazio i u tematiku prava robota. Na prvi pogled
2

tema deluje čudno. Roboti su jednostavno mašine (zar ne?). Svakako, oni ne mogu biti nosioci
moralnih prava?

Izgleda da određeni ljudi veoma ozbiljno shvataju nezavidnu situaciju u kojoj se roboti nalaze. U
svom tekstu, Gankel preispituje četiri vodeća stanovišta koja postoje na temu prava robota, a
zatim preusmerava svoju pažnju na peto stanovište – koje bi, po njemu, trebalo da favorizujemo.

U nastavku ću izneti ta četiri stanovišta, zajedno sa Gankelovim kritikama svakog od njih. Tekst
ću zatim zaključiti sopstvenim komentarima/bojaznima, koji se tiču njegovog predloženog petog
stanovišta.

1. Četiri stanovišta o pravima robota

Pre nego što pređem na četiri stanovišta koja Gankel razmatra, postaviću pitanje koje on (u svom
tekstu) ne razmatra, naime, šta znači reći da robot ima „prava“ na nešto? Pre svega, ovo je pitanje
prirode prava kao takvih. Smatram da je važno krenuti od ovog pitanja jer je neophodno imati
nekakav uvid u stvarno značenje prava robota, pre nego što uzmemo u razmatranje da li oni imaju
pravo na njih.

Neću izneti nijednu novu tvrdnju. Pratiću standardno hohfeldsko [Wesley Newcomb Hohfeld]
shvatanje prava, koje je u upotrebi već više od 100 godina. Prema ovom shvatanju, zahtevanje
prava – npr. tvrdnja da imate pravo na privatnost – može se podeliti na niz od četiri moguća
„faktora“: 1. privilegija; 2. zahtev; 3. moć; i 4. imunitet. Stoga, kada je reč o pravu na privatnost,
možete se pozvati na jedan ili više od ova četiri faktora:

Privilegija: Da imate slobodu ili privilegiju da činite kako vam je volja unutar određenog privatnog
prostora.

Zahtev: Da su drugi dužni da vas ne ugrožavaju u tom privatnom prostoru.

Moć: Da je u vašoj moći da ne izgubite zahtev-pravo da vam se ne zazire u taj privatni prostor.

Imunitet: Da ste zakonski zaštićeni od drugih koji pokušavaju da vam to pravo oduzmu.

Kao što možete da primetite, ova četiri faktora su međusobno logički povezani. Tvrditi da imate
privilegiju da uradite nešto uglavnom podrazumeva da imate zahtev-pravo da zaustavite druge
da se mešaju u tu vašu privilegiju. To ipak ne znači da će uvek biti neophodno da se pozovete na
sva četiri faktora.
3

Ne moramo previše detaljno da zalazimo u ovakve procedure. Ono što je ovde bitno jeste da,
kada postavimo pitanje: „Da li roboti mogu i da li bi trebalo da imaju prava?“, mi zapravo pitamo
da li bi oni trebalo da imaju privilegije, zahteve, moć i imunitet da čine određene stvari. Na primer,
možemo da kažemo da postoji pravo robota na telesni integritet, što bi značilo da je robot
slobodan da sa svojim telom (fizičkim oblikom) čini kako mu je volja, i da su drugi dužni da se u
to ne mešaju niti da manipulišu tim fizičkim oblikom, osim ukoliko ne dobiju odobrenje od strane
robota. Ili, ukoliko smatrate da je ovo glupo iz razloga što roboti ne mogu da daju svoj pristanak
(ili možda mogu?), vi ćete ih možda ograničiti na prost zahtev-pravo, tj. dužnost da se ne mešaju
u stvari za koje nisu dobili odobrenje od strane nekoga ko ima autoritet da donosi takve odluke.
Pravni sistemi redovno daju prava ljudima koji su nesposobni da izraze svoje želje, kao i entitetima
koji nisu ljudski, tako da, u tom smislu, stanovište da bi robotima trebalo dati prava i nije toliko
apsurdno.

To nas, naravno, vraća na pitanje koje je Gankel postavio, a koje se zapravo sastoji od dva pitanja:

P1 – Mogu li roboti da imaju prava?

P2 – Da li bi roboti trebalo da imaju prava?

Prvo pitanje se odnosi na kapacitet robota: imaju li oni, ili mogu li imati, tu vrstu kapaciteta koja
bi inače određenom entitetu omogućila da poseduje prava? Drugo pitanje se odnosi na to da li bi
roboti trebalo da imaju status nosioca prava?

Smatram da postoje manje ili više interesantni načini da se postave ova dva pitanja na koja Gankel
aludira. Interesantan oblik pitanja „Mogu li“ zapravo je: „Da li je moguće napraviti robote koji će
zadovoljiti normativne uslove za posedovanje prava (ili smo mi već napravili takve robote)?“ Dok
bi interesantan oblik pitanja „Da li bi trebalo“ bio: „Ukoliko je moguće napraviti takve robote, da
li bi to trebalo da uradimo?“

Ali to je samo moje viđenje stvari. Ja ipak prihvatam postojanje bitne razlike koju treba napraviti
između pitanja „Mogu li“ i „Da li bi trebalo“, a u zavisnosti od vašeg odgovora na ova pitanja
postoje četiri logički moguće perspektive po pitanju prava robota: 1. roboti ne mogu, i samim tim
ne bi ni trebalo da imaju prava; 2. roboti mogu, i trebalo bi da imaju prava; 3. roboti mogu, ali ne
bi trebalo da imaju prava; i 4. roboti ne mogu, ali bi trebalo da imaju prava. Ove četiri perspektive
ilustrovane su u tabeli koja se nalazi u nastavku.
4

DA LI BI ROBOTI TREBALO DA IMAJU PRAVA?


MOGU LI ROBOTI DA IMAJU PRAVA
NE DA

Ne mogu i ne bi ni trebalo Ne mogu ali bi trebalo


DA (instrumentalistički stav) (stav Darlingove)

Mogu ali ne bi trebalo Mogu i trebalo bi


NE
(stav Brajsonove) (stav baziran na svojstvima)

Iznenađujuće, svaka od ove četiri perspektive ima svoje pobornike, i jedan od Gankelovih
zadataka bio je da svaku od njih kritički razmotri. U nastavku ćemo se pozabaviti njegovom
kritikom.

2. Evaluacija četiri perspektive

Započećemo sa tvrdnjom da roboti ne mogu i samim tim ne bi ni trebalo da imaju prava. Gankel
tvrdi da ovaj argument uglavnom podržavaju oni koji tehnologiju posmatraju kao oruđe, tj.
instrument ljudske volje. Ovo je opšteprihvaćeno stanovište, i u mnogome predstavlja „klasično“
teorijsko shvatanje uloge koju tehnologija ima u ljudskim životima. Ukoliko je tehnologija uvek
samo oruđe, a roboti samo još jedan vid tehnologije, onda su i roboti oruđe. A pošto alatke ne
mogu (niti bi trebalo) da budu nosioci određenih prava, iz toga sledi (zar ne?) da roboti ne mogu
i ne bi trebalo da imaju prava.

Gankel dosta detaljno istražuje istoriju ovog stanovišta, ali mi ne moramo da se upuštamo u to.
Ono što je za nas važno jeste njegova kritika tog stanovišta. On ima dve primedbe. Prva je da
oruđe/instrumentalistička perspektiva deluje neadekvatno kada treba objasniti funkcionalnost
5

određenih tehnologija. Roboti su očigledno nešto više od pukih alatki: poslednji modeli imaju
minimalnu autonomiju i sposobni su da uče iz svojih grešaka. Nazvati ih „oruđem“ deluje
neprikladno. Druga primedba je da instrumentalistički stav deluje posebno neprikladno kada
treba objasniti najnovija dostignuća u robotici. Ljudi razvijaju blisku i duboku povezanost sa
društvenim robotima, čak i u slučajevima kada roboti nisu dizajnirani da izgledaju ili da se
ponašaju na način koji bi izazvao takvu emotivnu reakciju.

To nas dovodi do druge perspektive: da roboti mogu i treba da imaju prava. Ovo stanovište je
verovatno najsličnije mojem. Gankel ga opisuje kao pristup baziran na „svojstvima“, jer pobornici
ovakvog razmišljanja rezonuju po principu koji sam izneo u prethodnom delu: oni isprva odrede
koja bi svojstva, po njima, entitet trebalo da poseduje kako bi mogao da se smatra nosiocem
prava; potom razmatraju da li roboti pokazuju te osobine. Osobenosti koje bi kandidati trebalo
da pokazuju su autonomija, samosvest, osećajnost itd. Pobornici ovakvog shvatanja će reći da
ukoliko se slažemo da roboti poseduju ove osobine, onda bi, naravno, i trebalo da imaju prava.
Ali većina ljudi se slaže u tome da roboti i dalje ne pokazuju ove osobine.

Gankel ovde vidi problem. Kao prvo, termini kojima se opisuju ove poželjne osobine su veoma
diskutabilni. Ne postoji standard ili dogovor o tome koje je značenje reči „svest“ ili „autonomija“
i teško da će se u skorijoj budućnosti ovo izmeniti. Svest je čuveni primer ovoga: mi nikada ne
možemo biti sigurni da je druga osoba svesna. Treće, čak i ukoliko prihvatimo ovaj pristup
rešavanju problema, i dalje postoje važna etička pitanja koja se odnose na stvaranje robota koji
će posedovati ove relevantne osobine: da li bi trebalo da pravimo takve entitete?

Treća perspektiva zastupa ideju da roboti mogu ali ne bi trebalo da imaju prava. Ovo je stav koji
zastupa Džoana Brajson [Joanna Bryson]. Iako je ona pomalo skeptična po pitanju mogućnosti
robota da poseduju osobine koje su neophodne kako bismo ih smatrali nosiocima prava, ona je
voljna da prihvati da je tako nešto moguće. Međutim, ona ipak smatra da bi bila veoma loša ideja
napraviti robote koji su u stanju da pokažu takve osobine. U njenom poznatom tekstu na tu temu,
ona tvrdi da bi roboti zauvek trebalo da ostanu „robovi“. U međuvremenu, ona je termin „robovi“
zamenila terminom „sluge“. Razlozi zbog kojih Brajsonova zastupa ovaj stav su brojni. U
određenim slučajevima ona naglašava činjenicu da ćemo, naravno, mi biti „vlasnici“ robota (da
će oni biti naša svojina), ali ovo deluje kao slab argument u korist toga da roboti ne bi trebalo da
imaju prava, s obzirom na to da pravo na svojinu nije (suprotno Loku [John Lock] i drugima)
6

svojstvo prirodnog poretka stvari. Čvršći argument bila bi tvrdnja da bi stvaranje takvih robota
dovelo do problema vezanih za odgovornost za nedela koja bi roboti počinili, i da bi oni mogli biti
upotrebljavani kako bi se ljudi obmanuli, izmanipulisali ili prevarili – ipak, meni nijedan ovih
argumenata nije dovoljno ubedljiv.

Gankel ima dve bitne primedbe na stav Brajsonove. Prva, koja se meni dopada, jeste da je
Brajsonova verna nekoj vrsti robotskog asketizma. Brajsonova smatra da ne bi trebalo da pravimo
robote koji pokazuju osobine koje bi ih svrstale u legitimne nosioce moralnih pitanja. Ovo znači
da ne treba da postoji ni jedan robot sa čovekolikim (ili čak životinjskim) karakteristikama. Ovakvu
vrstu asketizma bi možda bilo nemoguće ostvariti u praksi. Kao što sam već naznačio, deluje da
ljudi uspevaju da formiraju bliske i empatijske veze sa robotima, iako ti roboti nisu stvoreni sa
ciljem da kod ljudi izazovu emotivnu reakciju. Prisetimo se još jedanput primera vojnika koji su
razvili blisku privrženost robotima koji služe za uklanjanje eksplozivnih naprava. Druga Gankelova
primedba – sa kojom se ja manje slažem – jeste da stav Brajsonove nju obavezuje na stvaranje
klase robota-sluga. On je zabrinut za društvene posledice ovog institucionalizovanog
pokoravanja. Ovu tvrdnju smatram manje ubedljivom zato što mislim da bi psihološki i društveni
efekti ovoga na ljude zavisili od forme koju bi roboti imali. Ukoliko bismo stvorili klasu robota-
sluga koja bi izgledala i ponašala se kao C3PO, onda bi oko toga trebalo da budemo zabrinuti. Ali
nije neophodno da roboti postoje u integrisanoj, humanoidnoj formi (ili bilo kakvoj formi koja bi
ličila na nekakav organizam).

Četvrto stanovište polazi od toga da roboti ne mogu, ali bi trebalo da imaju prava. Ovaj stav
zastupa Kejt Darling [Kate Darling]. Nisam čitao njene radove tako da se ovde oslanjam na
Gankelovu interpretaciju. Deluje da je tvrdnja Darlingove da roboti trenutno ne poseduju one
osobine koje mi zahtevamo od nosioca prava, ali da ih, bez obzira na to, ljudi doživljavaju na
jedinstven i poseban način. Oni za nas nisu samo puki objekti. Mi imamo tendenciju da ih
antropomorfizujemo, i da na njih projektujemo određene emocije i kognitivne sposobnosti. Ovo
u nama zauzvrat podstiče određene emocije prilikom interakcije sa njima. Darlingova tvrdi da ovo
fenomenološko iskustvo zahteva od nas da se etički obavežemo. Sklon sam da se složim s ovom
tvrdnjom, međutim, nisam siguran na koji način se ovo zaista razlikuje od stanovišta baziranog
na „svojstvima“ (koji smo prethodno spomenuli): to da li određeni entitet ima osobine nosioca
prava umnogome zavisi (pod određenim uslovima) od našeg doživljaja toga. Takvo je barem moje
viđenje stvari.
7

Gankel smatra da postoje barem tri problema sa stavom Darlingove. Prvi je taj da su osećanja
loša vodilja za razmatranje etičke dužnosti. Štaviše, ukoliko je percepcija ono što se uzima u obzir,
postavlja se pitanje: čija percepcija je merodavna? Šta ako ne doživljavaju svi robote na isti način?
Da li onda njihova iskustva treba odbaciti? Drugi problem je taj što bi se za pristup Darlingove
moglo reći da zaključuje šta bi „trebalo“ iz onoga što „jeste“: činjenice zasnovane na iskustvu
određuju sadržaj naših moralnih obaveza. Treći problem leži u tome što prava robota zavise od
nas – našeg doživljaja robota – a ne od osobina samih robota. Slažem se sa tvrdnjom Gankela da
ovi stavovi mogu biti problematični, ali sklon sam da verujem da ti stavovi takođe štete i našem
pristupu ljudima.

U priloženoj tabeli sam pokušao da sumiram Gankelove primedbe po pitanju ova četiri stanovišta.
8

1. Ne mogu i ne bi trebalo 2. Mogu i trebalo bi

Tvrdnja: roboti su, kao i svaka tehnologija, Tvrdnja: određene osobine su neophodne da
samo alatke. Oni nisu i ne mogu biti nosioci bi neko bio nosilac prava; ako roboti
prava. Stoga im prava ne treba ni dati. poseduju te osobine onda bi trebalo da imaju
prava.
Ko zastupa ovaj stav: pobornici
„instrumentalističkog“ shvatanja tehnologije. Ko zastupa ovaj stav: pobornici stava o
pravima zasnovanog na „svojstvima“.
Problemi ovog stanovišta: 1) očigledno je da
dizajn i funkcija nekih mašina nisu isti kao kod Problemi ovog stanovišta: 1) termini koji se
alatki 2) ne uzima u obzir doživljaj društvenih koriste kako bi se opisala svojstva su veoma
robota. diskutabilni; 2) postoje epistemološka
ograničenja u našoj sposobnosti da
indentifikujemo ove probleme; 3) ostavlja
otvoren odgovor na pitanje da li bi uopšte
trebalo da pravimo entitete koji poseduju
ove osobine.

3. Mogu ali ne bi trebalo 4. Ne mogu ali bi trebalo

Tvrdnja: moguće je da roboti imaju osobine Tvrdnja: roboti nemaju (i možda ne mogu da
koje su neophodne za posedovanje prava, ali imaju) osobine koje su neophodne za
bilo bi veoma loše kreirati takve robote, zato posedovanje prava, ali su oni fenomenološki
što bismo ih mi posedovali i njihovo doživljeni, od strane ljudi, na način koji
postojanje moglo bi služiti kao izgovor da se opravdava njihovo posedovanje prava.
ne preuzme odgovornost.
Ko zastupa ovaj stav: Kejt Darling.
Ko zastupa ovaj stav: Džoana Brajson.
Problemi: 1) čija su percepcija i osećanja
Problemi ovog stanovišta: 1) primorava nas merodavna?; 2) zaključuje šta bi „trebalo“ iz
na upražnjavanje nepraktičnog oblika onoga što „jeste“; 3) antropomorfnost i
robotskog asketizma; 2) primorava nas na privilegovanje perspektive onog koji
stvaranje klase robota-sluga koji mogu imati doživljava.
negativne (simboličke) posledice.
9

You might also like