Professional Documents
Culture Documents
Data Mining
Data Mining
Mogu li mašine razmišljati?“, To je pitanje koje je Turing (1950) postavio već 1950. Moguće
je razmatrati raspravu u tom članku kao polaznu tačku u istoriji onoga što se danas naziva
veštačka inteligencija (AI) , mada su pre toga vremena postojali neki radovi koji bi se mogli
smatrati onim što se sada naziva AI.
Već u antici su filozofi i mislioci uopšte izneli ideju da se „mehanički ljudi“ mogu
konstruisati i da će moći da oponašaju ljudska bića u akciji i razmišljanju. Dakle, moglo bi se
reći da koncept veštačke inteligencije postoji veoma dugo pre 1950. godine, što je približan
datum koji se ovde smatra početkom ovog što se sada naziva veštačka inteligencija.
AI je od 50 -ih godina imao plodnu istoriju. Tokom godina pojavilo se nekoliko grana kao što
su mašinsko učenje, rudarstvo podataka, robotika, statističko učenje, duboko učenje i druge.
Istraživanja na tu temu i razvoj alata i metoda značajno su porasli, posebno u poslednjih
dvadeset godina. Stalna potraga za uzrocima bolesti, poboljšanje metoda automatskih
dijagnoza, analiza finansijskih podataka i tržišne tendencije, između ostalog, samo su neke od
nebrojenih aplikacija u kojima su analiza i otkrivanje novih obrazaca podstakli istraživanje i
razvoj novih metoda, sve u vezi sa mašinskim učenjem, izvlačenjem znanja iz onoga što se
danas naziva Big Data, otkrivanjem znanja u bazama podataka ili KDD -a i Data Mining -om.
Ovo poglavlje se fokusira na metode i algoritme rudarenja podataka kao pristupe različitim
zadacima učenja. Takođe se analizira odnos Data Mining -a sa drugim disciplinama
umetnutim u oblasti veštačke inteligencije, kao i kratka diskusija o pitanjima vezanim za ovu
disciplinu i budućim pravcima istraživanja.
POZADINA
Teoretske rasprave o mogućnosti stvaranja automata ili navodno inteligentnih mašina dolaze
već duže vreme. U Ernst & Nevell (1969) je sprovedeno istraživanje o razvoju računarskog
programa sa opštim mogućnostima rešavanja problema. Program bi mogao rešiti probleme
poput Hanojske kule ili dokazati teoreme u predikatskom računu prvog reda.
Veizenbaum, J. (1976), autor tada poznatog računarskog programa koji se u početku zvao
ELIZA, a kasnije DOKTOR koji je dozvolio parodiranje uloge rogerijanskog psihoterapeuta,
bio je iznenađen, kaže, zbog tri događaja: (i) Brojni psihijatri misle da bi program mogao
postati automatski oblik psihoterapije. (ii) Koliko su se brzo i duboko ljudi emocionalno
uključili u program.
(iii) Širenje uverenja da program pokazuje opšte rešenje problema nerazumevanja prirodnog
jezika pomoću računara. Ova situacija koju je prijavio Veizenbaum može se uporediti sa
Turčinom, poznatim šahistom za koga se decenijama, od kraja 18. do kraja 19. veka, verovalo
da je mašina sposobna za igranje šaha. Ovo, i mnogi drugi u isto vreme, mogu biti
prethodnici programa za koje se danas smatra da su deo opšte oblasti veštačke inteligencije.
U svom udžbeniku Viston (1977) kaže da su „centralni ciljevi veštačke inteligencije učiniti
kompjutere korisnijim i razumeti principe koji inteligenciju čine mogućom“.
Mnogi autori se slažu da je AI važna oblast znanja koja je blisko povezana sa drugim
disciplinama. Kako Russell, S. J. i Norvig, P. (2010) izražavaju, „Veštačka inteligencija (AI)
je veliko polje ... koje obuhvata logiku, verovatnoću i kontinuiranu matematiku; opažanje,
zaključivanje, učenje i delovanje; i sve, od mikroelektronskih uređaja do robotskih
planetarnih istraživača ”. AI ne obuhvata samo mašinsko učenje, već i druge discipline kao
što su robotika, logičko programiranje i induktivno logičko programiranje (ILP), polje
mašinskog učenja i rudarenja podataka. Ova različita područja bi mogla biti ili deo AI -a ili
su iz njega nikla.
AI je u svojoj istoriji imao različite ciljeve. U početku je ideja oličena u Turingovom pitanju
bila najvažnija. Može li se napraviti računar koji se ponaša kao ljudsko biće ?, dakle, da li bi
mogao da reši probleme koje bi čovek mogao? Razvijeno je nekoliko testova za procenu
takve sposobnosti. Turing (1950) je izneo ono što se danas naziva Turingov test, ali koji je
nazvao „Igra imitacije“. O Turingovom testu postoje različita mišljenja. Cohen, Paul R.
(2006) sažima ih govoreći da postoje tri vrste argumenata protiv Turingovog testa, naime
neki kažu da je test irelevantan, treba ga zaboraviti, rešiti ga se, međutim i dalje stoji. Postoje
takmičenja, varijacije na testu itd. Još jedan argument protiv testa vezan je za filozofiju
povezanu sa pitanjem da li mašine mogu da misle, ili šta misle, i da li mašine zaista to mogu
ili je to samo simulakrum. Drugi daju metodološki argument prilikom postavljanja pitanja. da
li je Igra imitacije, - kao što je Turing izneo - valjano metodološko sredstvo za definitivno
određivanje da li mašina može razmišljati? “, Oni tvrde da je test metodološki pogrešan i da
je zasnovan na lošoj filozofiji, da razotkriva kulturne predrasude i naivnost o tome šta Turing
naziva „programiranje“ potrebno za polaganje testa" Cohen, Paul R. (2006, str. 61).
Razvoj nekih polja veštačke inteligencije imale su koristi od postojanja velike količine
podataka koji potiču iz najrazličitijih izvora i domena. Proces otkrivanja znanja u bazama
podataka (KDD) i metode rudarenja podataka omogućavaju otkrivanje znanja u podacima
koji su skriveni za ljude, posebno kada su količine podataka velike ili čak izuzetno velike.
Ove metode predstavljaju znanje izvučeno na različite načine: pravila, jednačine, stabla
odlučivanja itd. I pomažu u odgovorima na pitanja, kao što su grupe iz populacije pojedinaca
sa zajedničkim karakteristikama ?, da li je klijent pouzdan ?, da li je e -pošta neželjene pošte
itd.
Ovo poglavlje se fokusira na fazu rudarenja podataka KDD procesa, njene zadatke i metode,
kao i njen odnos sa drugim oblastima veštačke inteligencije, poput mašinskog učenja,
programiranja induktivne logike, statistike itd. Rasprava o pitanjima i izazovima vezanim za
ovu oblast daje se i predstavljaju neki budući istraživački trendovi.
Pojam Data Mining nije nov. Od šezdesetih godina prošlog veka statističari su koristili druge
termine kao što su ribolov podataka ili jaružanje podataka kako bi se pozvali na ideju
pronalaženja korelacija u podacima bez prethodne hipoteze kao na uzročnost. Međutim, tek
krajem 80 -ih Data Mining je postao disciplina računarstva i naučna zajednica je usvojila taj
termin. U stvari, kako ističu Vitten i Frank (2011), prva knjiga o rudarenju podataka pojavila
se 1991. (Piatetski-Shapiro i Fravlei, 1991)-zbirka radova predstavljena na radionici o
otkrivanju znanja u bazama podataka kasnih 1980-ih.
Data Mining je grana AI koja je blisko povezana sa mašinskim učenjem, gde mašinsko
učenje pruža tehničku osnovu za rudarenje podataka (Vitten i Frank, 2011). Data Mining se
bavi induktivnim učenjem na praktičan, a ne teorijski način (kao što radi mašinsko učenje),
koristeći alate koje pruža mašinsko učenje. Primenjuje tehnike mašinskog učenja, kao i druge
statističke i algebarske tehnike za pronalaženje strukturnih obrazaca skrivenih u podacima, sa
glavnim ciljem opisa podataka ili pravljenja predviđanja iz njih.
U literaturi se može naći nekoliko definicija Data Mining -a. Vitten i Frank (2011) upućuju
na Data Mining kao proces ekstrakcije prethodno nepoznatog, korisnog i razumljivog znanja
iz velikih količina podataka, koji mogu biti u različitim formatima i dolaze iz različitih
izvora. Hernandez-Orallo, Ferri i Ramirez-Kuintana (2004) definišu Data Mining kao proces
pretvaranja podataka u znanje. Međutim, i dalje postoji određena zabuna u upotrebi izraza
„KDD“ i „Data Mining“. Iako su jako povezani, nisu isti. Rudarenje podacima je faza u KDD
procesu, iterativni proces koji obuhvata druge faze ili aktivnosti kao što su odabir, čišćenje i
transformacija podataka, koji dolaze ne samo iz tradicionalnih baza podataka, već i iz drugih
heterogenih izvora, poput običnog teksta, podataka skladišta, slike, zvuk itd. Primena
algoritama za analiziranje podataka na ove podatke postiže se otkrivanjem valjanih, novih,
potencijalno korisnih i razumljivih skrivenih obrazaca. Kada se uzorci dobiju, oni se tumače i
vrednuju, vraćajući se na prethodne faze radi nove iteracije ako je potrebno.
Slika 2 prikazuje grafički prikaz procesa KDD. Neki autori razlažu KDD na druge faze; ipak,
njegove aktivnosti su u osnovi iste.
Kao i OLAP, tehnike Data Mining mogu koristiti podatke iz skladišta podataka, ali dok
OLAP alati omogućavaju objedinjavanje detaljnih informacija, dobijanje izveštaja i prikaza u
realnom vremenu i proveru obrazaca i hipoteza koje je korisnik predložio u suštinski
deduktivnom procesu, Data Mining metode su u suštini induktivni proces koji koristi podatke
za zaključivanje obrazaca. Ipak, OLAP alati se takođe mogu koristiti u prvim fazama procesa
KDD radi boljeg razumevanja podataka.
Nakon što je prikaz za pripremu spreman, može se nastaviti faza Data Mining -a. U ovoj fazi
moraju se doneti odluke o metodi ili tehnici (npr. Stabla odluka) koje treba usvojiti za
rješavanje zadatka (npr. Klasifikacija). U ovoj fazi moraju biti izabrani algoritmi koji će se
primeniti na prikaz za prikaz (na primer CART, C4.5). U sledećim odeljcima dat je pregled
zadataka, metoda i algoritama rudarenja podataka.
Poslednja faza, evaluacija i tumačenje obrazaca, je mesto gde se vrednuje model naučen iz
rudarenja podataka, nakon čega počinje nova iteracija počevši od jedne od prethodnih faza
kad god je to potrebno.
Evaluacija je veoma važan proces u KDD -u jer uključuje utvrđivanje koji od modela će se
među nekoliko alternativa zadržati za rešavanje postojećeg problema. Zbog toga su tehnike
za procenu efikasnosti različitih metoda i njihovo upoređivanje neophodne.
Zadatak se obično definiše kao delo koje je dodeljeno nekoj osobi. U domenu veštačke
inteligencije zadatak je rad koji će biti dodeljen mašini ili računaru, a bolja definicija bi bila
rad koji će obaviti računarski program.
Metoda je postupak, tehnika ili algoritam za nešto: da li je ovaj slučaj zadatak. Glavni metod
koji AI i njegove različite grane koriste za izvršavanje zadataka je induktivno učenje (IL). U
narednim odeljcima su detaljno opisani zadaci i metode rudarenja podataka.
U AI, kao i u mnogim drugim disciplinama, postoje porodice problema. Svaka od ovih
porodica naziva se zadatak učenja i može se rešiti pomoću različitih metoda i algoritama.
Prepoznavanje uzoraka, poput prepoznavanja slike - uključujući prepoznavanje lica -,
prepoznavanje teksta itd. Može se smatrati jednim od glavnih zadataka. Ali klasifikacija,
regresija, grupisanje, korelacije i pravila pridruživanja takođe se mogu prepoznati među
najvažnijim od ovih zadataka.
Kao rezultat zadatka i prema problemu koji rešava, može se dobiti predviđanje ili opis, čime
se ustupaju mesto prediktivnim i opisnim zadacima. Prediktivni zadaci, kako mu naziv
govori, procenjuju nepoznate ili buduće vrednosti, dok opisni zadaci pretražuju skrivene
obrasce u podacima kao način da ih objasne ili opišu.
Postoje varijacije klasifikacije poput kategorizacije, gde se instanca može označiti sa više
klasa. Druge varijante klasifikacije su meka klasifikacija i probabilistička klasifikacija. Meki
klasifikator ne samo da dodeljuje klasu, već i procenu stepena izvesnosti. Verovatnotna
klasifikacija je generalizacija meke klasifikacije, gde za svaku instancu klasifikator predviđa
raspodelu verovatnoće za skup mogućih klasa. Kada je broj klasa dva, verovatnosni
klasifikator je ekvivalentan mekom klasifikatoru.
Drugi opisni zadatak je učenje preferencija, gde se uči rangiranje. Proces učenja se ne
sprovodi iz skupa instanci kao u klasifikaciji, već iz niza instanci, gde redosled u nizu
predstavlja redosled prioriteta instanci u nizu. Na primer, s obzirom na skup kandidata za
radno mesto, da biste dobili redosled preferencija kandidata na osnovu vrednosti njihovih
atributa i ranijih rangiranja preferencija iz kojih ćete naučiti novi redosled preferencija.
Regresija je takođe još jedan važan zadatak predviđanja. U ovom slučaju se predviđa stvarna
vrednost, odnosno uči se prava funkcija. Primer regresionog zadatka je procena
produktivnosti preduzeća na osnovu prethodnih vrednosti produktivnosti. Kada se za
budućnost predvidi stvarna vrednost, ovaj zadatak se naziva procenom,
Pravila pridruživanja su takođe opisni zadatak koji, kao korelacije, pronalazi postojeće
odnose među kategorijskim (ne numeričkim) atributima. Funkcionalne zavisnosti su
varijacija pravila pridruživanja, gde samo jedan atribut je određen iz podskupa preostalih
atributa. Na primer, funkcionalna zavisnost bi mogla da utvrdi da je osoba vlasnik kuće
prema njenim godinama, prihodu i bračnom statusu. Opisni zadatak grupisanja sastoji se u
podeli skupa instanci u prirodnim grupama koje se zovu klasteri. Prvobitno je centralni
koncept grupisanja bio korišćenje numeričke mere sličnosti među instancama, stvarajući
klastere u kojima je sličnost među članovima klastera maksimizirana, a sličnost među
članovima različitih klastera svedena na minimum. Drugačiji pristup grupisanju je
konceptualno grupisanje koje je predložio Michalski (1980), koje se ne zasniva na pojmu
sličnosti, već na konceptualnoj koheziji (Michalski i Stepp, 1983). U konceptualnom
grupisanju, dva pojedinca pripadaju istom klasteru ne zato što su slični (prema meri sličnosti
ili udaljenosti), već zato što su deo istog koncepta ili, drugim rečima, opisani su istim
konceptom. Ova dva različita pogleda na grupisanje ustupili su mesto različitim pristupima
ovom zadatku:
Postoji značajan broj metoda učenja koje podržavaju prethodno opisane zadatke. Na primer,
klasifikacioni zadatak se može rešiti različitim metodama, npr. neuronske mreže ili stabla
odlučivanja. Istovremeno, svaki određeni metod može se implementirati različitim
algoritmima. Na primer, postoji nekoliko algoritama stabla odlučivanja, kao što je ID3
(Kuinlan, 1986) ili njegovo proširenje C4,5 (Kuinlan, 1993). Mnogi od njih se mogu koristiti
za rešavanje različitih zadataka, npr. Algoritam k-najbližeg suseda može se koristiti za
klasifikaciju, regresiju, a takođe i za grupisanje.
U metodama bez nadzora učenje se vrši posmatranjem i otkrivanjem; primeri koji se koriste
za učenje nisu označeni klasom kao u nadgledanim metodama, ali metoda mora posmatrati
primere i sama prepoznati obrasce.
UČENJE NA SLIČNOSTI
Metode učenja zasnovane na sličnosti dele koncept sličnosti i druge povezane koncepte poput
pojma udaljenosti i susedstva ili blizine. Potrebna je neka vrsta mehanizma za upoređivanje
dva objekte i odlučiti da li su slični. Jedan od načina je upotreba funkcije sličnosti. Funkcija
sličnosti je realna funkcija koja za dva objekta vraća stvarnu vrijednost koja predstavlja
koliko su ova dva objekta slična, vraća veće vrednosti dok su objekti sličniji. Na primer,
funkcija sličnosti koja se često koristi u mašinskom učenju je kosinusna mera sličnosti
između dva vektora realnih brojeva; često se koristi za upoređivanje dokumenata.
Koncept udaljenosti ili metrike povezan je sa pojmom sličnosti, jer je rastojanje između dva
objekta obrnuto proporcionalno sličnosti među njima. Iako je udaljenost poseban slučaj
funkcije sličnosti, udaljenosti imaju određena svojstva koja se mogu koristiti tehnikama
učenja.
Sledi kratak opis nekih dobro poznatih nadziranih i nenadgledanih metoda zasnovanih na
sličnostima.
Nadgledane metode zasnovane na sličnosti uče iz skupa označenih instanci koje koriste
funkciju sličnosti ili udaljenost za svoja predviđanja. Primeri za to su k-najbliži susedi,
Fisherov diskriminator, vektorske mašine za podršku, vektorska kvantizacija učenja, između
ostalih.
To je vrlo jednostavan i verovatno najpoznatiji metod pod nadzorom. Ideja koja stoji iza k-
NN je da se većinskoj klasi k najbližih suseda dodeljuje svaka nova instanca. Glavni problem
je određivanje optimalne vrednosti za k (vidi sliku 3). Obično se k određuje pomoću
heuristike; međutim, k = n gde je n broj primera, opcija je sa teorijskom osnovom.
Bilo koji prikaz podataka može se koristiti pod uslovom da se pronađe odgovarajuća funkcija
sličnosti
Ova metoda traži linearni diskriminator koji maksimizira udaljenost do primera na granici
klase.
Kada se podaci ne mogu linearno razlikovati (vidi sliku 5), može se primeniti funkcija jezgre,
povećavajući broj dimenzija na takav način da se podaci mogu odvojiti.
SVM model je prikaz primera kao tačaka u prostoru, transformisanih na takav način da su
primeri jasno odvojeni. Kada se novi primer mora klasifikovati, to se pomoću funkcije jezgra
transformiše u isti prostor i klasifikuje prema strani hiperravnine na koju pada novi primer.
Naučeni model je zbirka prototipova, gde je novi primer klasifikovan prema blizini tih
prototipova. Prototip skupa elemenata je element skupa koji se nalazi u centru elemenata
prema svom metričkom prostoru; odnosno minimizira zbir udaljenosti do ostalih elemenata u
skupu. Kada ovaj element ne pripada skupu, naziva se centroid.
S obzirom na set obuka sa k klasa, algoritam nasumično bira k prototipova, čiji se položaji
menjaju dok se ne dostigne zadati prag. Ovo je iterativni proces, gde se prvo bira primer iz
skupa za obuku i označava klasom bližeg prototipa. Zatim se ponovo računa prototip klase. U
zavisnosti od oznaka prototipa i primera, položaj prototipa će se promeniti, što će novi
prototip približiti primeru ako se obe oznake podudaraju ili suprotno ako se ne podudaraju.
Proces se zaustavlja kada je promena položaja prototipova manja od praga davanja ili ako
nema više primera obuke.
Učenje opisnih modela može se sprovesti na različite načine i pomoću više zadataka, npr.
grupisanje, korelacije i faktorizacije, pravila pridruživanja i funkcionalne zavisnosti.
Hijerarhijsko grupisanje
Ovi algoritmi proizvode ugniježđene nizove podela dokaza koristeći kao kriterij za podelu ili
spajanje grupa funkciju sličnosti. Poznati primeri hijerarhijskog grupisanja su aglomerativno i
hijerarhijsko grupisanje koje se deli.
Možda je najpoznatija nadzirana simbolička metoda stabla odlučivanja, gde se iz dokaza uči
model predviđanja u obliku strukture stabla. Grane stabla odlučivanja predstavljaju
konjunkcije atributa, a njegovi listovi odgovaraju - u slučaju klasifikacionih stabala - skupu
oznaka ili klasa ili stvarnim vrednostima u slučaju stabala regresije.
Slika 7 prikazuje stablo odlučivanja koje je proizveo algoritam J48 u skupu alata Veka (Veka,
n.d.) izvedeno iz njegovog skupa podataka o vremenu. S obzirom na novu instancu,
omogućava utvrđivanje da li će se igrati tenis utakmica. Drvo u svojim srednjim čvorovima
prikazuje atribute izgled, vlažnost i vetar sa odgovarajućim vrednostima na svojim lukovima i
vrednostima da/ne klase (sviranje), na listovima
Kad god nova instanca mora biti klasifikovana, stablo se prelazi iz korena prema vrednostima
atributa u uzastopnim čvorovima sve dok se ne postigne odsustvo i instanca se klasifikuje sa
vrednošću u odsustvu.
Konceptualno grupisanje
Klasične metode učenja zasnovane na udaljenosti bez nadzora ne pružaju konceptualne opise
otkrivenih klastera. Ovo je ograničenje ovih metoda koje ostavljaju korisniku problem
tumačenja klastera.
Mihalski je 1980. predstavio ideju grupisanja objekata u kategorije koje opisuju pojmovi.
Kako je objašnjeno u (Guerra-Sandon et al., 2012), problem kojim se bave konceptualni
algoritmi od velike je praktične koristi. Oni nisu ograničeni na stvaranje liste objekata koji se
nalaze u istom klasteru i stoga dele slične karakteristike ili svojstva, već je namera
konceptualnog grupisanja pružiti dodatne informacije davanjem zajedničkih svojstava
elemenata u svakom klasteru.
Mihalski je bio preteča ovih ideja i danas postoji nekoliko algoritama za konceptualno
grupisanje. Konceptualna klasifikacija grupisanja data je u (Guerra-Sandon et al., 2012).
Takođe postoje hibridni predlozi poput HDCC -a (Funes et al., 2008), gde se postiže
integracija obe paradigme.
NEURONSKE MREŽE
Veštačke neuronske mreže (ANN) imaju dugu istoriju, koliko i sama AI. Inspirisani su
funkcionisanjem bioloških neurona. U osnovi, neuroni u mozgu su međusobno povezani
aksonima. Neuron prima ulaze od drugih neurona i kada ti ulazi prelaze prag, neuron šalje
izlaz drugim neuronima. Veštački neuroni (AN) oponašaju funkcije „pravih“ neurona. Svaki
AN je
Poreklo AAN -a može se pronaći u radu Mcculloch & Pitt -a (1943), koji je prvi konstruisao
teoriju AN -a koja je ustupila mesto Jedinici logičke granice (TLU), ili Jedinici linearnog
praga. Kasnije je Rosenblatt (1957) stvorio Perceptron. U početku je bio zamišljen kao
algoritam za nadzirano učenje binarnih klasifikatora, kasnije je implementiran kao mašina za
opažanje i prepoznavanje slika. Perceptron je bio jednoslojna ANN. Kasnije su Minski &
Papert (1969) pokazali da jednoslojne ANN - poput Perceptrona - nisu u stanju da izvedu
logički kor.
Sledeći napredak bio je stvaranje ANN -ova sa više slojeva, tj. ANN -ova koji imaju ulazni
sloj, izlazni sloj i jedan ili više posrednih slojeva koji se nazivaju skriveni slojevi jer se ne
mogu 'videti' spolja .
ANN se može obučiti da izvrši zadatak. Važno poboljšanje u obuci ANN -a bilo je uvođenje
tehnike backpropagation -a, efikasne metode za izračunavanje ažuriranja težina radi
poboljšanja mreže sve dok ne bude u stanju da izvrši zadatak za koji se obučava (Goodfellov
et al., 2016). Postoji malo kontroverzi oko otkrića metode, ali neki od pionira u ovoj oblasti
su Kellei (1960), Brison (1961), a zatim Mizutani, Dreifus i Nishio (2000).
Algoritmi učenja za ANN -ove mogu biti nadgledani ili bez nadzora. Kada se željeni izlaz
daje ANN ulaznom sloju se nadzire. Učenje bez nadzora pruža neoznačene podatke i
algoritam pokušava da ih smisli tako što sam izdvaja karakteristike i obrasce. Postoje i
polunadgledani algoritmi učenja, gde se obično pruža samo mali skup podataka sa oznakom
naspram velikog skupa podataka bez oznaka.
Novija i rastuća grana mašinskog učenja je duboko učenje, koje podrazumeva upotrebu ANN
-ova sa više slojeva. Ove neuronske arhitekture dolaze u nekoliko varijanti, poput
konvolucionih neuronskih mreža, dubokih neuronskih mreža, mreža dubokih verovanja,
ponavljajućih neuronskih mreža i drugih. Primenjuju se na mnoga polja, npr. prepoznavanje
slike i zvuka, obrada prirodnog jezika
Kao što je rekao Makmen (2018) „Kada vozač pritisne kočnicu kako ne bi udario pešaka koji
ilegalno prelazi put, ona donosi moralnu odluku koja prebacuje rizik sa pešaka na ljude u
automobilu“. Tako da se moralni teret na vozača sada prebacuje na softver i hardver u vozilu
koje se sam upravlja. S obzirom na to da softver i hardver izgrađuju ljudi, neka od pitanja su:
kakva je moralna odluka ugrađena, programirana u program veštačke inteligencije koji
upravlja vozilom, budući da postoje situacije, oko određenog manevra vozila, može
uključivati moralnu odluku? Ko je zakonski odgovoran za štetu-uključujući gubitak života-
trećim licima (uključujući putnike i prolaznike) u nesreći vozila koje se samostalno upravlja?
Na ova pitanja će morati biti odgovoreno.
Drugi važan problem koji je blisko povezan sa Data Mining -om i AI je privatnost i zaštita
ličnih podataka. Iako su ove discipline imale koristi od postojanja velike količine podataka iz
različitih izvora, ti podaci nisu uvek legalno pribavljeni. Zakoni i propisi koji se odnose na
privatnost i zaštitu podataka razlikuju se širom svijeta i stalno se mijenjaju u potrazi za
ravnotežom između prava pojedinaca i drugih interesa
Sve je više područja u kojima AI i rudarstvo podataka imaju veliki uticaj i gde se sprovode
neka srodna istraživanja. Ispod je dat kratak uzorak onoga što se može smatrati delom
budućih pravaca istraživanja na polju veštačke inteligencije.
Kompanije poput Jobscan -a (2019) koje tražiocima posla pomažu u poboljšanju biografije
tvrde - na osnovu sopstvenih podataka - da više od 98% kompanija iz Fortune 500 koristi
sisteme za praćenje aplikanata (ATS), zasnovane na AI. Takođe Korn Ferri (2018),
konsultantska firma u Los Anđelesu, SAD, navodi nešto slično.
Koristeći koncept Neuromorfnog, koji je predložio Mead (1990), Intel planira da izgradi
neuromorfni sistem od 8 miliona neurona i da dostigne 100 miliona do 2020. godine, Moore,
(2019).
Javed i saradnici (2019) koriste AI i robotiku za pomoć deci sa poremećajem spektra autizma.
ZAKLJUČAK
Osim gore pomenutog filozofskog pitanja, AI nastavlja da zauzima mesta koja su ranije bila
rezervisana samo za čoveka. Ovo nas dovodi do preformulacije pitanja: Da li se u ovom
trendu može pronaći odgovor?
LITERATIURA
Ackerman, E. (2015). We Should Not Ban ‘Killer Robots’, and Here’s Why.
IEEE Spectrum, 29. https:// spectrum.ieee.org/automaton/robotics/artificial-
intelligence/we-should-not-ban-killer-robots
Copyright © 2020. IGI Global. All rights reserved.
Ganter, B., Stumme, G., & Wille, R. (1999). Formal Concept Analysis.
Springer. doi:10.1007/978-3- 642-59830-2
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. The MIT Press.
Gubrud, M. (2016). Why Should We Ban Autonomous Weapons? To
Survive. IEEE Spectrum. https://
spectrum.ieee.org/automaton/robotics/military-robots/why-should-we-ban-
autonomous-weapons-to- survive
Guerra-Sandón, A., Vega-Pons, S., & Ruiz-Shulcloper, J. (2012).
Algoritmos de Agrupamientos Con- ceptuales: un estado del arte. Reporte
Técnico CENATAV.
Guizzo, E., & Ackerman, E. (2016, June). When Robots Decide to Kill. IEEE Spectrum.
Hernández-Orallo, J. (2000, October). Beyond the Turing Test. Journal of
Logic Language and Informa- tion, 9(4), 447–466.
doi:10.1023/A:1008367325700
Javed, H., Burns, R., Jeon, M., & Howard, A. M. (2019). A Robotic
Framework to Facilitate Sensory Experiences for Children with Autism
Spectrum Disorder: A Preliminary Study. https://arxiv.org/ftp/
arxiv/papers/1901/1901.00885.pdf