Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 18

UVOD

Mogu li mašine razmišljati?“, To je pitanje koje je Turing (1950) postavio već 1950. Moguće
je razmatrati raspravu u tom članku kao polaznu tačku u istoriji onoga što se danas naziva
veštačka inteligencija (AI) , mada su pre toga vremena postojali neki radovi koji bi se mogli
smatrati onim što se sada naziva AI.

Već u antici su filozofi i mislioci uopšte izneli ideju da se „mehanički ljudi“ mogu
konstruisati i da će moći da oponašaju ljudska bića u akciji i razmišljanju. Dakle, moglo bi se
reći da koncept veštačke inteligencije postoji veoma dugo pre 1950. godine, što je približan
datum koji se ovde smatra početkom ovog što se sada naziva veštačka inteligencija.

AI je od 50 -ih godina imao plodnu istoriju. Tokom godina pojavilo se nekoliko grana kao što
su mašinsko učenje, rudarstvo podataka, robotika, statističko učenje, duboko učenje i druge.
Istraživanja na tu temu i razvoj alata i metoda značajno su porasli, posebno u poslednjih
dvadeset godina. Stalna potraga za uzrocima bolesti, poboljšanje metoda automatskih
dijagnoza, analiza finansijskih podataka i tržišne tendencije, između ostalog, samo su neke od
nebrojenih aplikacija u kojima su analiza i otkrivanje novih obrazaca podstakli istraživanje i
razvoj novih metoda, sve u vezi sa mašinskim učenjem, izvlačenjem znanja iz onoga što se
danas naziva Big Data, otkrivanjem znanja u bazama podataka ili KDD -a i Data Mining -om.
Ovo poglavlje se fokusira na metode i algoritme rudarenja podataka kao pristupe različitim
zadacima učenja. Takođe se analizira odnos Data Mining -a sa drugim disciplinama
umetnutim u oblasti veštačke inteligencije, kao i kratka diskusija o pitanjima vezanim za ovu
disciplinu i budućim pravcima istraživanja.

POZADINA

Teoretske rasprave o mogućnosti stvaranja automata ili navodno inteligentnih mašina dolaze
već duže vreme. U Ernst & Nevell (1969) je sprovedeno istraživanje o razvoju računarskog
programa sa opštim mogućnostima rešavanja problema. Program bi mogao rešiti probleme
poput Hanojske kule ili dokazati teoreme u predikatskom računu prvog reda.

Veizenbaum, J. (1976), autor tada poznatog računarskog programa koji se u početku zvao
ELIZA, a kasnije DOKTOR koji je dozvolio parodiranje uloge rogerijanskog psihoterapeuta,
bio je iznenađen, kaže, zbog tri događaja: (i) Brojni psihijatri misle da bi program mogao
postati automatski oblik psihoterapije. (ii) Koliko su se brzo i duboko ljudi emocionalno
uključili u program.

(iii) Širenje uverenja da program pokazuje opšte rešenje problema nerazumevanja prirodnog
jezika pomoću računara. Ova situacija koju je prijavio Veizenbaum može se uporediti sa
Turčinom, poznatim šahistom za koga se decenijama, od kraja 18. do kraja 19. veka, verovalo
da je mašina sposobna za igranje šaha. Ovo, i mnogi drugi u isto vreme, mogu biti
prethodnici programa za koje se danas smatra da su deo opšte oblasti veštačke inteligencije.

U svom udžbeniku Viston (1977) kaže da su „centralni ciljevi veštačke inteligencije učiniti
kompjutere korisnijim i razumeti principe koji inteligenciju čine mogućom“.
Mnogi autori se slažu da je AI važna oblast znanja koja je blisko povezana sa drugim
disciplinama. Kako Russell, S. J. i Norvig, P. (2010) izražavaju, „Veštačka inteligencija (AI)
je veliko polje ... koje obuhvata logiku, verovatnoću i kontinuiranu matematiku; opažanje,
zaključivanje, učenje i delovanje; i sve, od mikroelektronskih uređaja do robotskih
planetarnih istraživača ”. AI ne obuhvata samo mašinsko učenje, već i druge discipline kao
što su robotika, logičko programiranje i induktivno logičko programiranje (ILP), polje
mašinskog učenja i rudarenja podataka. Ova različita područja bi mogla biti ili deo AI -a ili
su iz njega nikla.

AI je u svojoj istoriji imao različite ciljeve. U početku je ideja oličena u Turingovom pitanju
bila najvažnija. Može li se napraviti računar koji se ponaša kao ljudsko biće ?, dakle, da li bi
mogao da reši probleme koje bi čovek mogao? Razvijeno je nekoliko testova za procenu
takve sposobnosti. Turing (1950) je izneo ono što se danas naziva Turingov test, ali koji je
nazvao „Igra imitacije“. O Turingovom testu postoje različita mišljenja. Cohen, Paul R.
(2006) sažima ih govoreći da postoje tri vrste argumenata protiv Turingovog testa, naime
neki kažu da je test irelevantan, treba ga zaboraviti, rešiti ga se, međutim i dalje stoji. Postoje
takmičenja, varijacije na testu itd. Još jedan argument protiv testa vezan je za filozofiju
povezanu sa pitanjem da li mašine mogu da misle, ili šta misle, i da li mašine zaista to mogu
ili je to samo simulakrum. Drugi daju metodološki argument prilikom postavljanja pitanja. da
li je Igra imitacije, - kao što je Turing izneo - valjano metodološko sredstvo za definitivno
određivanje da li mašina može razmišljati? “, Oni tvrde da je test metodološki pogrešan i da
je zasnovan na lošoj filozofiji, da razotkriva kulturne predrasude i naivnost o tome šta Turing
naziva „programiranje“ potrebno za polaganje testa" Cohen, Paul R. (2006, str. 61).

AI je u velikoj meri evoluirao od Turingovog vremena. Ta evolucija je podstakla razvoj


različitih grana, podstaknuta praktičnim problemima kao što su prepoznavanje obrazaca,
analiza podataka i otkrivanje znanja. Jedna od ovih oblasti je Data Mining, u kojoj je ovo
poglavlje fokusirano.

Razvoj nekih polja veštačke inteligencije imale su koristi od postojanja velike količine
podataka koji potiču iz najrazličitijih izvora i domena. Proces otkrivanja znanja u bazama
podataka (KDD) i metode rudarenja podataka omogućavaju otkrivanje znanja u podacima
koji su skriveni za ljude, posebno kada su količine podataka velike ili čak izuzetno velike.
Ove metode predstavljaju znanje izvučeno na različite načine: pravila, jednačine, stabla
odlučivanja itd. I pomažu u odgovorima na pitanja, kao što su grupe iz populacije pojedinaca
sa zajedničkim karakteristikama ?, da li je klijent pouzdan ?, da li je e -pošta neželjene pošte
itd.

Odgovori na ovakve vrste pitanja razlikuju se od onih dobijenih iz tradicionalnih upita u On


line Transactions Processing (OLTP), gde se informacije ne kriju niti se otkrivaju, već se
sažimaju u dogovorenom formatu ili izveštaju. Oni se takođe razlikuju od informacija koje
proizilaze iz mrežne analitičke obrade (OLAP), koje se mogu predstaviti u različitim
perspektivama ili objediniti na različite načine, a ne samo sažeti kao u OLTP -u, a koje čak
mogu eskalirati do upotrebe velikih podataka, gde OLTP ne uspe. Međutim, obe ove metode
nisu sposobne da otkriju novo znanje niti proizvedu nove obrasce ili pravila kako to dopušta
proces KDD.

Ovo poglavlje se fokusira na fazu rudarenja podataka KDD procesa, njene zadatke i metode,
kao i njen odnos sa drugim oblastima veštačke inteligencije, poput mašinskog učenja,
programiranja induktivne logike, statistike itd. Rasprava o pitanjima i izazovima vezanim za
ovu oblast daje se i predstavljaju neki budući istraživački trendovi.

RUDARANJE PODATAKA, UČENJE MAŠINA I VEŠTAČKA INTELIGENCIJA

Pojam Data Mining nije nov. Od šezdesetih godina prošlog veka statističari su koristili druge
termine kao što su ribolov podataka ili jaružanje podataka kako bi se pozvali na ideju
pronalaženja korelacija u podacima bez prethodne hipoteze kao na uzročnost. Međutim, tek
krajem 80 -ih Data Mining je postao disciplina računarstva i naučna zajednica je usvojila taj
termin. U stvari, kako ističu Vitten i Frank (2011), prva knjiga o rudarenju podataka pojavila
se 1991. (Piatetski-Shapiro i Fravlei, 1991)-zbirka radova predstavljena na radionici o
otkrivanju znanja u bazama podataka kasnih 1980-ih.

Data Mining je grana AI koja je blisko povezana sa mašinskim učenjem, gde mašinsko
učenje pruža tehničku osnovu za rudarenje podataka (Vitten i Frank, 2011). Data Mining se
bavi induktivnim učenjem na praktičan, a ne teorijski način (kao što radi mašinsko učenje),
koristeći alate koje pruža mašinsko učenje. Primenjuje tehnike mašinskog učenja, kao i druge
statističke i algebarske tehnike za pronalaženje strukturnih obrazaca skrivenih u podacima, sa
glavnim ciljem opisa podataka ili pravljenja predviđanja iz njih.

Slika 1. Data Mining i druge srodne discipline


AI obuhvata ne samo mašinsko učenje, već i druge discipline kao što su robotika, logičko
programiranje i induktivno logičko programiranje (ILP), što je polje mašinskog učenja i
rudarenja podataka. Slika 1 prikazuje šematski prikaz odnosa između rudarstva podataka,
mašinskog učenja, AI i drugih povezanih disciplina.

RUDARSTVO PODATAKA I KDD

U literaturi se može naći nekoliko definicija Data Mining -a. Vitten i Frank (2011) upućuju
na Data Mining kao proces ekstrakcije prethodno nepoznatog, korisnog i razumljivog znanja
iz velikih količina podataka, koji mogu biti u različitim formatima i dolaze iz različitih
izvora. Hernandez-Orallo, Ferri i Ramirez-Kuintana (2004) definišu Data Mining kao proces
pretvaranja podataka u znanje. Međutim, i dalje postoji određena zabuna u upotrebi izraza
„KDD“ i „Data Mining“. Iako su jako povezani, nisu isti. Rudarenje podacima je faza u KDD
procesu, iterativni proces koji obuhvata druge faze ili aktivnosti kao što su odabir, čišćenje i
transformacija podataka, koji dolaze ne samo iz tradicionalnih baza podataka, već i iz drugih
heterogenih izvora, poput običnog teksta, podataka skladišta, slike, zvuk itd. Primena
algoritama za analiziranje podataka na ove podatke postiže se otkrivanjem valjanih, novih,
potencijalno korisnih i razumljivih skrivenih obrazaca. Kada se uzorci dobiju, oni se tumače i
vrednuju, vraćajući se na prethodne faze radi nove iteracije ako je potrebno.

Slika 2 prikazuje grafički prikaz procesa KDD. Neki autori razlažu KDD na druge faze; ipak,
njegove aktivnosti su u osnovi iste.

Slika 2. KDD proces

Tokom faze odabira podataka/uzorkovanja odvijaju se aktivnosti koje se odnose na


prikupljanje podataka i njihovu integraciju. Često se podaci prikupljaju iz najrazličitijih
izvora, pa nemaju isti format i strukturu. U tim slučajevima potrebna je aktivnost integracije
podataka. Ovo je ustupilo mesto konceptu skladišta podataka, tehnologiji koju organizacije
koriste za prikupljanje podataka iz različitih izvora u svrhu analize i donošenja odluka, npr.
evolucijska prognoza, organizaciona analiza i dizajn strategije.
Za razliku od baza podataka, koje uglavnom koriste aplikacije zasnovane na tradicionalnoj
obradi podataka, poznate kao OLTP (On-Line Transaction Processing), skladištima podataka
upravljaju alati OLAP (on-line analitička obrada). Skladišta podataka imaju drugačiju
organizaciju podataka od baza podataka, usvajajući višedimenzionalni model podataka.

Kao i OLAP, tehnike Data Mining mogu koristiti podatke iz skladišta podataka, ali dok
OLAP alati omogućavaju objedinjavanje detaljnih informacija, dobijanje izveštaja i prikaza u
realnom vremenu i proveru obrazaca i hipoteza koje je korisnik predložio u suštinski
deduktivnom procesu, Data Mining metode su u suštini induktivni proces koji koristi podatke
za zaključivanje obrazaca. Ipak, OLAP alati se takođe mogu koristiti u prvim fazama procesa
KDD radi boljeg razumevanja podataka.

Ponekad je potrebna druga faza predprocesiranja/čišćenja i transformacije. Tokom ove faze,


stvara se rutinski prikaz prethodno integrisanih podataka. Prikaz koji se može izračunati je
podskup integrisanih podataka koji će biti uneti u algoritme za rudarenje podataka, eliminiše
nepotrebne podatke za zadatak rudarenja podataka. U tom smislu, takođe se mogu sprovesti
aktivnosti poput stvaranja novih atributa, izbora relevantnih atributa, transformacije atributa i
smanjenja broja posmatranja. Ponekad se eliminišu nedostajuće vrednosti i odstupanja
(anomalije), posebno ako je korišćeni algoritam osetljiv na njihovo prisustvo.

Nakon što je prikaz za pripremu spreman, može se nastaviti faza Data Mining -a. U ovoj fazi
moraju se doneti odluke o metodi ili tehnici (npr. Stabla odluka) koje treba usvojiti za
rješavanje zadatka (npr. Klasifikacija). U ovoj fazi moraju biti izabrani algoritmi koji će se
primeniti na prikaz za prikaz (na primer CART, C4.5). U sledećim odeljcima dat je pregled
zadataka, metoda i algoritama rudarenja podataka.

Poslednja faza, evaluacija i tumačenje obrazaca, je mesto gde se vrednuje model naučen iz
rudarenja podataka, nakon čega počinje nova iteracija počevši od jedne od prethodnih faza
kad god je to potrebno.

Evaluacija je veoma važan proces u KDD -u jer uključuje utvrđivanje koji od modela će se
među nekoliko alternativa zadržati za rešavanje postojećeg problema. Zbog toga su tehnike
za procenu efikasnosti različitih metoda i njihovo upoređivanje neophodne.

Modeli i tehnike evaluacije modela zavise od vrste zadatka koji se rešava


(opisnog/prediktivnog). Na primer, tipična mera ocenjivanja za klasifikacione modele je
stopa greške/tačnost, definisana kao udeo pogrešno/ispravno klasifikovanih instanci u
ukupnom broju instanci.

Najjednostavnija tehnika evaluacije za zadatke predviđanja je jednostavna validacija, pri


čemu su dokazi podeljeni u dva skupa, jedan za testiranje (skup testova), a drugi za obuku
(set za obuku). Ovo je učinjeno kako bi se garantovalo da je ocenjivačka mera dobijena iz
skupa testova nezavisna mera, izbegavajući previše optimistične procene. Međutim, postoje
najsofisticiranije tehnike kao što su unakrsna validacija, n-puta unakrsna validacija, korisne
kada su dokazi oskudni ili pokretanje (Efron i Tibshirani, 1993) (Kohavi, 1995).
U opisnim zadacima, kao što su pravila grupisanja i pridruživanja, koriste se različite mere.
Na primer, pokrivenost (ili podrška) i tačnost (ili poverenje) se koriste za pravila
pridruživanja.

ZADACI I METODE RUDARANJA PODATAKA

Zadatak se obično definiše kao delo koje je dodeljeno nekoj osobi. U domenu veštačke
inteligencije zadatak je rad koji će biti dodeljen mašini ili računaru, a bolja definicija bi bila
rad koji će obaviti računarski program.

Metoda je postupak, tehnika ili algoritam za nešto: da li je ovaj slučaj zadatak. Glavni metod
koji AI i njegove različite grane koriste za izvršavanje zadataka je induktivno učenje (IL). U
narednim odeljcima su detaljno opisani zadaci i metode rudarenja podataka.

ZADACI RUDARSTVA PODATAKA

U AI, kao i u mnogim drugim disciplinama, postoje porodice problema. Svaka od ovih
porodica naziva se zadatak učenja i može se rešiti pomoću različitih metoda i algoritama.
Prepoznavanje uzoraka, poput prepoznavanja slike - uključujući prepoznavanje lica -,
prepoznavanje teksta itd. Može se smatrati jednim od glavnih zadataka. Ali klasifikacija,
regresija, grupisanje, korelacije i pravila pridruživanja takođe se mogu prepoznati među
najvažnijim od ovih zadataka.

Kao rezultat zadatka i prema problemu koji rešava, može se dobiti predviđanje ili opis, čime
se ustupaju mesto prediktivnim i opisnim zadacima. Prediktivni zadaci, kako mu naziv
govori, procenjuju nepoznate ili buduće vrednosti, dok opisni zadaci pretražuju skrivene
obrasce u podacima kao način da ih objasne ili opišu.

Jedan od najčešćih zadataka predviđanja je klasifikacija, dok se korelacije, pravila


povezivanja, funkcionalne zavisnosti i grupisanje mogu smatrati opisnim zadacima.

Zadatak klasifikacije sastoji se u označavanju svake nove instance oznakom (klasom) iz


skupa mogućih klasa. Klasifikacija predviđa klasu instance iz vrednosti njenih atributa, npr.
klasifikator koji je prethodno naučio koncept neželjene pošte iz starih poruka označenih kao
neželjena/bez neželjene pošte može se koristiti za klasifikaciju novih poruka.

Postoje varijacije klasifikacije poput kategorizacije, gde se instanca može označiti sa više
klasa. Druge varijante klasifikacije su meka klasifikacija i probabilistička klasifikacija. Meki
klasifikator ne samo da dodeljuje klasu, već i procenu stepena izvesnosti. Verovatnotna
klasifikacija je generalizacija meke klasifikacije, gde za svaku instancu klasifikator predviđa
raspodelu verovatnoće za skup mogućih klasa. Kada je broj klasa dva, verovatnosni
klasifikator je ekvivalentan mekom klasifikatoru.

Drugi opisni zadatak je učenje preferencija, gde se uči rangiranje. Proces učenja se ne
sprovodi iz skupa instanci kao u klasifikaciji, već iz niza instanci, gde redosled u nizu
predstavlja redosled prioriteta instanci u nizu. Na primer, s obzirom na skup kandidata za
radno mesto, da biste dobili redosled preferencija kandidata na osnovu vrednosti njihovih
atributa i ranijih rangiranja preferencija iz kojih ćete naučiti novi redosled preferencija.
Regresija je takođe još jedan važan zadatak predviđanja. U ovom slučaju se predviđa stvarna
vrednost, odnosno uči se prava funkcija. Primer regresionog zadatka je procena
produktivnosti preduzeća na osnovu prethodnih vrednosti produktivnosti. Kada se za
budućnost predvidi stvarna vrednost, ovaj zadatak se naziva procenom,

a kada je predviđena stvarna vrednost između dve poznate vrednosti to se naziva


interpolacijom.

S druge strane, korelacija je opisni zadatak. Korisno je utvrditi da li su dve numeričke


promenljive povezane, odnosno da li imaju slično ponašanje. Kada postoji pozitivna
korelacija, obe varijable se povećavaju i smanjuju istovremeno, ako je korelacija negativna,
jedna se smanjuje kada se druga povećava. Korelacija ne samo da može biti pozitivna ili
negativna, već može biti i jaka ili slaba ili nepostojeća. Ovaj zadatak se koristi u rudarenju
podataka za utvrđivanje suvišnih atributa ili zavisnosti među njima.

Pravila pridruživanja su takođe opisni zadatak koji, kao korelacije, pronalazi postojeće
odnose među kategorijskim (ne numeričkim) atributima. Funkcionalne zavisnosti su
varijacija pravila pridruživanja, gde samo jedan atribut je određen iz podskupa preostalih
atributa. Na primer, funkcionalna zavisnost bi mogla da utvrdi da je osoba vlasnik kuće
prema njenim godinama, prihodu i bračnom statusu. Opisni zadatak grupisanja sastoji se u
podeli skupa instanci u prirodnim grupama koje se zovu klasteri. Prvobitno je centralni
koncept grupisanja bio korišćenje numeričke mere sličnosti među instancama, stvarajući
klastere u kojima je sličnost među članovima klastera maksimizirana, a sličnost među
članovima različitih klastera svedena na minimum. Drugačiji pristup grupisanju je
konceptualno grupisanje koje je predložio Michalski (1980), koje se ne zasniva na pojmu
sličnosti, već na konceptualnoj koheziji (Michalski i Stepp, 1983). U konceptualnom
grupisanju, dva pojedinca pripadaju istom klasteru ne zato što su slični (prema meri sličnosti
ili udaljenosti), već zato što su deo istog koncepta ili, drugim rečima, opisani su istim
konceptom. Ova dva različita pogleda na grupisanje ustupili su mesto različitim pristupima
ovom zadatku:

grupisanje zasnovano na sličnosti i konceptualno grupisanje.

Glavna primena grupisanja je nagađanje da nove instance koje su smatrane članovima


klastera imaju slično ponašanje ili karakteristike kao i članovi tog klastera. Na primer, onlajn
prodavnica bi mogla da koristi grupisanje za stvaranje grupa kupaca u skladu sa njihovim
preferencijama za kupovinu, a zatim kada kupac kupi članak, sistem nudi druge artikle na
osnovu preferencija drugih kupaca u istom klasteru.

METODE I ALGORITMI RUDARANJA PODATAKA

Postoji značajan broj metoda učenja koje podržavaju prethodno opisane zadatke. Na primer,
klasifikacioni zadatak se može rešiti različitim metodama, npr. neuronske mreže ili stabla
odlučivanja. Istovremeno, svaki određeni metod može se implementirati različitim
algoritmima. Na primer, postoji nekoliko algoritama stabla odlučivanja, kao što je ID3
(Kuinlan, 1986) ili njegovo proširenje C4,5 (Kuinlan, 1993). Mnogi od njih se mogu koristiti
za rešavanje različitih zadataka, npr. Algoritam k-najbližeg suseda može se koristiti za
klasifikaciju, regresiju, a takođe i za grupisanje.

Generalno, DM metode se mogu kategorisati kao nadgledane i bez nadzora. Nadgledane


metode uče modele iz primera, gde postoji nastavnik ili nadzornik (stručnjak) koji definiše
klase i daje primere za svaki čas. Ovi primeri čine set za obuku, koji se koristi za izgradnju
modela koji omogućava predviđanje klase novih primera. Neke nadzirane metode uče
funkciju, tj. Klasa se ne spaja, dok druge uče odnos, gde se klase mogu preklapati. Prvi
odgovara zadatku klasifikacije, dok drugi kategorizaciji.

U metodama bez nadzora učenje se vrši posmatranjem i otkrivanjem; primeri koji se koriste
za učenje nisu označeni klasom kao u nadgledanim metodama, ali metoda mora posmatrati
primere i sama prepoznati obrasce.

Generalno, i nadzirane i nenadgledane metode pridržavaju se jednog od dva pristupa


induktivnog učenja: simboličkog učenja i učenja zasnovanog na sličnosti. U sljedećem
odjeljku dat je opis oba pristupa i pregled njihovih glavnih metoda.

UČENJE NA SLIČNOSTI

Metode učenja zasnovane na sličnosti dele koncept sličnosti i druge povezane koncepte poput
pojma udaljenosti i susedstva ili blizine. Potrebna je neka vrsta mehanizma za upoređivanje
dva objekte i odlučiti da li su slični. Jedan od načina je upotreba funkcije sličnosti. Funkcija
sličnosti je realna funkcija koja za dva objekta vraća stvarnu vrijednost koja predstavlja
koliko su ova dva objekta slična, vraća veće vrednosti dok su objekti sličniji. Na primer,
funkcija sličnosti koja se često koristi u mašinskom učenju je kosinusna mera sličnosti
između dva vektora realnih brojeva; često se koristi za upoređivanje dokumenata.

Koncept udaljenosti ili metrike povezan je sa pojmom sličnosti, jer je rastojanje između dva
objekta obrnuto proporcionalno sličnosti među njima. Iako je udaljenost poseban slučaj
funkcije sličnosti, udaljenosti imaju određena svojstva koja se mogu koristiti tehnikama
učenja.

Metode zasnovane na sličnosti podržavaju ideju da bi se slični objekti trebali ponašati na


sličan način. Na primer, s obzirom na meru sličnosti, nova instanca bi se mogla klasifikovati
kao ona koja ima najsličniju instancu; ili u zadatku grupisanja, mogao bi se staviti u klaster
koji ima sličnije instance.

Sledi kratak opis nekih dobro poznatih nadziranih i nenadgledanih metoda zasnovanih na
sličnostima.

NADZORNE METODE ZASNOVANE NA SLIČNOSTI

Nadgledane metode zasnovane na sličnosti uče iz skupa označenih instanci koje koriste
funkciju sličnosti ili udaljenost za svoja predviđanja. Primeri za to su k-najbliži susedi,
Fisherov diskriminator, vektorske mašine za podršku, vektorska kvantizacija učenja, između
ostalih.

k-NN (k-Najbliži susedi)

To je vrlo jednostavan i verovatno najpoznatiji metod pod nadzorom. Ideja koja stoji iza k-
NN je da se većinskoj klasi k najbližih suseda dodeljuje svaka nova instanca. Glavni problem
je određivanje optimalne vrednosti za k (vidi sliku 3). Obično se k određuje pomoću
heuristike; međutim, k = n gde je n broj primera, opcija je sa teorijskom osnovom.

Slika 3. Razlika između klasifikacija najbližih suseda u funkciji izabrane vrednosti k

Bilo koji prikaz podataka može se koristiti pod uslovom da se pronađe odgovarajuća funkcija
sličnosti

Podržite vektorske mašine (SVM)

Ova metoda traži linearni diskriminator koji maksimizira udaljenost do primera na granici
klase.

Klasifikator jednostavno izračunava hiperravninu koja savršeno razdvaja klase i koja


maksimizira udaljenost od primera na granici klase do granice (vidi sliku 4).

Slika 4. Linearni diskriminatori


SVM su vrlo efikasni, čak i za stotinu dimenzija jer linearni diskriminator mora da vidi samo
nekoliko tačaka, nazvanih vektori podrške, izbegavajući sve tačke koje nisu blizu granice.

Kada se podaci ne mogu linearno razlikovati (vidi sliku 5), može se primeniti funkcija jezgre,
povećavajući broj dimenzija na takav način da se podaci mogu odvojiti.

Slika 5. Skup primera koji se ne mogu odvojiti linearno

SVM model je prikaz primera kao tačaka u prostoru, transformisanih na takav način da su
primeri jasno odvojeni. Kada se novi primer mora klasifikovati, to se pomoću funkcije jezgra
transformiše u isti prostor i klasifikuje prema strani hiperravnine na koju pada novi primer.

Vektorska kvantizacija učenja (LVK)

Naučeni model je zbirka prototipova, gde je novi primer klasifikovan prema blizini tih
prototipova. Prototip skupa elemenata je element skupa koji se nalazi u centru elemenata
prema svom metričkom prostoru; odnosno minimizira zbir udaljenosti do ostalih elemenata u
skupu. Kada ovaj element ne pripada skupu, naziva se centroid.

S obzirom na set obuka sa k klasa, algoritam nasumično bira k prototipova, čiji se položaji
menjaju dok se ne dostigne zadati prag. Ovo je iterativni proces, gde se prvo bira primer iz
skupa za obuku i označava klasom bližeg prototipa. Zatim se ponovo računa prototip klase. U
zavisnosti od oznaka prototipa i primera, položaj prototipa će se promeniti, što će novi
prototip približiti primeru ako se obe oznake podudaraju ili suprotno ako se ne podudaraju.
Proces se zaustavlja kada je promena položaja prototipova manja od praga davanja ili ako
nema više primera obuke.

METODE NADZORNE NA OSNOVU SLIČNOSTI

U učenju bez nadzora zasnovanom na sličnostima, dokazi se predstavljaju kao skup


neoznačenih elemenata, a cilj je pronaći opisni model iz dokaza, u ovom slučaju koristeći
funkciju sličnosti.

Učenje opisnih modela može se sprovesti na različite načine i pomoću više zadataka, npr.
grupisanje, korelacije i faktorizacije, pravila pridruživanja i funkcionalne zavisnosti.

Kratak opis metoda grupisanja zasnovanih na sličnosti dat je u nastavku; predstavljene


metode grupisanja klasifikovane su u hijerarhijsko grupisanje i particionisanje, što je
uobičajena klasifikacija metoda grupisanja.

Hijerarhijsko grupisanje

Ovi algoritmi proizvode ugniježđene nizove podela dokaza koristeći kao kriterij za podelu ili
spajanje grupa funkciju sličnosti. Poznati primeri hijerarhijskog grupisanja su aglomerativno i
hijerarhijsko grupisanje koje se deli.

Hijerarhijski algoritam kao rezultat proizvodi dendrogram koji predstavlja ugnežđene


klastere. Takođe prikazuje nivoe sličnosti gde se grupisanje menja u novo grupisanje (vidi
sliku 6).

Dendrogram se može razložiti na različitim nivoima dobivajući različite particije podataka.


Na primer, na slici 6, isprekidana linija preseca hijerarhiju na nivou koji odgovara grupisanju
koje formiraju grupe {A, B, C}, {D, E} i {F, G}.

Slika 6. Primer dendrograma proizvedenog hijerarhijskim algoritmom grupisanja


Algoritmi za grupisanje particija

Za razliku od hijerarhijskih algoritama grupisanja, koji stvaraju hijerarhiju grupisanja, ovi


algoritmi proizvode samo jednu particiju dokaza.

Jedan od najpoznatijih algoritama za particionisanje je k-mean. Njegov proces započinje


početnom slučajnom particijom formiranom od k klastera i nastavlja preusmeravanjem
primera u druge klastere vođene rastojanjem između primera i centroida klastera. Nakon što
su svi primeri prepotpisani, centroidi klastera se ponovo računaju. Ovaj proces se nastavlja
sve dok se ne postigne kriterijum konvergencije. Iako je k-mean popularan jer je njegova
implementacija jednostavna, on ima nedostatak što je razumno za izbor početne particije.

SIMBOLIČKO UČENJE NA OSNOVU MODELA

Slabost metoda zasnovanih na sličnosti je nedostatak tumačenja otkrivenih modela, koji su


određeni sličnošću između elemenata dokaza. Zbog toga ljudi teško razumeju ove modele.
Međutim, u mnogim slučajevima je potrebno imati eksplikativni model; na primer, naučeni
model treba da pruži objašnjenje ili opis svojih preporuka pri odbijanju kredita klijentu,
prevazilazeći oznake koje ga klasifikuju kao nepouzdanog. Ovde su simbolične metode
korisne. U sledeća dva odeljka opisane su neke od ovih metoda.

SIMBOLIČKE NADZORNE METODE NA OSNOVU MODELA

Možda je najpoznatija nadzirana simbolička metoda stabla odlučivanja, gde se iz dokaza uči
model predviđanja u obliku strukture stabla. Grane stabla odlučivanja predstavljaju
konjunkcije atributa, a njegovi listovi odgovaraju - u slučaju klasifikacionih stabala - skupu
oznaka ili klasa ili stvarnim vrednostima u slučaju stabala regresije.

Slika 7 prikazuje stablo odlučivanja koje je proizveo algoritam J48 u skupu alata Veka (Veka,
n.d.) izvedeno iz njegovog skupa podataka o vremenu. S obzirom na novu instancu,
omogućava utvrđivanje da li će se igrati tenis utakmica. Drvo u svojim srednjim čvorovima
prikazuje atribute izgled, vlažnost i vetar sa odgovarajućim vrednostima na svojim lukovima i
vrednostima da/ne klase (sviranje), na listovima

Slika 7. Stablo odlučivanja o tome da li ćete igrati tenis

Kad god nova instanca mora biti klasifikovana, stablo se prelazi iz korena prema vrednostima
atributa u uzastopnim čvorovima sve dok se ne postigne odsustvo i instanca se klasifikuje sa
vrednošću u odsustvu.

SIMBOLIČKE NADZORNE METODE NA OSNOVU MODELA


Dva reprezentativna simbolična metoda bez nadzora su konceptualno grupisanje (Michalski,
1980), (Mihalski i Stepp, 1983) i Formalna analiza koncepta (FCA) (Ganter et al., 1999).

Konceptualno grupisanje

Klasične metode učenja zasnovane na udaljenosti bez nadzora ne pružaju konceptualne opise
otkrivenih klastera. Ovo je ograničenje ovih metoda koje ostavljaju korisniku problem
tumačenja klastera.

Mihalski je 1980. predstavio ideju grupisanja objekata u kategorije koje opisuju pojmovi.
Kako je objašnjeno u (Guerra-Sandon et al., 2012), problem kojim se bave konceptualni
algoritmi od velike je praktične koristi. Oni nisu ograničeni na stvaranje liste objekata koji se
nalaze u istom klasteru i stoga dele slične karakteristike ili svojstva, već je namera
konceptualnog grupisanja pružiti dodatne informacije davanjem zajedničkih svojstava
elemenata u svakom klasteru.

Mihalski je bio preteča ovih ideja i danas postoji nekoliko algoritama za konceptualno
grupisanje. Konceptualna klasifikacija grupisanja data je u (Guerra-Sandon et al., 2012).
Takođe postoje hibridni predlozi poput HDCC -a (Funes et al., 2008), gde se postiže
integracija obe paradigme.

Formalna analiza koncepta (FCA)

FCA omogućava identifikaciju konceptualnih struktura iz podataka. Ove strukture


odgovaraju rešetkama formalnih koncepata, gde je svaki formalni koncept par (skup
svojstava, skup primera) i gde skup svojstava u formalnom konceptu u potpunosti opisuje
njegov skup primera. Ove rešetke formalnih pojmova sastoje se od odnosa parcijalnog reda
koji je definisan kao odnos generalizacije između formalnih pojmova. Glavni cilj FCA je
ponuditi kompaktne opise grupa podataka umesto grupisanja podataka

NEURONSKE MREŽE

Veštačke neuronske mreže (ANN) imaju dugu istoriju, koliko i sama AI. Inspirisani su
funkcionisanjem bioloških neurona. U osnovi, neuroni u mozgu su međusobno povezani
aksonima. Neuron prima ulaze od drugih neurona i kada ti ulazi prelaze prag, neuron šalje
izlaz drugim neuronima. Veštački neuroni (AN) oponašaju funkcije „pravih“ neurona. Svaki
AN je

Slika 8 (a) Perceptron (jednoslojni). (b) ANN sa više slojeva


matematička funkcija i = f (Si (ki vi)) gde su ki ulazi i vi pridruženi tegovi. Slika 8 (a)
prikazuje određenu ANN, nazvanu Perceptron, koja ima jedan AN svoje ulaze, težine i izlaz.

Poreklo AAN -a može se pronaći u radu Mcculloch & Pitt -a (1943), koji je prvi konstruisao
teoriju AN -a koja je ustupila mesto Jedinici logičke granice (TLU), ili Jedinici linearnog
praga. Kasnije je Rosenblatt (1957) stvorio Perceptron. U početku je bio zamišljen kao
algoritam za nadzirano učenje binarnih klasifikatora, kasnije je implementiran kao mašina za
opažanje i prepoznavanje slika. Perceptron je bio jednoslojna ANN. Kasnije su Minski &
Papert (1969) pokazali da jednoslojne ANN - poput Perceptrona - nisu u stanju da izvedu
logički kor.

Sledeći napredak bio je stvaranje ANN -ova sa više slojeva, tj. ANN -ova koji imaju ulazni
sloj, izlazni sloj i jedan ili više posrednih slojeva koji se nazivaju skriveni slojevi jer se ne
mogu 'videti' spolja .

ANN se može obučiti da izvrši zadatak. Važno poboljšanje u obuci ANN -a bilo je uvođenje
tehnike backpropagation -a, efikasne metode za izračunavanje ažuriranja težina radi
poboljšanja mreže sve dok ne bude u stanju da izvrši zadatak za koji se obučava (Goodfellov
et al., 2016). Postoji malo kontroverzi oko otkrića metode, ali neki od pionira u ovoj oblasti
su Kellei (1960), Brison (1961), a zatim Mizutani, Dreifus i Nishio (2000).

Algoritmi učenja za ANN -ove mogu biti nadgledani ili bez nadzora. Kada se željeni izlaz
daje ANN ulaznom sloju se nadzire. Učenje bez nadzora pruža neoznačene podatke i
algoritam pokušava da ih smisli tako što sam izdvaja karakteristike i obrasce. Postoje i
polunadgledani algoritmi učenja, gde se obično pruža samo mali skup podataka sa oznakom
naspram velikog skupa podataka bez oznaka.
Novija i rastuća grana mašinskog učenja je duboko učenje, koje podrazumeva upotrebu ANN
-ova sa više slojeva. Ove neuronske arhitekture dolaze u nekoliko varijanti, poput
konvolucionih neuronskih mreža, dubokih neuronskih mreža, mreža dubokih verovanja,
ponavljajućih neuronskih mreža i drugih. Primenjuju se na mnoga polja, npr. prepoznavanje
slike i zvuka, obrada prirodnog jezika

–Uključujući mašinsko prevođenje– istraživanje društvenih mreža, bioinformatika, dizajn


lekova, analiza slika, programi igara itd., Gde su dali rezultate koji su uporedivi i u nekim
slučajevima superiorniji od ljudskih stručnjaka. Mreže za duboko učenje se ponekad nazivaju
i duboke neuronske mreže (DNN). DNN su ogromne ANN-ove, čiji je trenutni gornji broj u
rasponu od 100-160 milijardi AN-ova.

PITANJA, REŠENJA I PREPORUKE

Poslednjih godina pojavilo se nekoliko pitanja vezanih za etiku, uglavnom vezanih za


samovozeća vozila i autonomno oružje, obe oblasti u kojima se koristi veštačka inteligencija.

Kao što je rekao Makmen (2018) „Kada vozač pritisne kočnicu kako ne bi udario pešaka koji
ilegalno prelazi put, ona donosi moralnu odluku koja prebacuje rizik sa pešaka na ljude u
automobilu“. Tako da se moralni teret na vozača sada prebacuje na softver i hardver u vozilu
koje se sam upravlja. S obzirom na to da softver i hardver izgrađuju ljudi, neka od pitanja su:
kakva je moralna odluka ugrađena, programirana u program veštačke inteligencije koji
upravlja vozilom, budući da postoje situacije, oko određenog manevra vozila, može
uključivati moralnu odluku? Ko je zakonski odgovoran za štetu-uključujući gubitak života-
trećim licima (uključujući putnike i prolaznike) u nesreći vozila koje se samostalno upravlja?
Na ova pitanja će morati biti odgovoreno.

Takođe, izgradnja i postavljanje autonomnog oružja izaziva veliku zabrinutost i dovela je do


rasprave o ovoj temi od strane istaknutih istraživanja u oblasti AI, jasno izlažući prednosti i
nedostatke. Za više informacija-o tome, videti Scharre & Horovitz, (2015), Russell, Tegmark
& Valsh, (2015), Ackerman, (2015), Gubrud, (2016), Guizzo & Ackerman, (2016), Scharre,
(2017), Russell , Aguirre, Conn & Tegmark, (2018).

Drugi važan problem koji je blisko povezan sa Data Mining -om i AI je privatnost i zaštita
ličnih podataka. Iako su ove discipline imale koristi od postojanja velike količine podataka iz
različitih izvora, ti podaci nisu uvek legalno pribavljeni. Zakoni i propisi koji se odnose na
privatnost i zaštitu podataka razlikuju se širom svijeta i stalno se mijenjaju u potrazi za
ravnotežom između prava pojedinaca i drugih interesa

BUDUĆI PRAVCI ISTRAŽIVANJA

Sve je više područja u kojima AI i rudarstvo podataka imaju veliki uticaj i gde se sprovode
neka srodna istraživanja. Ispod je dat kratak uzorak onoga što se može smatrati delom
budućih pravaca istraživanja na polju veštačke inteligencije.

Kompanije poput Jobscan -a (2019) koje tražiocima posla pomažu u poboljšanju biografije
tvrde - na osnovu sopstvenih podataka - da više od 98% kompanija iz Fortune 500 koristi
sisteme za praćenje aplikanata (ATS), zasnovane na AI. Takođe Korn Ferri (2018),
konsultantska firma u Los Anđelesu, SAD, navodi nešto slično.

Koristeći koncept Neuromorfnog, koji je predložio Mead (1990), Intel planira da izgradi
neuromorfni sistem od 8 miliona neurona i da dostigne 100 miliona do 2020. godine, Moore,
(2019).

Javed i saradnici (2019) koriste AI i robotiku za pomoć deci sa poremećajem spektra autizma.

Ne samo da je prepoznavanje slika i lica sve veće područje istraživanja, već je i


prepoznavanje lažnih slika takođe oblast u kojoj se koristi AI, vidi Leopold, (2019).

ZAKLJUČAK

Iako je veštačka inteligencija postala zrela disciplina i rudarstvo podacima je poslednjih


godina u velikoj meri doprinelo tehnološkom razvoju, ostaje pitanje: Da li je izgradnja
računara sličnog čoveku valjan cilj veštačke inteligencije? Na ovo pitanje namera je da
odgovori predlozima kao što je tehnološka singularnost, koja se ponekad naziva samo
singularnost, koncept koji je prvi izneo Vinge (1993). U osnovi koncept smatra da će
tehnološki napredak na kraju dovesti do stvaranja nadljudske inteligencije i posledično do
propasti ljudskog doba. Ili je Technium drugi izraz, u ovom slučaju skovan od Kelli (2010),
koji se koristi „za označavanje većeg, globalnog, masovno povezanog sistema tehnologije
koji vibrira oko nas“ Kelli (2010, str. 11). Ovaj pojam je kritikovan zbog određene religiozne
pristrasnosti, ali i zbog stalne primene AI na različitim područjima koja su ranije bila
rezervisana za ljude.

Osim gore pomenutog filozofskog pitanja, AI nastavlja da zauzima mesta koja su ranije bila
rezervisana samo za čoveka. Ovo nas dovodi do preformulacije pitanja: Da li se u ovom
trendu može pronaći odgovor?

LITERATIURA

Ackerman, E. (2015). We Should Not Ban ‘Killer Robots’, and Here’s Why.
IEEE Spectrum, 29. https:// spectrum.ieee.org/automaton/robotics/artificial-
intelligence/we-should-not-ban-killer-robots
Copyright © 2020. IGI Global. All rights reserved.

Bryson, A. E. (1961). A gradient method for optimizing multi-stage


allocation processes. In Proceedings of the Harvard University, Symposium
on digital computers and their applications. Harvard University Press.

Cohen, Paul R. (2006). If Not Turing’s Test,Then What? AI Magazine, 26(4).

Efron, B., & Tibshirani, R. (1993). An introduction to the bootstrap.


Chapman and Hall. doi:10.1007/978- 1-4899-4541-9
Ernst, G. W., & Newell, A. (1969). GPS: A Case Study in Generality and
Problem Solving. Academic Press.

Funes, A., Ferri, C., Hernández-Orallo, J., & Ramírez-Quintana, M. J. (2008).


Hierarchical Distance-based Conceptual Clustering. Machine Learning and
Knowledge Discovery in Databases, LNAI 5211/2008. Springer.

Ganter, B., Stumme, G., & Wille, R. (1999). Formal Concept Analysis.
Springer. doi:10.1007/978-3- 642-59830-2

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. The MIT Press.
Gubrud, M. (2016). Why Should We Ban Autonomous Weapons? To
Survive. IEEE Spectrum. https://
spectrum.ieee.org/automaton/robotics/military-robots/why-should-we-ban-
autonomous-weapons-to- survive
Guerra-Sandón, A., Vega-Pons, S., & Ruiz-Shulcloper, J. (2012).
Algoritmos de Agrupamientos Con- ceptuales: un estado del arte. Reporte
Técnico CENATAV.
Guizzo, E., & Ackerman, E. (2016, June). When Robots Decide to Kill. IEEE Spectrum.
Hernández-Orallo, J. (2000, October). Beyond the Turing Test. Journal of
Logic Language and Informa- tion, 9(4), 447–466.
doi:10.1023/A:1008367325700

Hernández-Orallo, J. (2019). Unbridled mental power. Nature Physics, 15,


106. www.nature.com/na- turephysics
Hernández-Orallo, J., Ramírez-Quintana, M. J., & Ferri, C. (2004).
Introducción a la Minería de Datos. Pearson Education S.A.

Javed, H., Burns, R., Jeon, M., & Howard, A. M. (2019). A Robotic
Framework to Facilitate Sensory Experiences for Children with Autism
Spectrum Disorder: A Preliminary Study. https://arxiv.org/ftp/
arxiv/papers/1901/1901.00885.pdf

Jobscan. (2019). https://www.jobscan.co/blog/fortune-500-use-applicant-tracking-systems/


Kelley, H. (1960, October). Gradient Theory of Optimal Flight Paths. ARS
Journal, 30(10), 947–954. doi:10.2514/8.5282
Kelly, K. (2010). What Technology Wants. Penguin Group.

Kohavi, R. (1995). A study of cross-validation and bootstrap for accuracy


estimation and model selec- tion. In Proceedings of the Fourteenth
International Joint Conference on Artificial Intelligence. Morgan Kaufmann.

You might also like