Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 16

1. Geomestrijska interpretacija uzorka.

Objasniti odstupanja koja se koriste u


multivarijacionoj analizi. (knjiga: Zlatko Kovai, Multivarijaciona analiza),
2. Objasniti metodu najmanjih kvadrata kod viestruke linearne regresije,
3. to je to ANOVA? Objasniti pojedinane elemente ANOVA tablice.,
4. Objasniti postupak i rezultate multidimenzionalnog skaliranja.
5. Odabir mjera udaljenosti/slinosti kod klaster analize,
6. Odabir metoda za povezivanje objekata u klastere.
7. Objasniti veze u postupku faktorske analize,
8. Pretpostavke diskriminacione analize.,
9. Procjena diskriminacionog modela,
10. Interpretacija rezultata diskriminacione analize.,
11. Tumaenje modela logistike regresije.,
12. Klasifikacija metoda multivarijacione analize.

PITANJE 1

Matricu podataka moemo dvojako posmatratisa stanovita njene geometrijske interpretacije.
Ako posmatramo po redovima tada svaki red predstavlja jednu taku u p-dimenzinalnom
vektorskom prostoru. Stepen rasprenosti n taaka u ovom prostoru zavisi od sredine i
varijanse promjenljivih , kao i njihove uzajamne povezanosti. Redovi matrice podataka
odnose se na osobu ili objekt. Prirodan nain poreenja p realizovanih vrijednosti opservacija
u dva reda matrice podataka X
r
i X
s
je izraunavanje njhovog meusobnog odstojanja.
Uobiajena definicija odstojanja je tzv.Euklidsko odstojanje zasnovano na Pitagorinoj
teoremi. Prema njemu kvadrat odstojanja izmeu dvije take u p-dimenzionom prostoru dat je
izrazom:

d
rs
2
=(x
r
-x
s
)
'
(x
r
-x
s
)=

(x
rj
-x
sj
)
2


gdje je (x
r
-x
s)
vektor razlika kordinata r-tog i s-tog vektora. Kako se esto ova sredina
koristi kao reperna taka u odnosu na koju posmatramo odstojanje ostalih taaka uzorka to je
kvadrat Euklidskog odstojanja vektora x
r
u odnosu na sredinu, u oznaci d
r
2
dat izrazom:

d
r
2
= (x
r
-x

)
'
(x
r
-x

(x
rj
-x
j
)
2


Ako smo odredili meudosbno odstojanje izmeu svaka dva para objekta, tada njihovu
prezentaciju u formi (nxn) matrice nazivamo matricom Euklidskih odstojanja i oznaavamo je
sa D




D= 0 d
12
2
d
13
2
..... d
1n
2

d
21
2
0 d
23
2
.......d
2n
2

d
31
2


d
32
2
0..........d
3n
2
..........................................
d
n1
2
d
n2
2
d
n3
2
.......0






Slijedee odstojanje je statistiko odstojanje koje uzima u obzir varijansu i kovarijasu
posmatranih promjenljivih i primjerna je za statistiko izraunavanje sluajnog uzorka u p-
dimenzionom prostoru. Bez obzira na definiciju odstojanja matrica odstojanja predstavlja
osnovu analize grupisanja i drugih metoda multivarijacione analize koje su orijentisane ka
redovima matrice podataka.
Kvadrat duine vektora je jednak:

d
j
2
= e
j
'
e
j
=


(x
ij
-x
j
)
2
j=1,2,3,....,n

Znai da je proporcionalan uzorakoj varijansi j-te promjenljive , odnosno, proporcionalan je
standardnoj devijaciji . takoer, za bilo koja 2 vektora odstupanja e
j
i e
k
imamo unutranji ili
skalni proizvod:

e
j
'
e
j
=

(x
ij
-x
j
)(xik- k)

koji je proporcionalan kovarijansi izmeu j-te i k-te promjenljive.

PITANJE 2

Prikupljene podatke, (x1,y1),(x2,y2),,(xn,yn), prvo prikazujemo u koordinatnoj ravnini. Taj
prikaz omoguuje nam da zapazimo moguu funkcijsku ovisnost izmeu podataka.

Metoda najmanjih kvadrata unaprijed pretpostavlja linearnu funkcijsku ovisnost te pronalazi
pravac yax+b koji najbolje aproksimira vezu izmeu prikupljenih podataka. Procjene a i
b treba odrediti tako da vrijedi:
min(a,b)R2i1n(yiaxib)2i1n(yiaxib)2.
Pokazuje se da ta jednadba ima jedinstveno rjeenje:
(6)
aSXYSXX,byax,
gdje su SXY, SXX, x i y kao u (3).

Sada kada znamo koji pravac najbolje aproksimira prikupljene podatke, pogledajmo kako
izgleda na prikupljenom uzorku. Za poetak, pogledajmo kako originalni podaci izgledaju u
koordinatnom sustavu:



Sa slike moemo uoiti funkcijsku zavisnost ranga na prijamnom ispitu i prosjeka ocjena na
prvoj godini. Metodom najmanjih kvadrata odredimo koji pravac najbolje opisuje primijeenu
zavisnost. Potrebno je:
n94,x99.80280264,y2.62235,SXY3236.216722,SXX425137.155.
Dakle, dobivamo a0.0076121712, b3.382066, tj. traeni pravac je
y0.007621712x+3.382066.
Prikaimo dobiveni pravac i grafiki:



Metoda najmanjih kvadrata je jedna od najstarijih metoda. Suma kvadrata razlike zavisnog
faktora i njegovog oekivanja za svaki elemenat uzorka treba da je to manja.

(Y
i
-
0
-
1
-x
i1
-
2
-x
i2
-....-
k
-x
ik
) min

Minimum date sume se nalazi diferenciranjem sume po svakom koeficijentu _i, i0,...,k i
izjednaavanjem s 0. Kada se rijei tako dobijeni sistem od k+1 jednaine dobijaju se ocjene
koeficijenata_i, i0,...,k. Dobijeni sistem jednaina se naziva sistem normalnih jednaina.
U matrinom zapisu ovaj sistem je dat sa
(x
T
x)
-1
x
T
y

U optem sluaju ocjenjeni parametri preko ove metode imaju nepoznate osobine pa se u
mnogim sluajevima rijetko koristi. Kod viestruke linearne regresije ovom metodom se
dobijaju ocjene koeficijenata _i, i0,...,k ali ne i njihove varijanse ili varijansa zavisnog
faktora. Ocjene dobijene navedenom metodom imaju sve poeljne osobine.

PITANJE 3

ANOVA je tehnika upotrebe razlika izmeu prosjeka uzoraka u zakljuivanju o postojanju (ili
ne) razlika izmeu prosjeka populacija. Jedinstveni postupak kojim je mogue ralaniti i
procijeniti varijabilnosti uvjetovane razliitim faktorima izvorima.
Analiza varijance podrazumijeva aritmetiko ralanjivanje varijance sluajne varijable u
komponente, prema odredenim izvorima varijacija.
H0... aritmetike sredine triju ili vie osnovnih skupova su jednake:

H1... barem jedna populacija ima aritmetiku sredinu razliitu od

Pretpostavke:
- varijabla o ijoj se aritmetikoj sredini provodi test u svakoj populaciji je normalno
distribuirana
- distribucije populacija imaju jednake varijance (homoskedasticitet)

- Pristunost navedene pretpostavke potrebno je testirati, npr. Bartlettov-im testom!

- uzorci izabrani iz populacija su nezavisni

Postupak provoenja procedure ANOVA-e

Nakon provoenja Bartlettovog testa, i prihvaanja pretpostavke kako su razlike meu
varijancama sluajne, mogue je provesti proceduru ANOVA-e, drei se sljedeih koraka:

- postavljanje hipoteza

H0 ...aritmetike sredine triju ili vie osnovnih skupova su jednake

H1 ....barem jedna populacija ima aritmetiku sredinu razliitu od
H1... barem jedna populacija ima aritmetiku sredinu razliitu od


- iz svakog od k osnovnih skupova izabrati jedan uzorak veliine n

- provjeriti jednakost varijanci k uzoraka (npr, Bartlettovim testom)

- zabiljeiti sve vrijednosti obiljeja Xij svakog od uzoraka

i element u uzorku (i=1,2,..,n)
j uzorak kojemu pripada element (j=1,2,3,...,k)

- u svakom uzorku izraunati aritmetiku sredinu uzorka:

- izraunati zajedniku aritmetiku sredinu svih k uzoraka

- primjeniti jednadbu ANOVA-e
Jednadba ANOVA-e je ralanjeni zbroj kvadrata odstupanja za svih k*n elemenat



- izraunavanje sredina kvadrata odstupanja-Izraunate sume kvadrata odstupanja
potrebno je podijeliti pripadajuim stupnjevima slobode kako bi se izraunale sredine
kvadrata odstupanja:

- izraunavanje F testa
Ako je Ho istinita, MSB i MSW e biti priblino jednake, te e njihov kvocijent biti
priblino jednak 1.
Testovna veliina je empirijski F omjer rasporeden prema F distribuciji sa (K-1) i (n-
K) stupnjeva slobode:

- donoenje zakljuka

Razlika izmeu procjena varijance osnovnih skupova mogu biti rezultat:
- razlika izmeu sredina, ili

- razlika izmeu varijanci.
Pretpostavljeno je kako su varijance osnovnih skupova jednake, stoga se utvrdene razlike
pripisuju razlikama meu aritmetikim sredinama, to u navedenom sluaju znai kako treba
odbaciti postavljenu Ho.




PITANJE 4

Postupak je slijedei:

1.Formuliranje problema - to varijable ne elite usporediti? Koliko varijable ne elite
usporediti? Vie od 20 se esto smatra teak. [ citat potreban ] Manje od 8 (4 para) nee dati
valjane rezultate. [ citat potreban ] Koja je svrha studija koji e se koristiti za?
2. Dobivanja ulazne podatke - Ispitanici su zamoljeni niz pitanja. Za svaki par proizvoda,
oni su zamoljeni da stopa slinosti (obino na sedam toaka Likertova ljestvica od vrlo slina
vrlo razliit). Prvo pitanje koje bi moglo biti za koks / Pepsi na primjer, sljedei za Koks /
unajmljuje rootbeer, sljedei u Pepsi / Dr. Pepper, sljedei za Dr Pepper / unajmljuje rootbeer,
i sl. broj pitanja je funkcija broja marki i moe se izraunati kao gdje je Q broj pitanja, a N je
broj brandova. Ovaj pristup se naziva i "Percepcija podataka: direktan pristup". Postoje dva
pristupa. Tu je "Percepcija podaci: izvedeni pristup", u kojoj se proizvodi razlae na
atributima koji su ocijenjeni na semantikoj diferencijalnoj razini. Drugi je "Prednost podaci
pristup", u kojoj ispitanici su zamoljeni svoje preferencije nego slinosti.
3. Pokretanje programa MDS statistiki - Software za voenje postupka je dostupan u
mnogim softvera za statistiku. esto je izbor izmeu metrikim MDS (koja se bavi intervala
ili omjera razini podataka), te Nonmetric MDS (koja se bavi rednim podataka).
4. Odluite broj dimenzija - istraiva mora odluiti o broju dimenzija ele raunalo za
stvaranje. to vie dimenzija, bolje statistike formi, ali vie je teko interpretirati rezultate.
5. Mapiranje rezultata i definiraju dimenzije - Statistiki program (ili se odnose modul) e
mapirati rezultate. Karta e iscrtati svaki proizvod (obino u dva dimenzionalan prostor).
Nadalje, MDS je opseno koriste u geostatistike za modeliranje prostorne varijabilnosti
uzoraka sliku, tako da ih predstavlja kao toke u donjem dimenzionalnom prostoru
Blizina proizvoda meusobno upuuju na slino ili kako su oni ili kako preferirani su, ovisno
o tome koji pristup je koristiti. Dimenzije moraju biti oznaen od strane istraivaa. To
zahtijeva subjektivno presudu i esto je vrlo zahtjevna. [ nejasno ] Rezultati moraju se
tumaiti (vidi perceptivni mapiranje ). [ nejasno ]
6. Test rezultati za pouzdanost i valjanost - Izraunati R-kvadratna kako bi se utvrdilo to
udio varijance skalirane podataka moe se uzeti u obzir od strane MDS postupka. R-kvadrat
0,6 se smatra minimalno prihvatljivu razinu. [ citat potreban ] R-kvadrat od 0,8 smatra se
dobrom za metriki skaliranje i 0,9 se smatra dobro za ne-metriki skaliranje. Ostali mogui
testovi su Kruskal stresa, Split podaci ispitivanja, podaci ispitivanja (npr. stabilnosti,
eliminirajui jednu marku) i test-retest pouzdanost.

7. Prijavite rezultate sveobuhvatno - Uz mapiranje, barem mjerenju udaljenosti (npr.
Sorenson indeks , Jaccard indeks ) i pouzdanost (npr. stres vrijednost) treba dati. Takoer je
vrlo poeljno dati algoritam (npr. Kruskal, Mather), koji je esto definiran program koristi
(ponekad zamjene algoritam izvjetaj), ako ste dobili poetnu konfiguraciju ili je sluajan
izbor, broj staza , procjenu dimenzionalnosti, u Monte Carlo metoda rezultatima, broj
iteracija, procjena stabilnosti, a proporcionalna varijancu svake osi (r-kvadrat).

Primjene ukljuuju znanstvenu vizualizaciju i data mining u podrujima kao to su kognitivne
znanosti i informacijske znanosti i psychophysics i psihometrije i marketinga i ekologije .
Nove aplikacije nastaju u okviru autonomnih beinih vorova koji naseljavaju prostor ili
prostor. MDS se moe prijaviti kao u stvarnom vremenu poboljanom pristupu praenje i
voenje takvih populacija.

Nadalje, MDS je opseno koriste u geostatistike za modeliranje prostorne varijabilnosti
uzoraka sliku, tako da ih predstavlja kao toke u donjem dimenzionalnom prostoru

PITANJE 5

1. Mjere slinosti

Koncept slinosti je fundamentalan u klaster analizi. Slinost unutar objekta je mjera slinosti
ili slinost izmeu klasterovanih objekata. U naoj raspravi o faktorskoj analizi, napravili smo
matricu korelacija izmedju promenljivih koje se zatim koriste za grupu promenljivih u
faktorima. Uporedivi proces se deava u klaster analizi. Karakteristike su kombinovane unutar
kalkulisanih mjera slinosti za sve parove objekata, kao to smo koristili korelacije izmeu
varijabli u faktorskoj analizi. Na taj nain bilo koji objekat moe biti poreen sa drugim kroz
mjere slinosti. Procedura klaster analize dalje nastavlja u grupu slinih objekata unutar
klastera. Slinost unutar objekata se moe mjeriti na razliite naine, ali tri metode dominiraju
u okviru klaster analize: korelacione mjere, mjere udaljenosti i mjere udruivanja. Svaka od
ovih metoda predstavlja odreenu perspektivu slinosti, u zavisnosti od ciljeva i tipova
podataka. Korelacione i mjere udaljenosti zahtijevaju metrine podatke dok mjere udruivanja
su za nemetrine podatke.

2. Mjere korelacije
Mjera slinosti unutar objekata koje vjerovatno prva dolazi u obzir je koeficijent korelacije
izmeu objekata zasnovana na par promjenljivih. Zapravo, umjesto korelacije dva seta
promjenljivih mi konvertujemo objekte i varijable tako da kolone predstavljaju objekte a
redovi varijable. Koeficijent korelacije izmeu dvije kolone brojeva je korelacija (slinost)
izmeu profila dva objekta. Visoka korelacija pokazuje slinost a slaba korelacija oznaava
nedostatak iste. Mjere korelacije koje predstavljaju slinosti uzoraka putem dijagrama
slinosti prikazan kroz karakteristike (X varijable). To je ilustrovano primjerom od 7
posmatranja. U tabeli 9.3 koja sadri korelacije izmeu ovih 7 posmatranja moemo vidjeti
dvije razliite grupe. Prvo, u sluajevima 1, 5 i 7 svi imaju sline obrasce i odgovarajue
visoke pozitivne interkorelacije. Isto tako, sluajevi 2, 4 i 6 imaju visoke pozitivne korelacije
izmeu sebe ali I niske ili negativne korelacije sa drugim posmatranjima. Sluaj 3 ima nisku
ili negativnu korelaciju sa svim drugim sluajevima, i pri tom sam po sebi formira grupu.
Mlere korelacije se meutim rjee koriste zato to je naglasak u veini sluajeva klaster
analize na veliini objekta a ne na vrijednosti dijagrama.

3. Mjere udaljenosti
Iako korelacione mjere imaju mnoge kritike i koriste se u drugim multivarijacionim
tehnikama, nisu najee koritena mjera slinosti u klaster analizi. Mjera udaljenosti koje
reprezentuju slinost kao blizinu posmatranja izmeu varijabli su najee mjere slinosti koje
se koriste. Mjere udaljenosti su zapravo mjere nejednakosti sa veim vrijednostima koje
pokazuju manje slinosti. Jednostavna ilustracija je prikazana na naem hipotetikom
primjeru u kome su klasteri definisani na osnovu jednog posmatranja sa drugim gdje svaki
rezultira sa dvije promjenjive koje su grafiki prikazane.
Razlika izmeu korelacionih i mjera udaljenosti jeste ta to mjere udaljenosti se fokusiraju na
veliinu vrijednosti i oslikava sline sluajeve koji su bliski ali mogu imati veoma razliite
dijagrame promjenljivih. Izbor korelacionih mjera u odnosu na tradicionalne mjere rastojanja
zahtijeva prilino razliite interpretacije rezultata od strane istraivaa. Klasteri bazirani na
mjerama korelacije ne moraju imati sline vrijednosti ali umjesto toga imaju sline dijagrame.
Klasteri koji se zasnivaju na mjerama udaljenosti imaju sline vijrednosti kroz set
promjenljivih ali dijagrami mogu biti razliiti.

4. Mjere udruivanja
Mjere udruivanja se koriste za uporeivanje objekata ije su karakteristike mjerljive jedino u
nonmetrinim uslovima (nominalana ili ordinalna mjerenja). Kao na primjer, ispitanici mogu
odgovoriti sad ali ne na odgovarajui broj pitanja. Mjere udruivanja moraju procijeniti stepen
podudaranja izmeu svakog para ispitanika. Najjednostavniji oblik mjere udruivanja moe
biti procentualno prikazan odgovor sa da ili ne ispitanika kroz itav set pitanja. Mjere
udruivanja imaju ogranienu podrku raunarskih programa i istraiva je mnogo puta
prinuen da prvo izrauna mjere slinosti a zatim ih ukljui u proces klasterizovanja.

Postoji vei broj razliitih mjera udaljenosti ili slinosti izmeu objekata. Upotreba razliitih
mjera razlikovanja objekata ima za posledicu da se pojedinim karakteristikama podataka
pridaje razliit znaaj (npr. pridavanje veeg znaaja veim razlikama; uzimanje u obzir
najvee ili najmanje pojedine razlike izmeu dva objekta). Izbor mjere odreen je vanou
nekih karakteristika podataka u specifinoj situaciji u kojoj vrimo klasterizaciju objekata.
Osnovna razlika postoji izmeu mjera slinosti i mjera udaljenosti. Termin slinost esto se
koristi kao sinonim za povezanost ili korelaciju.


PITANJE 6


Postoji vei broj metoda za kombiniranje objekata u klastere.
U naelu razlikujemo hijerarhijske i nehijerahijske metode klasterizacije. Hijerarhijske
metode se dalje mogu podeliti na tzv. "aglomerativne" (agglomerative) - "gomilajue" , i
"divisive" odnosno dijelee. Ovi prvi polaze od pojedinih objekata koje povezuju u sve vee
klastere, dok drugi polaze od svih objekata udruenih u jedan klaster, pa ih zatim dijele do
pojedinih objekata.
Dominantno se u istraivanjima koristi spomenuta hijerarhijska "aglomerativna" metoda.
Neke karakteristike ove metode su:
1) polazi se od matrice slinosti meu objektima k x k
2) Sukcesivno formiranje klastera moe se prikazati grafiki dijagramom u obliku stabla, koji
se naziva dendrogram (gr. dendros - stablo).
3) Metoda zahteva k-1 koraka u formiranju klastera, budui da se na prvom koraku svi
pojedinani objekti tretiraju kao zasebni klasteri. Konano se dobiva jedan klaster koji sadri
sve objekte.
4) Relativno je lako razumljiva irem krugu potencijalnih korisnika.

Hijerarhijske metode
1) SINGLE LINKAGE ("NEAREST NEIGHBOUR"): Prosto povezivanje (metoda najblieg
susjeda)
Postupak prostog povezivanja je zasnovan na minimalnoj udaljenosti. Ona pronalazi dva
odvojena objekta putem najkrae udaljenosti i smjeta ih u prvi klaster. Zatim pronalazi
slijedeu najkrau udaljenost, pa ili se treina objekta pridruuje i sa prva dva formira klaster
ili su formirana nova dva klastera. Proces se nastavlja sve dok svi objekti ne nau u jednom
klasteru. Ovaj proces se naziva jo i pristup najblieg susjeda. Rastojanje izmeu bilo koja
dva klastera je najkraa udaljenost izmeu bilo koje take u jednom u odnosu na bilo koju
taku u drugom klasteru. Dva klastera su spojena najkraom ili najjaom vezom meu njima.
Problemi se javljaju, meutim, kada su klasteri loe obiljeeni. U takvim sluajevima, prosta
povezanost se moe formirati u duge, zmijolike lance i na kraju su svi pojedinci smjeteni u
okviru jednog. Oni koji se nalaze na krajevima tih lanaca, mogu biti veoma razliiti izmeu
sebe.
2) COMPLETE LINKAGE ("FURTHEST NEIGHBOUR"): Potpuno povezivanje (metoda
najdaljeg susjeda)
Postupak potpunog povezivanja je slina prostoj proceduri osim da se klaster zasniva na
kriterijumu maksimalne udaljenosti. Iz tog razloga, to je ponekad i nazvano kao pristup
najudaljenijeg susjeda ili metod prenika. Maksimalna udaljenost izmeu pojedinaca u
svakom klasteru predstavlja najmanju onu sferu koja moe da objedini sve entitete u oba
klastera. Ova metoda je nazvana kompletnom zato to su svi entiteti (objekti) u okviru
klastera povezani ili maksimalnom udaljenou ili minimalnom slinou. Moemo rei da
slinost unutar grupe je jednaka preniku grupe. Ova tehnika eliminie tzv. zmijoliki problem
koji je identifikovan pojedinanom metodom povezanosti.
3) UPGMA - AVERAGE LINKAGE BETWEEN GROUPS (unweighted pair-group method
using arithmetic averages): Prosjena veza izmeu grupa .Ovo je standardna opcija u SPSS-u.
Definie udaljenost izmeu dva klastera kao prosjek udaljenosti izmeu svih parova
koji se mogu definirati izmeu dva objekta. Npr. ako klaster A ine objekti 1 i 2, a klaster B
objekti 3,4 i 5, udaljenost izmeu klastera A i B moemo odrediti kao prosjek udaljenosti
izmeu sledeih parova objekata: (1,3), (1,4), (1,5), (2,3), (2,4), (2,5). Tih unakrsnih
udaljenosti ima kA x kB.
Ova metoda kao to se vidi uzima u obzir informacije o svim parovima objekata
izmeu dva klastera, zbog ega se preferira u odnosu na dvije prethodne metode.
4) AVERAGE LINKAGE WITHIN GROUPS: Prosjena veza unutar grupa.
Ova metoda kombinuje klastere tako da prosjena udaljenost izmeu lanova novog
klastera bude to manja. Tako se udaljenost izmeu dva klastera define kao prosena
udaljenost izmeu svih objekata koji bi sainjavali novi klaster od ta dva postojea.
5) WARD'S METHOD
Za svaki klaster izraunaju se aritmetike sredine za svaku varijablu. Zatim se za svaki
objekt rauna kvadratna euklidska udaljenost do aritmetike sredine klastera. Sumiraju se ove
udaljenosti za sve lanove klastera. Spajaju se oni klasteri za koje je ukupna (zajednika)
suma ovih odstupanja najmanja. U ovoj metodi razdaljina izmeu dva klastera je ustvari suma
kvadrata izmeu svih promjenljivih koji su sumirani u dva klastera. U svakoj fazi procesa
klasterovanja, unutar-grupna suma kvadrata je minimizirana nad svim podjelama (potpun set
razuenih ili razdvojenih klastera) koja se izvodi kombinacijom dva klastera iz predhodne
faze. Ovaj postupak zahtijeva kombinaciju klastera sa malim brojem posmatranja. Takoe je
bazirana na praenje razvoja klastera sa skoro istim brojem posmatranja.
6) CENTROID CLASTERING METHOD
Odreuje udaljenost izmeu klastera kao udaljenost izmeu aritmetikih sredina oba
klastera (njihovih centroida). Jedan nedostatak centroidne metode jeste u tome to se poetna
udaljenost dva klastera moe smanjiti izmeu dva sukcesivna koraka analize. Klasteri spojeni
u kasnijim fazama su vie razliiti nego oni spojeni u ranijim koracima. U centroidnoj metodi
udaljenost izmeu dva klastera je udaljenost (tipino kvadratna Euklidova ili prosta Euklidova
metoda) izmeu njihovih centroida. Centroidni klaster znai srednju vrijednost posmatranih
varijabli u klaster promjenljivima. Po ovoj metodi, svaki put kada je su pojedinci grupisani,
centroid je preraunat. Postoji promjena u klaster centroidu svaki put kada se jedinka ili grupa
jedinki doda postojeem klasteru. Ove metode su najpopularnije kod biologa, ali mogu
napraviti nered I esto zbunjujue rezultate. Konfuzija nastaje zbog inverzije ili obrnutosti
koja se javlja kada izmjerena udaljenost izmeu jednog para centroida je manja u odnosu na
neko ranije mjerenje. Prednost ove metode je da su manji uticaji na outliere u odnosu na neke
druge metode.


PITANJE 11

Tumaenje modela logistike regresije

Statistiko modeliranje binarnih promenljivih odgovora podrazumeva merenje izbora koje za
svaki subjekat moe biti uspeno ili neuspeno. Binarni podaci su verovatno najei oblik
kategorijskih podataka. Najrasprostranjeniji model binarnih podataka je logistika regresija.
Za binarni izbor Y i kvantitativnu objanjavajuu promenljivu X, neka (x) predstavlja
verovatnou uspeha kada X ima vrednost x. Ova verovatnoa je parametar za binomnu
distribuciju. Model logistike regresije ima linearni oblik za logit ove verovatnoe.

( ) | | x
x
x
x it | o
t
t
t + =
|
|
.
|

\
|

=
) ( 1
) (
log log (Jednaina 1)

Ova formula prikazuje da (x) raste ili opada sa S-funkcijom od x.
Druga formula za logistiku regresiju odnosi se direktno na verovatnou uspeha. Ova formula
koristi eksponencijalnu funkciju exp(x) = ex u obliku

( )
( )
( ) x
x
x
| o
| o
t
+ +
+
=
exp 1
exp
(Jednaina 2)

Tumaenje linearne aproksimacije

Parametar odreuje stopu rasta ili opadanja S-krive. Oznaka ukazuje na to da li je kriva
opadajua ili rastua, kao i na stopu rasta promene kako | | raste. Kada model ima vrednost
0, desna strana Jednaine 2 pojednostavljuje se u konstantu. Zatim, (x) je identian sa svim
x, te kriva prelazi u horizontalnu pravu liniju. Binarni izbor Y postaje potom konstanta X.
Grafik 1 pokazuje S-stranu modela logistike regresije za (x). Budui da ova funkcija ima
zakrivljeni, a ne pravolinijski izgled, zakljuuje se da stopa promene u (x) po jedinici
promene u x varira. Prava linija koja predstavlja tangentu na krivi za datu vrednost x
prikazuje stopu promene u toj taki. Za parametar logistike regresije, ta prava ima nagib
jednak . Na primer, linija tangente na krivu za vrednost x kod koje je (x) 0,5 ima nagib
(0,5)(0,5) 0,25; s druge strane, kada je (x) 0,9 ili 0,1, nagib iznosi 0,09. Nagib se
pribliava vrednosti 0 kako se verovatnoa pribliava vrednosti 1,0 ili 0.
Najotriji nagib krive dogaa se za vrednost x kada je (x) 0,5; ova vrednost x iznosi
x = - / . (Vrednost (x) 0,5 se ovde moe proveriti zamenom - / za x u Jednaini 2, to
jest, zamenom vrednosti (x) 0,5 u Jednaini 1 i reavanjem po x) Ova vrednost x se
ponekad naziva srednjim nivoom efektivnosti i oznaava se sa EL50. Njime se prikazuje nivo
kod kojih svaki rezultat ima 50% anse.

PITANJE 8

Kao i kod svih drugih multivarijacionih tehnika i diskriminaciona analiza bazirana na
nekoliko pretpostavki. Ove pretpostavke se odnose i na statistike procese prilikom procjene i
klasifikacijskih procedura i na pitanja koja se tiu interpretacije rezultata. U ovom poglavlju
govorimo o razliitim pretpostavkama i njihovim uticajima na ispravnu primjenu
diskriminacione analize.

Uticaj na procjene i klasifikaciju

Glavna pretpostavka za derivaciju diskriminacione funkcije jeste viestruka normalnost
nezavisne varijable i nepoznata (ali jednaka) disperzija i kovarijansa stukture (matrica) za
grupe definisane zavisnom varijablom. Iako su dokazi izmijeani u vezi osjeljitvosti
diskriminacione analize na krenje ovih pretpostavki, istraiva uvijek mora razumjeti uticaj
koji mogu imati na oekivani rezultat. Ukoliko su pretpostavke naruene i mogue ispravke
nisu prihvatljive ili se ne odnose na problem na pravi nain, istraiva bi trebao razmotriti
alternative metode (npr. logistiku regresiju).

Identifikacija naruavanja pretpostavki. Postizanje univarijacione normalnosti individualnih
varijabli e u mnogo sluajeva biti dovoljno da se postigne multivarijaciona normalnost.
Istraivau stoji nekoliko testova normalnosti, zajedno s odgovarajuim ispravkama, najee
predstavljaju transformaciju varijabli.

Pitanje jednake disperzije nezavisne varijable je slino homoscedasticity izmeu pojedinanih
varijabli. Najei test za utvrivanje znaajnosti razlike u matricama izmeu grupa je Box's
M test. Ovdje istraiva trai nivo naznaajne vjerovatnoe koji e pokazati da nije bilo
razlike izmeu grupe kovarijansi matrice. Dobijenu osjetljivost Box's M testa na veliinu
kovarijanse matrice i broja grupa u analizi, istraivai bi trebali koristiti veoma restriktivne
nivoe znaajne razlike (npr. 0,01 radine nego 0,05) pri odreivanju jesu li razlike prisutne.
Kada se izgled istraivanja povea u veliini uzorka ili u smislu grupa ili broja nezavisnih
varijabli, ak i restriktivniji nivoi znaajnosti se mogu smatrati prihvatljivim.

Uticaj na procjenu. Podaci koji nezadovoljavaju pretpostavku viestruke normalnosti mogu
prouzrokovati probleme u procjeni diskriminacione funkcije. Ispravke su mogue putem
transformacije podataka da smanji neuporedljivost izmeu kovarijanse matrica. Ali ipak, u
mnogim sluajevima ove ispravke su neefikasne. U ovim situacijama, model bi trebalo
detaljno pregledati. Ukoliko je zavisna varijabla binarna, logistika regresija bi se trebala
koristiti ukoliko je to mogue.

Uticaj na grupisanje. Nejednaka kovarijansa matrice takoer negativno utie na proces
grupisanja. Ukoliko je veliina uzorka mala i kovarijansa matrice nejednaka, onda je
statistika znaajnost procesa procjene neupitno pogoena. ei sluaj je taj da je nejednaka
kovarijansa meu grupama odgovarajue veliine uzorka, pri emu su posmatranja
pregrupisana u grupe s veom kovarijansom matrica. Ovaj efekat se moe minimizirati
poveavajui veliinu uzorka kao i koristei grupno specifine kovarijanse matrice u svrhu
klasifikacije, ali ovaj pristup zahtijeva cross-validation diskriminacionog rezultata. Napokon,
tehnike kvadratne klasifikacije su primjenljive u mnogim statistikim programima, ukoliko
postoji velika razlika izmeu kovarijansi matrica grupe i ukoliko ispravke nisu minimizirale
efekte.

PITANJE 7

Faktorska analiza, Factor Analysis, (FA), statistiki je pristup za analizu strukture
meusobnih odnosa veeg broja varijabli definiranjem seta zajednikih skrivenih dimenzija
tj. faktora. U faktorskoj analizi, kao i u analizi glavnih komponenata, osnovna je ideja jo
uvijek da set od p varijabli (i n individua) moe biti definiran manjim brojem faktora, pa tako
moe posluiti kao redukcijska metoda. No, primarni je cilj identifikacija faktora i
odreivanje stupnja do kojeg su izvorne varijable objanjene svakom dimenzijom - faktorom.
Za razliku od PCA koja nije bazirana ni na kakvom statistikom modelu, FA odreena je
specifinim statistikim modelom.
Zajedniki (common) faktor nevidljiva je, hipotetska varijabla koja pridonosi varijanci iz
barem dvije izvorne varijable. Izraz faktor najee se odnosi na zajedniki faktor. Jedinstveni
ili specifini (unique) faktor, takoer je nevidljiva, hipotetska varijabla koja pridonosi
varijanci u samo jednoj izvornoj varijabli.
Dok se pretpostavke za primjenu faktorske analize mogu poistovjetiti sa onima iz analize
glavnih komponenata pretpostavka same analize zajednikih faktora podrazumijeva da
zajedniki faktori nisu linearne kombinacije izvornih varijabli. ak i u sluaju analize
cjelokupnih podataka neke populacije, faktorske skorove (factor scores) nije mogue
izraunati direktno (kako je to bilo mogue u PCA), ali se oni mogu procijeniti na nekoliko
naina. Taj problem doveo je do formiranja metoda kojima se mogu proizvesti komponente,
aproksimacije zajednikih faktora (npr. Harisovom komponentnom analizom ili image
komponentnom analizom), koje ipak ne daju potpuno rjeenje faktora.
Interpretacija faktora je pridruivanje imena svakom faktoru tako da ono odraava vanost
faktora u predikciji svake izvorne varijable. Taj proces je subjektivan, i baziran je na
objanjavanju vrijednosti optereenja i komunaliteta. Ipak, nekoliko je vrlo uopenih,
kriterija za otkrivanje znaajnosti komunaliteta optereenja (SHARMA, 1996.):
1. to je vei uzorak, to manju komunalitetu treba smatrati znaajnom,
2. to je vei broj varijabli u analizi, to manju komunalitetu treba smatrati znaajnom,
3. to je vei broj faktora, to veu komunalitetu na faktorima koji slijede treba smatrati
znaajnom za interpretaciju.
Ukoliko rezultate faktorske analize nije mogue interpretirati, mogue ih je pojasniti i uiniti
manje subjektivnim metodama faktorske rotacije. Rotacija faktora se provodi primjenom
nesingularne linearne transformacije. Takvu rotiranu matricu, u kojoj svi koeficijenti, iznose 0
ili 1, lake je interpretirati nego matricu punu intermedijarnih elemenata. Najvie metoda
rotacije nastoje optimizirati funkcije matrice optereenja koja mjeri koliko su bliski elementi
0 ili 1. Rotacije mogu biti ortogonalne (orthogonal) ili kose (oblique).

PITANJE 12

Klasifikacije metoda multivarijacione analize zasnovane su na razliitim klasifikacionim
kriterijumima. Prva klasifikacija metoda pravi razliku meu njima prema tome da li su
orijentisane ka ispitivanju meuzavisnosti promjenljivih ili im je osnovni zadatak ispitivanje
meuzavisnosti objekata. Kada istraujemo meuzavisnost promjenljivih, tada posmatramo
kolone matrice podataka. Jedan od naina mjerenja meuzavisnosti promjenjljivih baziran je
na izraunatom koeficijentu koleracije meu njima. Osnovu ovih metoda multivarijacione
analize predstavlja kovarijaciona ili korelaciona matrica. Kod drugog pristupa, u cilju
poreenja 2 objekta ili osobe, posmatramo odgovarajue redove u matrici podataka, odnosno
definiemo razliite mjere bliskosti izmeu dva objekta ili osobe. Osnovu ovih metoda
multivarijacione analize predstavlja matrica odstojanja izmeu objekata.
Prema drugoj klasifikaciji, metode dijelimo u 2 grupe: metode zavisnosti i metode
meuzavisnosti. Ukoliko smo u istraivanju zainteresovani za ispitivanje zavisnosti izmeu 2
skupa promjenljivih, gdje jedan skup predstavlja zavisne promjenljive, a drugi nezavisne
promjenljive, tada se odgovarajua klasa metoda naziva metode zavisnosti. S druge strane,
ako nema apriornog, teorijskog osnova za podjelu svih promjenljivih na dva podskupa
promjenljivih (zavisnih i nezavisnih), tada koristimo metode meuzavisnosti.

Metode zavisnosti:
1. Multivarijaciona regresija je najpoznatija metoda multivarijacione analize.
Koristimo u njenom nazivu izraz multivarijaciona da bismo i na taj nain razlikovali 2 sluaja.
Prvi, u okviru koga se bavimo analizom zavisnosti jedne promjenljive (zavisna promjenljiva)
od skupa drugih promjenljivih (nezavisne promjenljive). Ovaj metod analize poznatiji je pod
nazivom metod viestruke regresije. Drugi sluaj je kad skup zavisnih promjenljivih sadri
vie od jendog lana. Za ovaj sluaj kaemo da predstavlja optiji model multivarijacione
regresije. Kod oba modela zadatak nam je ocjenjivanje ili predvianje srednje vrijednosti
zavisne, odnosno srednjih vrijednosti zavisnih promjenljivih na bazi poznatih vrijednosti
nezavisnih promjenljivih.
2. Kanonika korelaciona analiza ova analiza moe se smatrati uoptenjem
viestruke regresione analize. Naime, njome elimo uspostaviti linearnu zavisnost izmeu
skupa nezavisnih i skupa zavisnih promjenljivih. Kod izraunavanja kanonike korelacije
formirano dvije linearne kombinacije, jednu za skup nezavisnih, a drugu za skup zavisnih
promjenljivih. Koeficijente ovih linearnih kombinacija odreujemo tako da koeficijent
korelacije izmeu njih bude maksimalan.
3. Diskriminaciona analiza bavi se problemom razdvajanja grupa i alokacijom
opservacija u ranije definisane drupe. Primjena ove analize omoguava identifikaciju
promjenljive koja je najvie doprinijela razdvajanju grupa, na osnovu vrijednosti skupa
nezavisnih promjenljivih.
4. Multivarijaciona analiza varijanse (MANOVA) je odgovarajua metoda analize
kada nam je cilj ispitivanje uticaja razliitih nivoa jedne ili vie eksperimentalnih
promjenljivih na dvije ili vie zavisnih promjenljivih. U tom smislu ona predstavlja uoptenje
jednodimenzionalne analize varijanse (ANOVA).
5. Logit analiza kada je u regresionom modelu zavisna promjenljiva dihotomnog tipa,
tada takav model nazivamo regresioni model sa kvalitativnom zavisnom promjenljivom. Kod
njih je zavisna promjenljiva, tzv. logit funkcija, logaritam kolinika vjerovatnoa da e
dihotomna zavisna promjenljiva uzeti jednu ili drugu vrijednost. Modele ovog tipa nazivamo i
modeli logistike regresione analize.

Metode meuzavisnosti:
1. Analiza glavnih komponenti je metoda za redukciju veeg broja promjenljivih koje
razmatramo, ma manji broj novih promjenljivih (nazivamo ih glavne komponente). Osnovni
zadatak je konstruisanje linearne kombinacije originalnih promjenljivih (glavnih komponenti)
uz uslov da obuhvate to je mogue vei iznos varijanse originalnog skupa promjenljivih.
2. Faktorska analiza slina je metodi glavnih komponenti po tome to koristi za opis
varijacija izmeu promjenljivih na osnovu manjeg broja promjenljivih (nazivamo ih faktori).
Meutim, za razliku od nje, pretpostavlja postojanje odgovarajueg statistikog modela kojim
originalnu promjenljivu iskazujemo kao linearnu kombinaciju faktora plus greka modela,
odnosno veliina koja odraava stepen nezavisnosti posmatrane promjenljive od svih ostalih.
Na taj nain se cjelokupna kovarijansa ili korelacija objanjava zajednikim faktorima, a
neobjanjeni dio se pridruuje greci ( naziva se specifian faktor).
3. Analiza grupisanja je metoda za redukciju podataka, ali za razliku od prethodne
dvije metode koje su orijentisane ka kolonama (promjenljivim), ona je orijentisana ka
redovima (objektima) matrice podataka. Ovom analizom kombinujemo objekte u drupe
relativno homogenih objekata. Zadatak u mnogim istraivanjima je identifikovanje manjeg
broja grupa.
4. Viedimenzionalno proporcionalno prikazivanje pripada klasi metoda koji su
orijentisani ka objektima, a koristi mjeru slinosti, odnosno razlike izmeu njih u cilju
njihovog prostornog prikazivanja. Izvedena prostorna reprezentacija sadri geometrijski
raspored taaka na mapi, gdje se svaka taka odnosi na jedan od objekata.
5. Loglinearni modeli omoguavaju ispitivanje meusobne zavisnosti kvalitativnih
promjenljivih koje formiraju viedimenzionalnu tabelu kontingencije. Ukoliko se jedna od
promjenljivih u tabeli kontingencije moe smatrati zavisnom, tada na osnovu ocijenjenih
loglinearnih modela moemo izvesti logit modele.

PITANJE 9

Da bi derivirao diskriminacionu funkciju, istraiva prvo mora odluiti o metodi procjene i
onda odrediti broj funkcija da odri. S procijenjenim funkcijama, sveukupni izgled modela
moe biti procijenjen. Prvo, diskriminacioni Z score, takoer poznat i kao Z score, se moe
izraunati za svaki objekat. Usporedbom znaaja grupa (centroida) na Z score-u prua jednu
od mjera diskriminacije meu grupama. Tanost predvianja se moe mjeriti kao broj
posmatranja klasifikovanih u prave grupe, sa brojem kriterija raspoloivih za procjenu je li
proces grupisanja postigao praktine ili statistike znaajnosti. Napokon, dijagnostika u
zavisnosti od sluaja moe identifikovati preciznost klasifikacije za svaki sluaj, kao i njen
relativni uticaj na procjenu cjelokupnog modela.
2.4.1. Izbor metode procjene

Prvi zadatak u derivaciji diskriminacione funkcije je taj da izaberemo metodu procjene. Pri
ovom izboru, istraiva mora izbalansirati potrebu za kontrolom nad procesom procjenjivanja
nasuprot elji za krutosti diskriminacione funkcije. Dvije metode stoje na raspolaganju:
simultana (direktna) metoda i etapna metoda, obje metode su obrazloene u nastavku.

Simultana procjena. Simultana procjena podrazumijeva izraunavanje diskriminacione
funkcije tako da sve nezavisne varijable smatraju istovremenim. Diskriminaciona funkcija je
izraunata na osnovu itavog seta nezavisnih varijabli, bez obzira na diskriminacionu mo
pojedinih nezavisnih varijabli. Simultana metoda je prikladna kada, iz teoretskih razloga,
istraiva eli da ukljui sve nezavisne varijable u analizu i nije zainteresovan za traenje
srednjeg rezultata baziranih samo na najvie diskriminiranim varijablama.

Etapna procjena. Etapna procjena je alternativa simultanom pristupu. On podrazumijeva
ukljuenje nezavisnih varijabli jednu po jednu u diskriminacionu funkciju na bazi njihove
diskriminacione moi. Etapni pristup slijedi sekvencijalni proces dodavanja ili eliminisanja
varijabli po sljedeem redu:
1. Izaberite jednu najbolju diskriminacionu varijablu.
2. Uparite inicijalne varijable sa svakom od drugih nezavisnih varijabli, jedno po jednu, i
izaberi varijablu koja je u najboljem stanju da povea diskriminacionu mo funkcije pri
kombinaciji sa prvom varijablom.
3. Izaberite dodatne varijable na isti nain. Kako su dodatne vrijable ukljuene, neke od
prethodno odabranih varijabili mogu biti eliminisane ukoliko je informacija koju one sadre o
diferenciji grupe raspoloiva u nekim kombinacijama drugih varijabli koje su prethodno
ukljuene.
4. Smatrajte proces okonanim kada su ili sve nezavisne varijable ukljuene u funkciju ili
iskljuene varijable ocijenjene kao naznaajne za daljnu diskriminaciju.
Etapni metoda je korisna kada istraiva eli da razmatra relativno veliki broj nezavisnih
varijabli za ukljuenje u funkciju. Etapnim izborom sljedee najbolje diskriminacione
varijable u svakom narednom koraku, varijable koje nisu korisne u diskriminaciji izmeu
grupa su eliminisane i reducirani broj varijabli je identificiran. Reducirani set je najee
jednako dobar ponekad i bolji od kompletnog seta varijabli.

Istraiva bi trebao znati da etapne procjene postaju manje stabilne i generalne kako odnos
veliine uzorka i nezavisne varijable padne ispod preporuenog nivoa od 20 posmatranja po
nezavisnim varijablama. Veoma je vano da u ovim sluajevima se potvrdi validnost rezultata
na to je mogue vie naina.

PITANJE 10

Ukoliko je diskriminaciona funkcija statistiki znaajna i klasifikacijska tanost prihvatljiva,
istraiva bi trebao prei na interpretiranje dobijenih rezultata. Ovaj proces podrazumijeva
ispitivanje diskriminacione funkcije da bi odredili relativni znaaj svake nezavisne varijable u
diskriminaciji izmeu grupa. Najee se koriste sljedee tri metode pri odreivanju relativne
znaajnosti:
1. Standarizovana diskriminaciona teina
2. Diskriminacioni teret (struktura korelacija)
3. Parcijalna F vrijednost



Diskriminaciona teina

Tradicionalni pristup interpretaciji diskriminacione funkcije ispituje veliinu standarizirane
diskriminacione teine (takoer poznatog kao diskriminacioni koeficjent) dodijeljen svakoj
varijabli pri izraunavanju diskriminacione funkcije. Kada se znak zanemari, svaki teg
predstavlja relativni doprinos njegovih povezanih varijabli diskriminacionoj funkciji.
Nezavisne varijable sa relativno velikim tegovima doprinosi vie diskriminacionoj moi
funkcije nego varijable s malim tegovima. Znak odreuje samo da li varijabla ima pozitivan
ili negativan doprinos.

Interpretacija diskriminacionih tegova je analogna interpretaciji beta tegova u regresionoj
analizi i stoga su predmet iste kritike. Naprimjer, mali teg nam govori da su korespondirajue
varijable irelevantne u odreivanju veza ili da je izbaen iz veze zbog velikog stepena
multikolinearnosti. Drugi problem pri upotrebi diskriminacionih tegova je ta da su oni
podloni znaajnoj nestabilnosti. Zbog ovih problema se preporuuje oprez pri upotrebi
tegova u interpretaciji rezultata diskriminacione analize.

Diskriminacioni teret

Diskriminacioni teret, poznat i kao stukturna korelacija, se sve ee koristi kao baza za
interpretaciju zbog nedostataka pri upotrebi tegova. Mjerenjem jednostavne lienarne
koerlacije izmeu svake nezavisne varijble i diskriminacione funkcije, diskriminacioni teret
odraava varijansu koju nezavisna varijabla dijeli sa diskriminacionom funkcijom. U tom
smislu oni se mogu interpretirati kao tereti faktora u odreivanju relativnog doprinosa svake
nezavisne varijable diskriminacionoj funkciji.

Jedinstvena karakteristika tereta je ta da se tereti mogu izraunati za sve varijable, bilo da su
one koritene u procjeni diskriminacione funkcije ili ne. Ovaj aspekt je posebno vaan kada se
primjenjuju etapne procedure i kada neke varijable nisu ukljuene u diskriminacionu funkciju.
Radije nego nemati naina da se utvrdi relativni uticaj, tereti nam pokazuju relativni uticaj
svake varijable na zajedniku mjeru.

Sa teretima, osnovno pitanje je: Koju vrijednost teret mora imati da bi se smatrao znaajnim
diskriminatorom vrijednim panje? I u simultanoj i u etapnoj diskriminacionoj analizi,
varijable koje premauju teret od 0,40 ili vie se smatraju znaajnim. Kod etapne procedure,
ovo odreenje je podrano jer tehnika ne doputa neznaajnim varijablama da u uu u
funkciju. Ali multikolinearnost i drugi faktori mogu sprijeiti varijablu da ue u jednainu, a
to ne mora da znai da nema znaajan efekat.

Diskriminacioni tereti (kao i tegovi) su podloni nestabilnosti. Tereti se smatraju ispravnijom
mjerom nego tegovi u smislu interpretiranja diskriminacione moi nezavisnih varijabli, zbog
njihove korelacijske prirode. Istraivai ipak moraju biti paljivi kada koriste terete da
interpretiraju diskriminacionu funkciju.

Parcijalna F vrijednost

Kao to smo naveli ranije, dva pristupa simultani i etapni, se mogu koristiti pri derivaciji
diskriminacione funkcije. Kada je etapni metod izabran, dodatne mjere interpretacije relativne
diskriminacione moi nezavise varijable su raspoloive pomou upotrebe parcijalne F
vrijednosti. To se postie ispitujui apsolutno veliinu znaajnih F vrijednosti i njihovim
rangiranjem. Velike F vrijednosti ukazuju na veliku diskriminacionu mo. U praksi,
rangiranje pomou F vrijednosti su iste kao i rangiranja izvedena iz koritenja
diskriminacionih tegova, ali F vrijednost ukazuje povezane nivoe znaajnosti za svaku
varijablu.

Interpretacija dvije ili vie funkcija

U sluaju dvije ili vie znaajnih diskriminacionih funkcija, suoeni smo s dodatnim
problemima pri interpretaciji. Prvo, moemo li pojednostaviti diskriminacione tegove ili terete
kako bi profilisali svaku funkciju? Drugo, kako da prikaemo uticaj svake varijable po svim
funkcijama? S ovim problemima se susreemo pri mjerenju ukupnog diskriminacionog efekta
po svim funkcijama kao i u odreivanju uloge svake varijable u profilisanju odvojeno svake
funkcije. Ove probleme rjeavamo pomou koncepta rotiranja diskriminacionih funkcija,
potency indeksa, i rairenom vektorskim zastupanjem.

You might also like