Professional Documents
Culture Documents
SiberGuvenlikveVeriMadenciliği Hafta3
SiberGuvenlikveVeriMadenciliği Hafta3
Değerlendirme
Sınıflandırma Metodu tarafından oluşturulan modelin
başarısını ölçmek için (Biyoistatistik terimleri)
Doğruluk (Accuracy)
Hata Oranı (Error rate)
Özgüllük (Specificity)
Duyarlılık (Sensitivity)
gibi ölçüler kullanılır.
Sınıflandırma Modelini Değerlendirme:
* Doğruluk (Accuracy)
* Hata Oranı (Error Rate)
3
Duyarlılık - Sensitivity(aynı zamanda gerçek pozitif
oran veya bazı alanlarda Recall- Anma oranı olarak da
adlandırılır), doğru bir şekilde tanımlanan gerçek
pozitiflerin oranını ölçer (örneğin, doğru şekilde
tanımlanan spam e-maillerin yüzdesi)
Özgüllük- Specificity (gerçek negatif oran olarak
adlandırılır), doğru bir şekilde tanımlanan negatiflerin
oranını ölçer (örneğin, spam olmadığı doğru şekilde
tanımlanan e-maillerin yüzdesi)
4
5
6
Sınıflandırma Modelini Değerlendirme:
Karışıklık Matrisi (Class Confusion Matrix)
Öngörülen sınıf
(Predicted Class)
C1 (Positive) C2 (Negative)
9
False pozitif paradoks
nedir?
Entropi nedir?
Bir sınıf için saflık-
prutiy nasıl hesaplanır?
10
Kesinlik ve Duyarlılık
Kesinlik (Precision):Seçilenlerin
ne kadarı doğru pozitif
Precision = TP / (TP + FP)
Duyarlılık(Sentivite, Recall):
Pozitiflerden ne kadarı seçildi .
Recall = TP / (TP + FN)
11
Kesinlik/Duyarlılık
12
Kesinlik (Precision):Seçilenlerin ne kadarı doğru pozitif
Precision = TP / (TP + FP)
Duyarlılık(Sentivite, Recall): Pozitiflerden ne kadarı seçildi .
Recall = TP / (TP + FN)
A Kesinlik 25/50 =%50 Duyarlılık=25/50=%50
B kesinlik 50/75 =%66 Duyarlılık 50/50=%100
C Kesinlik 25/ 25=%100 Duyarlılık 25/50=%50
13
14
15
'There's A Math For That' - The
Paradox Of The False Positive
https://www.youtube.com/watch?v=6WuTNMleuQI
16
17
18
19
Genel F Formülü
20
Kesinlik ve duyarlılık ölçütleri tek başına anlamlı bir
karşılaştırma sonucu çıkarmamıza yeterli değildir. Her
iki ölçütü beraber değerlendirmek daha doğru
sonuçlar verir.
Bunun için f-ölçütü tanımlanmıştır. F-ölçütü,
kesinlik ve duyarlılığın harmonik ortalamasıdır.
21
F ölçütü, kesinlik ve recall değerlerinin dengelenmesi
için kullanılır.
Bazı problemlerde, yanlış pozitiflerin en aza
indirilmesinin daha önemli olduğu, durumlarda,
kesinliğe daha fazla dikkat edilen bir F-ölçütü gerekir.
F0.5-Measure (beta=0.5): More weight on precision,
less weight on recall.
Bazen de yanlış negatiflerin en aza indirilmesinin daha
önemli olduğu, durumlar olabilir o zaman da , recall
değerine daha fazla dikkat çeken bir F-ölçütü gerekir.
F2-Measure (beta=2.0): Less weight on precision,
more weight on recall
22
Kesinlik/Duyarlılık
23
24
25
Sınıflama Analizi Teknikleri
32
Karar ağaçları
Karar ağacı oluşturma yöntemleri genel
olarak iki aşamadan oluşur:
–1. ağaç oluşturma
en başta bütün öğrenme kümesi örnekleri kökte seçilen
niteliklere bağlı olarak örnek yinelemeli olarak bölünüyor
– 2. ağaç budama
öğrenme kümesindeki gürültülü verilerden oluşan ve
sınama kümesinde hataya neden olan dalları silme
(sınıflandırma başarımını artırır)
Karar Ağacı Oluşturma
Ağaç yukarıdan aşağıya tekrarlı yapı ile böl ve keşfet (divide-and-
conquer)
metodolojisiyle oluşturulur.
– ağaç bütün verinin oluşturduğu tek bir düğümle başlıyor
– nitelikler kategorik (eğer sürekli nitelikler varsa önceden ayrıştır)
– eğer örnekleri hepsi aynı sınıfa aitse düğüm yaprak olarak
sonlanıyor ve sınıf etiketini alıyor
– eğer değilse örnekleri sınıflara en iyi bölecek olan nitelik
seçiliyor (???)
– işlem sona eriyor
örneklerin hepsi (çoğunluğu) aynı sınıfa ait
örnekleri bölecek nitelik kalmamış
kalan niteliklerin değerini taşıyan örnek yok
En iyi bölen nitelik seçimi
İyilik Fonksiyonu (Goodness Function)
– Farklı algoritmalar farklı iyilik fonksiyonları kullanabilir:
Bilgi kazancı (information gain): ID3
Kazanç oranı (gain ratio): C4.5
– bütün niteliklerin ayrık değerler aldığı varsayılıyor
– sürekli değişkenlere uygulamak için değişiklik yapılabilir
Sınıflandırmada
örneklerin tümü aynı sınıfa ait ise entropy=0
örnekler sınıflar arasında eşit dağılmış ise entropi=1
örnekler sınıflar arasında rastgele dağılmış ise
0<entropi<1
Bütün örnekler aynı sınıfa ait ise E(S)=0 (homojen)
Bütün örnekler sınıflara esit dagılmıs ise E(S)=1 (heterojen)
Örnek Veri
J. Ross Quinlan’ın
geliştirdiği ID3
modeline uyarlanmış:
hava tenis oynamaya
uygun mu?
Örnek Karar Ağacı
Örnek
S veri kümesinde 14 örnek:
C0 sınıfına ait 9 ,
C1 sınıfına ait 5 örnek
ID3 (Iterative Dichotomiser 3)
Verinin tamamının entropisi hesaplanır. Ancak bu
veri çeşitli alt sınıflara ayrıldığında her alt grubun
entropisi de hesaplanmaktadır.
ID3 veri bölünmeden önce sınıflandırma yapmak
için gelen bilgiyle, veri bölündükten sonra gelen
bilgi arasındaki farkı kullanarak öncelikli düğümü
ve dallanmalara karar verir.
Veri bölündükçe, yani dallanma oluştukça doğru
sınıflama için gerekli bilgi sayısı da azalacaktır.
ID3
ID3 algoritmasında kazanım şu şekilde
hesaplanmaktadır:
Verilerin başlangıçtaki halinin entropisi ile her bir alt
bölümün entropilerinin ağırlıklı toplamı arasındaki fark
alınır. Bu fark hangi bölüm için büyükse o alt bölüme
dallanma yapılır.
Örnek1
14 veri örneği , 9 evet and 5 hayır
Birinci Dallanma
Isı niteliğinin kazanç ölçütü için aşağıdaki değerler
yazılabilir: burada her niteliğin tekrar değeri
hesaplanmıştır
ISI soğuk: 4
ISI Ilık 6
ISI sıcak=4
Isı niteliğine göre ayırma gerçekleştirildiğinde elde edilecek
kazancın hesaplanması gerekmektedir. Kazancı
hesaplamak için öncelikle bu niteliğin entropilerinin
ağırlıklı toplamı hesaplanmalıdır.
Isı niteliğine ait kazancın hesaplanması
Hava niteliğine ait kazancın hesaplanması
HAVA güneşli=5
HAVA yağmurlu=5
HAVA bulutlu=4
Hava niteliğinin entropi değeri aşağıdaki gibi
hesaplanabilir:
Hava niteliğine ait kazancın hesaplanması
59
Karar Ağaçlarında Sorunlar
60
Entropi =-(4/7 log2(4/7)+3/7log2(3/7))= 0,99
Kazanç=0.99-0=0.99
61
62
Kazanç oranı-Gain Ratio
63
Kazanç oranı-Gain Ratio
64
Added social security number attribute
college_ support_
ss age income veteran educated hillary
215-98-9343 youth low no no no
238-34-3493 youth low yes no no
234-28-2434 middle_aged low no no yes
243-24-2343 senior low no no yes
634-35-2345 senior medium no yes no
553-32-2323 senior medium yes no yes
554-23-4324 middle_aged medium no yes no
523-43-2343 youth low no yes no
553-23-1223 youth low no yes no
344-23-2321 senior high no yes yes
212-23-1232 youth low no no no
112-12-4521 middle_aged high no yes no
423-13-3425 middle_aged medium yes yes yes
423-53-4817 senior high no yes no
Will Information Gain split on ss?
ss no
no
215-98-9343……..423-53-4817
no yes
yes no
yes no
no no yes
yes no no
Will Information Gain split on ss?
ss no
no
215-98-9343……..423-53-4817
no yes
yes no
yes no
no no yes
yes no no
GainRatio(income)0.029/0.926=0.031
CART
Binary splitting (CART)
Detecting the best
combination in two subsets
77
CART-Gini Index
DT Öğrenmesindeki Sorunlar
on test data
voltage (V)
current (I)
voltage (V)
103
Overfitting Noise in Decision
Trees Category or feature noise can easily
cause overfitting.
Add noisy instance <medium, blue,
circle>: pos (but really neg)
color
red green blue
shape
neg neg
circle square triangle
pos neg pos
104
Overfitting Noise in Decision
Trees
Category or feature noise can easily cause overfitting.
Add noisy instance <medium, blue, circle>: pos (but really neg)
color
red green blue <big, blue, circle>:
shape <medium, blue, circle>: +
neg
circle square triangle small med big
pos neg pos neg pos neg
106
Roc Eğrileri
İlk ROC eğrisi 2. Dünya Savaşı’nda “radar
sinyalleri”nin
analizi için kullanılmıştır. Düşman uçaklarını, radar
sinyallerini kullanarak daha doğru bir şekilde
saptamak amacıyla araştırmalara başlanmıştır.
ROC eğrileri tıpta 1960’larda kullanılmaya
başlanmıştır.
ROC üzerindeki her nokta bir sınıflandırıcının
oluşturduğu bir modele karşı düşer
108
109
110
111
112
Another ROC example
Hypothyroidism
TSH (thyroid stimulating hormone or
thyrotropin) levels are the “gold standard.”
Totals: 32 93
Another ROC example
ROC and hypothyroidism
1. We can say T4<=5 is hypo; T4>5 is normal.
120
Tekrarlı Holdout
Veri kümesini farklı altkümelere bölerek holdout
yöntemini tekrarlama
Her eğitme işleminde veri kümesinin belli bir
bölümü öğrenme kümesi olarak rasgele ayrılır
Modelin hata oranı, işlemler sonunda elde edilen
modellerin hata oranlarının ortalaması
Problem: Farklı eğitme işlemlerindeki sınama
kümeleri örtüşebilir
121
K çapraz katlama
122
Başarı artırma
123
Bootstrap Yöntemi
124
Bagging (Bootstrap
aggregating)
125
Bagging
126
Boosting
127
128
C4.5 Sınıflama Başarısı ve
Bayes Sınıflama
129
ödev
Sınıflamanın Başarısını Değerlendirirken kullanılan
aşağıdaki kavramları açıklayınız.
Precision(Kesinlik)
F-measure
Confusion Matrix
Roc Eğrisi
Hava durumu verisi için GainRatio değerlerini
hesaplayınız.
130
Bayesain Classification
• Bayes sınıflandırıcı nedir?
• İstatistiksel bir sınıflandırıcıdır.
• Sınıf üyelik olasılıklarını hesaplayabilmektedir. Mesela
verilen bir kaydın belli bir sınıfa ait olma olasılığı.
• Bayes sınıflama “Bayes teoremi”ne dayanmaktadır.
• Sınıflandırma algoritmalarının karşılaştırmasını yapan
çalışmalar “naive Bayesian classifier” olarak bilinen basit
Bayes sınıflandırıcıyı ortaya çıkarmıştır.
•Bu algoritmanın performansı karar ağaçları ve seçilmiş bazı
yapay sinir ağ sınıflandırıcılarla mukayese edilebilir
131
Bayesain Classification
• Büyük çaptaki veritabanlarına uygulandığında Bayes
sınıflandırıcılar yüksek hassasiyet(doğruluk) ve hız sergilemiştir.
133
• Bayes’ Theorem
134
Bayes’ Theorem
•18.yy’da yaşayan Thomas Bayes adlı kişinin çalışmalarından sonra
Bayes teoremi olarak adlandırılmıştır.
• X veri demeti (data tuple) olsun.
• Bayes terimleriyle X, kanıt (“evidence”) olarak nitelendirilir.
• n adet nitelikten oluşan bir set üzerinde yapılan ölçümlerle
tanımlanır.
• H ; “X veri demeti belirli bir C sınıfına aittir” gibi bir hipotez olsun.
• Sınıflandırma problemlerinde, biz P(H |X) değerini bulmaya
çalışıyoruz.
• P(H |X): verilen kanıt(“evidence”) yada diğer bir ifadeyle
gözlemlenen X veri demeti için H hipotezinin tutma olasılığıdır.135
Bayes’ Theorem
• P(H |X):
• Posterior probability
• X şartına bağlı H’ın “posterior probability”si
• Mesela bizim veri demetlerimiz sırasıyla “yaş” ve “gelir”
nitelikleriyle tanımlanmış müşteriler olsun.
• ve X, geliri 3000 TL olan 35 yaşında bir müşteri olsun.
• H, “müşterimiz bilgisayar alacaktır” hipotezi olsun.
• Bu durumda P(H |X), gelirini ve yaşını bildiğimiz X
müşterisinin bilgisayar alma olasılığını yansıtmaktadır.
136
Bayes’ Theorem
• Buna karşın P(H):
• H’ın “prior probability”si
• Bizim örneğimiz için bu, (yaşına ve gelirine bakmaksızın)
herhangi bir müşterinin bilgisayar alma olasılığıdır.
• Posterior probability P(H |X), X’ den bağımsız olan prior
probability P(H)’den daha fazla bilgiye (mesela müşteri bilgisine)
ihtiyaç duymaktadır.
• Benzer bir şekilde P(X |H):
• H şartına bağlı X’ in “posterior probability”si
• yani bilgisayar alacağı bilinen X müşterisinin yaşının 35 ve
137
Bayes’ Theorem
• P(X) :
•X’in “prior probability” si
• bizim örneğimizde bu, müşteri setimizdeki bir kişinin 35
yaşında 3000 TL gelire sahip olma olasılığıdır.
• Peki bu olasılıklar nasıl hesaplanır?
• P(H), P(X|H) ve P(X) verilen data’lardan
hesaplanabilmektedir.
• Bayes teoremi, P(H|X) “posterior probability”sini P(H),
P(X|H) ve P(X) olasılıklarını kullanarak hesaplamaya
yarar. 138
Bayes’ Theorem
• Bayes Theorem,
139
Bayes’ Theorem
p( X | H ) × p( H )
p(H | X ) =
p( X )
140
Bayes’ Theorem
p ( X | H ) × prior
p(H | X ) =
p( X )
p ( X | H ) × prior
posterior =
p( X )
P(X |H) likelihood(olabilirlik) of obtaining our
particular observation X, under the
supposition that any of the possible states
of the variable H were actually the case.
142
Bayes’ Theorem
liklihood × prior
posterior =
p( X )
p(X) is a constant of proportionality.
liklihood prior
posterior
normalizat ion
144
• Bayes’ Theorem
145
Naive Bayesian Classification
Naive Bayesian classifier yada diğer adıyla simple Bayesian
classifier şu şekilde çalışır.
1. D, veri demetleri ve onların ilgili sınıf etiketlerinden oluşan
eğitim seti olsun.
• Alışıldığı gibi, her bir veri demeti n-boyutlu nitelik vektörüyle
temsil edilir.
2. olmak üzere m adet sınıf olduğunu düşünelim.
• Verilen bir veri demeti (X) için, sınıflandırıcı en büyük posterior
olasılığına sahip olan sınıfı tahmin edecektir.
146
Naive Bayesian Classification ( ) ( )
p X |H ×p H
( ) pH|X =
2. …. p( X )
• Yani “naive Bayesian classifier” ancak ve ancak
147
Naive Bayesian Classification
3. P(X) bütün sınıflar için sabit olduğundan sadece ,
maksimize edilmelidir.
• Eğer sınıfların evvelki(prior) olasılıkları bilinmiyorsa,
genellikle sınıfların eşit dağıldığı kabul edilir. Yani,
149
Naive Bayesian Classification
4. …
• Dolayısıyla,
dir.
bilgisiyle birlikte bulduğumuz bu büyüklükleri
önceki denklemde yerine koyarak ,
P(yaş=35 | bilgisayar_alir=evet) koşullu olasılığını 153
Naive Bayesian Classification
5. X’in sınıf etiketini tahmin etmek için her bir sınıf ( ) için
hesaplanır.
• Sınıflandırıcı, X veri demetinin sınıf etiketini ancak ve
ancak
154
How effective are Bayesian classifiers?
• Karar ağaçları ve yapay sinir ağları sınıflandırıcılarıyla
karşılaştırmalı olarak bu sınıflandırıcı ile ilgili yapılan çeşitli
deneysel çalışmalar, bazı alanlarda kıyaslanmaya değer
olduğunu göstermiştir.
• Teoride Bayes sınıflandırıcılar, diğer bütün sınıflandırıcılara
kıyasla minimum hata oranına sahiptir.
• Fakat pratikte durum tam olarak böyle değildir.
• Kullanımında yapılan bazı varsayımlardan kaynaklanan
bazı kusurlar…
• Mesela “class conditional independence” ve yeterli olasılık
verisinin olmayışı… 155
Örnek: predicting a class label using naive Bayesian classification
• “Naive Bayesian classification” kullanarak bir veri demetinin
sınıf etiketini tahmin etmek istiyoruz.
156
Örnek: predicting a class label using naive Bayesian classification
• : sınıfına
• : sınıfına karşılık gelsin.
• Sınıflandırmak istediğimiz veri demeti: 1
2
3
157
Örnek: predicting a class label using naive Bayesian classification
• için ’ yi hesaplamak için aşağıdaki koşullu olasılıklar
hesaplanır:
158
Örnek: predicting a class label using naive Bayesian classification
• için ’ yi hesaplamak için aşağıdaki koşullu olasılıklar
hesaplanır:
159
Örnek: predicting a class label using naive Bayesian classification
• için ’ yi hesaplamak için aşağıdaki koşullu olasılıklar
hesaplanır:
160
Örnek: predicting a class label using naive Bayesian classification
• için ’ yi hesaplamak için aşağıdaki koşullu olasılıklar
hesaplanır:
161
Örnek: predicting a class label using naive Bayesian classification
• Hesaplanan koşullu olasılıkları kullanarak
Örnek: predicting a class label using naive Bayesian classification
• Hesaplanan koşullu olasılıkları kullanarak
Yes No No No Male
Yes Yes Yes Yes Female
No No No No Male
Yes Yes Yes Yes Male
Yes No Yes No Female
No No No No Female
Yes Yes Yes Yes Male
No No No No Male
Yes No No No Male
Yes Yes Yes No Female
Bayes Sınıflandırıcı için Örnek
Sınıflandırılacak örnek:
Magazine Promotion = Yes
Watch Promotion = Yes
Life Insurance Promotion = No
Credit Card Insurance = No
Sex = ?
Bayes Sınıflandırıcı için Örnek
Table 10.5 • Counts and Probabilities for Attribute Sex
Yes 4 3 2 2 2 3 2 1
No 2 1 4 2 4 1 4 3
Ratio: yes/total 4/6 3/4 2/6 2/4 2/6 3/4 2/6 1/4
Ratio: no/total 2/6 1/4 4/6 2/4 4/6 1/4 4/6 3/4
Bayes Sınıflandırıcı için Örnek
172
Bayesian Belief Networks
• “Naive Bayesian classifier” sınıf etiketi verilen bir veri demeti için
niteliklerinin birbirlerinden bağımsız olduğunu varsayar.
class conditional independence varsayımı
Bu varsayım hesaplamayı kolaylaştırır.
Varsayım tuttuğunda “naive Bayesian classifier” diğer
sınıflandırıcılara kıyasla en hassas (accurate) sonucu verir.
• Buna karşın pratikte değişkenler arasında bağımlılıklar var olabilir.
• “Bayesian belief networks” ortak koşullu olasılık (joint conditional
probability) dağılımlarını belirtir.
• değişkenlerin alt kümeleri arasında “class conditional
173
Bayesian Belief Networks
• Üzerinde öğrenme gerçekleştirilebilen rastgele ilişkilerin grafiksel
modelini oluşturmayı sağlar. (graphical model of casual relationships)
• Eğitilen “Bayesian belief network” sınıflandırma için
kullanılabilmektedir.
• Aynı zamanda şu isimlerle de anılır:
belief networks
Bayesian networks
probabilistic networks
174
Bayesian Belief Networks
• Bir “belief network” iki bileşen ile tanımlanır:
A directed acycylic graph (DAG)
A set of conditional probability tables
• DAG’daki her bir düğüm, bir rastgele değişkeni (random variable)
temsil eder.
Değişkenler ayrık yada sürekli-değerli olabilir.
Değişkenler verilen data’daki gerçek niteliklere karşılık gelir,
ya da bir ilişkiyi şekillendirdiğine inanılan “gizli değişkenler”e
(hidden variables) karşılık gelir. (mesela medikal verilerle ilgili
bir örnekte bir gizli değişken, bir sendromu gösterebilir.)
175
Bayesian Belief Networks
• Her bir ok, bir olasılıksal bağımlılığı
Y
temsil eder.
• Eğer Y düğümünden Z düğümüne bir
ok çizilirse,
• Y ebeveyn olur ya da başka bir Z
deyişle Z’nin birincil atası olur.
•Z ise Y’nin soyundan gelendir.
176
Bayesian Belief Networks
A variable (node) is conditionally independent of its non-
descendants given its parents
P ( A, G , E , S , C , L, SC )
Age Gender
P ( A ) P (G )
Exposure Smoking
to Toxics P (E | A) P (S | A, G )
Cancer P (C | E , S )
Serum Lung
Calcium Tumor P (SC | C ) P (L | C )
Bayesian Network Examples
Alarm system example
• Farz edelim ki bir evde hırsız alarm sistemi kurulu olsun.
• Bu sistem soygunları (burglary) iyi tespit etmesinin yanı sıra,
bazen küçük çaplı depremlerde (earthquake) de tetiklenmektedir.
• Ev sahibinin iki komşusu vardır: John ve Mary. Ve bunlar
birbirlerini tanımamaktadır.
• Bu komşular evdeki alarmı duyunca ev sahibini aramaktadırlar.
John alarmı duyunca ev sahibini aramaktadır. Fakat bazen
telefon sesisye alarmı karıştırmaktadır ve bu durumda da
aramaktadır.
Mary ise yüksek sesle müzik dinlemeyi seven bir kişi olduğundan
bazen alarmı duymamaktadır. Ama duyduğunda aramaktadır.
Alarm system example
• Olayların olasılık dağılımlarını temsil etmek istersek.
Burglary, Earthquake, Alarm, Mary calls ve John calls
• Casual relations
Bayesian belief network
• Değişkenler arasındaki doğrudan bağımlılıkları yansıtan grafik.
• Değişkenler ve onların ebeveynleri arasındaki lokal koşullu
dağılımlar.
•We see that it is more lilely that the grass is wet because it
rained.
Belief Network Tools-örnekler
Suppose we
observe the fact
that the grass is
wet. There are
two possible
causes for this:
either it rained,
or the sprinkler
was on. Which
one is more
lilely
http://www.aispace.org/downloads.shtml
Model acquisition problem
• BBN’nin yapısı tipik olarak rastgele ilişkileri yansıtır.
• BBN’ler bazen de “casual networks” olarak anılırlar.
• “casual structure”, çoğu uygulama alanlarında sezgiseldir
ve bu yapıyı ilgilenilen alanın uzmanından elde etmek
oldukça kolaydır.
•BBN’nin olasılık parametreleri, rastgele değişkenler ve
onların ebeveynleriyle ilgili koşullu dağılımlara karşılık
gelmektedir.
olasılık parametrelerini bulmak:
• Uzman kişiye danışarak
•
Application of Bayesian Networks
• Örnek uygulamalar:
Machine learning Speech recognition
Statistics Error-control codes
Computer vision Bioinformatics
Natural language Medical diagnosis
• Örnek sistemler:
PATHFINDER medical diagnosis system at Stanford
Microsoft Office assistant and trobleshooters
Space shuttle monitoring at NASA Mission Control Center
in Huston
Types of inference
(1) Predictive - a can cause b
(2) Diagnostic - b is evidence of a
(3) Intercasual - a and b can cause c
a explains c so its evidence against
b
(“explaining away”,“Berkson's paradox”, or "selection
bias“) (3)
a a a b
(1)
(2)
b b c
Kaynaklar
1. Data Mining: Concepts and Techniques, Second Edition
2. Lecture Notes: Parametric models: Part IV Bayesian Belief Networks, CS 551,
Spring 2006, Selim Aksoy, Bilkent University
3. Lecture Notes: Parametric models: Part IV Bayesian Belief Networks, CS
2001, Spring 2001, Milos Hauskrecht
4. Tutorial on Bayesian Networks, Jack Breese, Microsoft Research & Daphne
Koller, Stanford University
5. Lecture Notes: Bayesian Classification, Qiang Yang , Hong Kong University of
Science and Technology
6. Lecture Notes:Bayesian Belief Networks Compound Bayesian Decision Theory,
CSE 555
7. Bayesian Networks and Causal Modelling, Ann Nicholson, School of
Computer Science and Software Engineering Monash University