Professional Documents
Culture Documents
Informacja Dyskretna
Informacja Dyskretna
Informacja wzajemna
Marek Śmieja
Teoria informacji
1 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
2 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Entropia wielowymiarowa
Definicja
Entropia wspólna dyskretnego wektora losowego (X , Y ) o łącznym
rozkładzie p(x, y ) to:
XX
h(X , Y ) = h(p) = p(x, y ) · (− log2 p(x, y )).
x y
3 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Przykład
Y/X 1 2 3 4
1 1/8 1/16 1/32 1/32
2 1/16 1/8 1/32 1/32
3 1/16 1/16 1/16 1/16
4 1/4 0 0 0
4 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Entropia warunkowa
Definicja
Niech (X , Y ) będzie dyskretnym wektorem losowym o rokładzie p(x, y ).
Entropia Y pod warunkiem X to:
X
H(Y |X ) = p(x)h(Y |X = x)
x
5 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Wzór
6 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Przykład
Y/X 1 2 3 4
1 1/8 1/16 1/32 1/32
2 1/16 1/8 1/32 1/32
3 1/16 1/16 1/16 1/16
4 1/4 0 0 0
H(Y |X ) = 13/8
czy jest jakaś zależność z poprzednimi obliczeniami?
7 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Chain rule
Twierdzenie
h(X , Y ) = h(X ) + h(Y |X )
P P
H(X , Y ) =− x y p(x, y ) log p(x, y )
P P
=− xp(x, y ) log p(x)p(y |x)
y
P P P P
= − x y p(x, y ) log p(x) − x y p(x, y ) log p(y |x)
P P P P
= − x y p(x) log p(x) − x y p(x, y ) log p(y |x)
= h(X ) + h(Y |X )
8 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Wnioski
9 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
10 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
11 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Informacja o czymś
12 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Wzajemna informacja
Definicja
Niech X , Y będą dwoma zmiennymi losowymi o łącznym rozkładzie
p(x, y ) oraz brzegowych p(x), p(y ). Wzajemna informacja X , Y to:
XX p(x, y )
I (X ; Y ) = p(x, y ) log2 .
x y
p(x)p(y )
Widać z definicji, że I (X , Y ) = I (Y , X ).
Zatem, jest to raczej informacja wspólna zmiennych, niż wpływ
jednej na drugą.
Można pokazać: I (X , Y ) 0.
13 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Powiązania
14 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Związek z entropią
Twierdzenie
Nich X , Y będą dyskretnymi zmiennymi losowymi. Wtedy
I (X ; Y ) = H(X ) − H(X |Y ).
Dowód na ćwiczeniach:
15 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Wniosek
16 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
17 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Własności c.d.
18 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Podsumowanie
Twierdzenie
I (X , Y ) 0
Jeśli X , Y niezależne to I (X ; Y ) = 0.
I (X ; Y ) = H(X ) − H(X |Y )
I (X ; Y ) = H(Y ) − H(Y |X )
I (X ; Y ) = H(X ) + H(Y ) − H(X , Y )
I (X ; Y ) = I (Y ; X )
I (X ; X ) = H(X )
19 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Wnioski
Twierdzenie
H(X , Y ) ¬ H(X ) + H(Y )
Równość dla X , Y niezależnych
20 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Selekcja cech II
21 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Klasyfikacja
Cel rozsądny
Utworzyć funkcję (klasyfikator) f : RN → Y , która dla nowych
przykładów danych da poprawne odpowiedzi
22 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
23 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Ocena klasyfikatora
24 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Reguły
25 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Reguły
26 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Drzewo
27 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Dane
28 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Niepewność klasyfikacji
to niepewność klasyfikacji
29 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Podział węzła
Wybierzmy cechę Xt .
Biorąc wartość xt ∈ R dzielimy dane na dwa podzbiory
0, dla Xt ¬ xt ,
X̄t =
1, dla Xt > xt .
30 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Punkt podziału
h(Y |X̄t ) = P(Xt ¬ xt )h(Y |Xt ¬ xt ) − P(Xt > xt )h(Y |Xt > xt )
31 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Optymalny podział
32 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Algorytm
33 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Pruning
34 / 35
Entropia Wzajemna informacja Drzewa decyzyjne
Postpruning
35 / 35