Professional Documents
Culture Documents
Osnovni Pojmovi Teorije Informacije...
Osnovni Pojmovi Teorije Informacije...
Napomena:
indeks x u izrazu px(x) nee se pisati u primjerima i zadacima.
Primjer zapisa: p(1) == p(x = 1) ==p1,...
SMETNJE
KOMUNIKACIJSKI SUSTAV
Osnovni pojmovi teorije informacije 4
Diskretni komunikacijski sustav
Jednostavniji sluaj diskretni signali
Kljuna pitanja:
to je poruka?
to znai prenijeti poruku?
Koja je mjera za koliinu informacije u nekoj poruci, te
informacije prenesene sustavom?
DISKRETNI KOMUNIKACIJSKI
IZVOR SUSTAV ODREDITE
SMETNJE
KOMUNIKACIJSKI SUSTAV
Poruka
Niz simbola odabranih iz konane abecede X
Abeceda je skup elementarnih simbola
X = {x1 , x2 ,..., xi ,..., xn }
Svaki simbol pri N-tom biranju ima vjerojatnost
pojavljivanja: xi
p N ( xi )
Pretpostavka (za sada): odabir simbola neovisan o
prethodno odabranim simbolima: xi p ( xi )
x3x2x5x1x0... DISKRETNI
IZVOR KOMUNIKACIJSKI ODREDITE
SUSTAV
SMETNJE
SMETNJE
X , P( X ) Y , P (Y )
x1 , p ( x1 ) p ( y1 / xi ) y1 , p ( y1 )
x2 , p ( x2 ) y2 , p ( y2 )
xi , p ( xi )
xn , p ( xn )
ym , p ( ym )
7
Prijenos poruke: pogled sa odredita
Prije pojave yi, znamo
IZVOR
DISKRETNI KOMUNIKACIJSKI
SUSTAV ODREDITE vrlo malo o dogaajima
na izvoru
SMETNJE
Nakon opaanja yi
X , P( X ) Y , P(Y ) znamo vie: primili smo
informaciju!
x1 , p( x1 ) p( x1 / y j ) y1 , p( y1 )
x2 , p( x2 ) y2 , p ( y2 )
xi , p( xi )
xn , p( xn )
p( xi / y j )
? y j , p( y j )
ym , p ( ym )
IZVOR
Entropija
Entropija diskretne sluajne varijable
n
H ( X ) = p ( xi ) log p ( xi )[bit / simbol ]
i =1
PRIMJER
IZVOR
I(X) = H(X)
? Informacija na izvoru,
x3x2x5x1x0... H(Y)
neodreenost na
odreditu
DISKRETNI KOMUNIKACIJSKI
IZVOR SUSTAV BEZ SMETNJI ODREDITE
Kodiranje
Dodjela kodnih rijei simbolima poruke
Poruka se samo pretvara u novi oblik (niz simbola)
Zato onda kodirati?
U praksi, kodovi su binarni
PREDAJNIK PRIJAMNIK
KODER DEKODER
IZVOR KODER KANAL DEKODER ODREDITE
INFOR- INFOR-
KANALA KANALA MACIJE
MACIJE
SMETNJE
KOMUNIKACIJSKI SUSTAV
SMETNJE
PREDAJNIK PRIJEMNIK
SMETNJE
KOMUNIKACIJSKI SUSTAV
vjerojatnosti
SUSTAV
SMETNJE
[p(xi)], [p(yj|xi)] X , P( X )
x1 , p ( x1 ) UVJETNE
VJEROJATNOSTI p ( y1 | xi )
Y
y1
[p(yj)], [p(xi|yj)]
x2 , p( x2 ) UNAPRIJED y2
p( y j | xi )
[p(xi,yj)]
xi , p( xi ) yj
xn , p( xn ) ym
potpuno odreuje
UVJETNE
x1 p ( x1 | y j ) VJEROJATNOSTI y1 , p ( y1 )
x2 UNATRAG y2 , p ( y2 )
sustav i pojave na xi
p ( xi | y j )
y j , p( y j )
ulazu/izlazu xn ym , p ( ym )
Vjerojatnosti prijelaza X
p( x1 , y2 )
Y
xy potpuno definiraju
x1 y1
x2 p ( xi , y1 ) y2
kanal
p ( xi , y j )
xi yj
p ( xn , y j )
ZDRUENE
xn VJEROJATNOSTI ym
i =1 1
p(y2)=0,36, p(y3)=0,26.
Osnovni pojmovi teorije informacije 21
Vjerojatnosni opis informacijski opis
Entropija: informacijski opis sluajnih dogaaja
DOGAAJI
{x1 , x2 ,..., xn }
xi X , X =
n n
1
H ( X ) = p( xi ) log = p ( xi ) I ( xi )
i =1 p( xi ) i =1 SADRAJ
INFORMACIJE
POJEDINOG
DOGAAJA
ZBROJ
INFORMACIJSKIH VJEROJATNOST
INFORMACIJSKI POJEDINOG
DOPRINOSA SVIH DOPRINOS DOGAAJA
MOGUIH POJEDINOG
DOGAAJA DOGAAJA
Osnovni pojmovi teorije informacije 22
Informacijske mjere
X , P( X ) Y
x1 , p( x1 ) p( y1 | xi ) y1
x2 , p( x2 ) y2
p( y j | xi )
xi , p( xi ) yj
xn , p( xn ) ym
X Y , P(Y )
x1 p( x1 | y j ) y1 , p( y1 )
x2 y2 , p ( y2 )
p( xi | y j )
xi y j , p( y j )
xn ym , p ( ym )
Relativna entropija
Mjera udaljenosti izmeu dviju raspodjela vjerojatnosti
varijable:
n
p( xi )
D( p || q) = p( xi ) log
i =1 q ( xi )
Interpretacija
Stvarne vjerojatnosti su p; mi pretpostavljamo q
Ta pogreka nosi neefikasnost; to je relativna entropija
Kodiranjem prema pogrenim vjerojatnostima troimo
D(p||q) vie bitova po simbolu nego to je potrebno:
n n n
1 1 p( xi )
L = p( xi ) log = p( xi ) log + p( xi ) log = H ( X ) + D( p || q )
i =1 q( xi ) i =1 p( xi ) i =1 q( xi )
Osnovni pojmovi teorije informacije 28
DEFINICIJA
Srednji uzajamni sadraj informacije
(transinformacija)
Definicija: n m p ( xi , y j )
I ( X ; Y ) = p ( xi , y j ) log
i =1 j =1 p( xi ) p ( y j )
Interpretacija:
Koliko informacije jedna varijabla prua o drugoj
U kojoj mjeri su dvije varijable zavisne
Nezavisne: I(X;Y) = 0
Jednake: I(X;Y) = H(X) = H(Y)
SMETNJE
H(X|Y)
H(X)
I(X;Y)
H(Y)
H(Y|X)
DISKRETNI
ULAZ BEZMEMORIJSKI IZLAZ
KANAL
SMETNJE
b) H(X|Y) i H(Y|X)
p ( xi , y j ) log p xi y j = ( )
3 3
H (X Y) = 1,124 [bit simbol]
=i 1 =j 1
0, 28 0, 04 0, 08
0,38 0,36 0, 26
0, 7368 0,1111 0,3077
p ( xi , y j ) 0, 08
= (
p xi y j )
=
p ( y j ) 0,38
0, 28 0, 04
=
0,36 0, 26
0, 2105 0, 7778 0,1538
0, 0526 0,1111 0,5385
0, 02 0, 04 0,14
0,38 0,36 0, 26
Osnovni pojmovi teorije informacije 36
Rjeenje
p ( xi , y j ) log p yi x j = ( )
3 3
H (Y X ) = 1,157 [bit simbol]
=i 1 =j 1
c) I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)=0,4095 [bit/simbol]
meusobni sadraj informacije mogue je odrediti
koristei sljedeu formulu:
p xi y j
I ( X ; Y ) = p ( xi , y j ) log 2
3 3 (
)
=i 1 =j 1 p ( xi ) p ( yi )
d) H(X,Y)=X(X)+H)Y)-I(X;Y)=2,6788[bit/simbol]
Kapacitet kanala
Promatramo prijenos informacije komunikacijskim
kanalom
Simboli na ulazu s vjerojatnosima p(xi)
Kapacitet kanala je definiran kao:
C = max I ( X ; Y ) [bit/simbol]
{ p ( xi )}
Kapacitet kanala je maksimalna koliina informacije
po simbolu koja se u prosjeku moe prenijeti
kanalom
MOGUE
PODRUJE
C H
Osnovni pojmovi teorije informacije 39
Primjer: kapacitet simetrinog binarnog
kanala
1-p g
C = max I ( X ; Y ) 1 1
{ p ( xi )}
= max [ H (Y ) H (Y | X ) ] X Y
{ p ( xi )} neovisno
max. za o p(xi)
p(0)=p(1)=0.5
0 0
1-p g
smetnje
smetnje
prijenosni kanal