Professional Documents
Culture Documents
Odgovori UTI 3
Odgovori UTI 3
Odgovori UTI 3
Signal je fizička veličina kojom se prenosi poruka, a u poruci se nalazi informacija. Matematički
gledano, signal je funkcija jedne ili više promenljivih. Zavisno i nezavisno promenljiva mogu biti diskretne
i kontinualne, a u zavisnosti od toga signale delimo na analogne, diskretne, sa diskretnom amplitudom i
digitalne. U svakom sistemu postoje otpremnik i prijemnik signala, a između njih se nalazi prenosni
medijum. Ako je medijum organizovan tako da olakšava prenos signala reč je o prenosnom kanalu.
Neophodno je preneti signal sa što manje oštedenja. S obzirom da oštedenja uvek postoje, potrebno je
prenosni sistem učiniti takvim da uz sva oštedenja i izobličenja signala, ne dođe do oštedenja informacije
koja se prenosi. Informacija se može definisati na različite načine i predstavlja različit pojam u različitim
oblastima (znanje, vest, saopštenje, poruka koju je primalac shvatio, mogudnost zaključivanja). U svakom
slučaju, moglo bi se redi da je to saznanje preneto kroz prostor i vreme. Pod saznanjem podrazumevamo
neku istinu koja nam je ranije bila nedostupna, odnosno postupak uklanjanja nedoumice o stanju nekog
sistema.Možemo redi da se informacija sastoji od podatka i značenja koje mu je dodeljeno („17“ je
podatak, „sada je 17h“ je informacija). Teorija informacija se bavi: definicijom mere količine informacija,
proučavanjem izvora informacija i prenosnog kanala, analizom zaštite tajnosti informacija i njihovog
skladištenja itd. Teorija informacija je nastala kao rezultat Šenonovog epohalnog rada u kome je pokazao
nekoliko ključnih činjenica kao što su:
1) sve tehničke komunikacije su u suštini diskretne (teorema o uzorkovanju)
2) izvor informacija generiše stohastički proces, pa se prenos informacija mora analizirati
alatima teorije verovatnode.
3) Bez obzira na kanal, prenos informacija se može značajno ubrzati
4) Kroz zadati kanal, prenos informacija se može obaviti sa proizvoljno malom verovatnodom
greške ukoliko je brzina manja od veličine zvane kapacitet kanala
model:
smetnje
medijum
IZVOR KODER IZVORA ZAŠTITNI KODER ZAŠTITNI DEKODER DEKODER IZVORA KORISNIK
ekvivalentni izvor kanal bez smetnji ekvivalentni korisnik
Koder izvora informaciju koju je neophodno preneti smešta u signal koji je prilagođen kanalu te
se prenos može značajno ubrzati (npr. analogni signal prevodi u digitalni). Zaštitni koder dodatno
oblikuje signal omogudujudi smanjenje verovatnode greške na prijemu. Dekoderi izvlače informaciju iz
primljenog signala. Šenon je tražio odgovore na dva ključna pitanja: Do koje mere se neki skup podataka
može komprimovati i Šta je krajnja brzina komuniciranja za zadati komunikacioni kanal. Kompleksnost
ispod koje se ne mogu komprimovati signali bez gubitaka, Šenon je nazvao entropijom, razlikujudi taj
pojam od pojma entropije koji je tada ved postojao u termodinamici.
2. Mera količine informacija (6)
I(a)=-log(P[a])
Dakle, što je manje P*a+, I(a) je vede, tj. što je događaj manje verovatan, nosi vedu količinu
informacija. I druga aksioma je takođe zadovoljena, jer ako važi P*a,b+=P*a+ P*b+, onda je
I(a,b)=-log(P[a,b])=-log(P[a] P[b])=-log(P[a])-log(P[b])=I(a)+I(b)
U zavisnosti od baze logaritma menja se jedinica za meru količine informacija (menja se skala):
*log10 = 𝑙𝑜𝑔 tada je jedinica Hartley
*log 𝑒 = 𝑙𝑛 tada je jedinica nat (natural unit)
*log 2 = 𝑙𝑑 tada je jedinica bit (binary digit) (neki kažu Sh (od Šenon), nije standard)
(*log 256 = tada je jedinica bajt)
Bacanje novčida ima 2 moguda ishoda koji su jednako verovatni, pismo i glavu. Znači da ishod jednog
bacanja nosi jedan bit informacije kao –ld(1/2)=1.Usvojena definicija ne vodi računa o značenju koje
informacija ima za korisnika usled njegovih predznanja. Ona predstavlja osnovni koncept digitalnih
informacija. Postoje i druge definicije informacije, kao što je Fišerova definicija.
3. Diskretan izvor (informacija) bez memorije (DMS). Entropija.
Maksimum entropije DMS-a. (7)
Kada je verovatnoda simbola 0 i informacija koju nosi je 0. Izraz za entropiju je isti kao u
termodinamici. Postoji li analogija i sa „toplotnom smrdu svemira“ (opšte ujednačenje tokom kog
entropija neprekidno raste)? Odnosno, da li je u teoriji informacija entropija maksimalna kada su svi
simboli jednako verovatni? Jeste. Intuitivno, ako je neki ishod verovatniji od nekog drugog lakše je
predvideti šta de se desiti, nego kada su ishodi jednako verovatni. Formalno:
Neka su P i Q dve raspodele verovatnode nad istim alfabetom i znamo da je ln 𝑥 ≤ 𝑥 − 1, tada je
𝑄(𝑎) 1 𝑄(𝑎) 1 𝑄(𝑎) 1
𝑃 𝑎 𝑙𝑑 = 𝑃 𝑎 𝑙𝑛 ≤ 𝑃𝑎 −1 = 𝑄𝑎 − 𝑃𝑎
𝑃𝑎 𝑙𝑛2 𝑃𝑎 𝑙𝑛2 𝑃𝑎 𝑙𝑛2
𝐴 𝐴 𝐴 𝐴 𝐴
1
= 1−1 =0
𝑙𝑛2
pošto je:
𝑄 𝑎 1 1 1
𝑃 𝑎 𝑙𝑑 = 𝑃𝑎 𝑙𝑑 + 𝑙𝑑𝑄 𝑎 = 𝑃𝑎 𝑙𝑑 − 𝑙𝑑 =
𝑃𝑎 𝑃𝑎 𝑃𝑎 𝑄𝑎
𝐴 𝐴 𝐴
1 1
= 𝑃 𝑎 𝑙𝑑 − 𝑃 𝑎 𝑙𝑑 ≤0
𝑃𝑎 𝑄𝑎
𝐴 𝐴
sledi:
1 1
𝑃 𝑎 𝑙𝑑 ≤ 𝑃 𝑎 𝑙𝑑 , 𝑗𝑒𝑑𝑛𝑎𝑘𝑜𝑠𝑡 𝑧𝑎 𝑃 𝑎 = 𝑄 𝑎 , ∀𝑎𝜖𝐴
𝑃𝑎 𝑄𝑎
𝐴 𝐴
Proširenje diskretnog sistema bez memorije podrazumeva emitovanje više simbola odjenom.
Kolika je tada entropija?
Na trenutak pretpostavimo da je u pitanju izvor sa memorijom. DMS emitujeN simbola
odjednom. Neka je 𝑃𝑁 [𝑎] oznaka za verovatnodu događaja 𝑎 koji je N dimenzionalni vektor. Uzmimo da
je:
𝑁
𝑄𝑁 𝑎 = 𝑃[𝑎𝑛 ] 𝑝𝑎 𝑗𝑒 𝑃 𝑎𝑛 = … … 𝑃𝑁 𝑎 , i ≠ n
𝑛=1 𝑎1 𝑎𝑖 𝑎𝑁
𝑁 𝑁
1 1 1 1
𝐻 𝐴𝑁 = 𝑃𝑁 𝑎 𝑙𝑑 ≤ 𝑃𝑁 𝑎 𝑙𝑑 = 𝑃𝑁 𝑎 𝑙𝑑 = 𝑃𝑁 𝑎 𝑙𝑑 =
𝑃𝑁 𝑎 𝑄𝑁 𝑎 𝑃 𝑎𝑛 𝑃 𝑎𝑛
𝑎 𝑎 𝑎 𝑛=1 𝑛=1 𝑎
𝑁 𝑁 𝑁
1 1 1
= … … 𝑃𝑁 𝑎 𝑙𝑑 = … … 𝑃𝑁 𝑎 𝑙𝑑 = 𝑃 𝑎𝑛 𝑙𝑑
𝑃 𝑎𝑛 𝑃 𝑎𝑛 𝑃 𝑎𝑛
𝑛=1 𝑎 1 𝑎𝑖 𝑎𝑁 𝑛=1 𝑎 𝑛 𝑎1 𝑎 𝑖 ,𝑖≠𝑛 𝑎𝑁 𝑛=1 𝑎 𝑛
𝑁
= 𝐻 𝐴 = 𝑁𝐻(𝐴)
𝑛=1
Dakle, za DMS 𝐻 𝐴𝑁 = 𝑁𝐻(𝐴), što znači da N simbola iz alfabeta nosi N puta vedu količinu
informacija. Proširenje izvora dakle podrazumeva da se ne posmatra pojedinačni simbol nego sekvence
od 2, 3 ili više simbola. N-to proširenje znači da se podrazumevaju sekvence od po N simbola, i dokaz
pokazuje da N simbola nosi N puta vedu informaciju. Naravno sve to pod uslovom da su simboli
međusobno nezavisni, odnosno da su sve sekvence mogude, što u realnosti nikada nije slučaj.Pokazuje
se da za izvore kod kojih simboli nisu jednako verovatni važi 𝐻 𝐴𝑁 ≤ 𝑁𝐻(𝐴), sa jednakošdu ako i samo
ako su simboli jednakoverovatni.
5. Diskretni izvor sa memorijom. Ergodičnost, stacionarnost i
regularnost izvora. (7)
U vedini slučajeva izvori informacija ne emituju statistički nezavisne simbole. Takvi izvori se
nazivaju Markovljevi izvori ili diskretni izvori sa memorijom. Ako pamti poslednjih M simbola, to je
Markovljev izvor M-tog reda. DMS je Markovljev izvor nultog reda. Markovljev izvor se može predstaviti
dijagramom stanja koji osim što pokazuje sva moguda stanja memorije, pokazuje i mogude prelaze iz
jednog stanja u drugo kao i verovatnode tih prelaza.
M=2
Izvor je ERGODIČAN kada su sve verovatnode u dijagramu različite od 0, odnosno kada se iz svih
stanja može stidi u svako od stanja u nekom broju koraka. (Postoji kružna tura kojom se bar jednom
prolazi kroz sva stanja.) Ergodičnost: verovatnoda pojedinih podnizova simbola se ne menja protokom
vremena, tj.očekivanje po vremenu i asamblu je isto. Prelazi se mogu prikazati matricom prelaza gde je
član matrice pij ustvari verovatnoda prelaza iz stanja i u stanje j. Ukoliko elementi matrice prelaza ne
zavise od vremena, odnosno verovatnode prelaza iz jednog stanja u drugo se ne menjaju u toku
vremena, Markovljev izvor je STACIONARAN.
Ako je [P(0)+ vektor početnih verovatnoda pojedinih stanja, a *P(i)] je vektor verovatnoda pojedinih
stanja nakon i izvršenih prelaza, tada je:
[P(1)]= [P(0)] [P]
[P(i)]= [P(i-1)] [P]= [P(0)] [P]i
Za izvor kažemo da je REGULARAN ako za neki prirodan broj i, [P]i ima samo pozitivne elemente.
Ako za neko m, [P]m nema nultih elemenata, onda to važi i za svako i≥m. To znači da za regularne izvore
važi da iz svakog stanja, ako mu je verovatnoda nenulta, možemo dodi u svako drugou svakom broju
koraka. Dakle, svaki regularan izvor je i ergodičan, ali obrnuto ne mora da važi.
Ako postoji neko stanje za koje važi da je verovatnoda prelaza iz njega u njega samog jednaka 1
(postoji jedinica na glavnoj dijagonali u matrici prelaza), ono se naziva apsorbujude stanje. Markovljev
izvor sa bar jednim apsorbujudim stanjem je apsorbujudi Markovljev izvor i on nije ni regularan ni
stacionaran.
6. Osnovna teorema o regularnim Markovljevim izvorima.
Dobijanje vektora verovatnoće stanja stabilizovanog
Markovljevog izvora (8)
Teorema tvrdi da postoji takva matrica T koja ima kolone istih vrednosti:
𝑡1 𝑡2 … 𝑡𝑚
𝑖
𝑇 = ⋮ ⋮ ⋮ za koju važi lim𝑖→∞ 𝑃 = [𝑇]
𝑡1 𝑡2 … 𝑡𝑚
Ovo znači da verovatnoda prelaska nekog regularnog Markovljevog izvora iz jednog stanja u
drugo nakon i koraka ne zavisi od i (za veliko i). Vektor 𝑡 = [𝑡1 , 𝑡2 , … , 𝑡𝑚 ] je lim𝑖→∞ 𝑃 𝑖 tj. vektor
verovatnoda stanja stabilnog Markovljevog izvora.
𝑡 𝑃 =𝑡
𝑖 𝑖−1 𝑖−1
lim 𝑃 = 𝑇 ⟹ lim 𝑃 𝑃 = lim 𝑃 𝑃 = 𝑇 𝑃 = 𝑇 = 𝑇 𝐼
𝑖→∞ 𝑖→∞ 𝑖→∞
⟹ 𝑇 𝑃 − 𝐼 = [0]
⟹𝑡 𝑃 − 𝐼 =0
Trivijalno rešenje je *P+=*I+ kada je u pitanju apsorbujudi Markovljev izvor, kod kog su sva stanja
apsorbujuda. U tom slučaju je 𝑡 proizvoljno, dok je za [P]≠*I+ mogude izračunati 𝑡 na osnovu M+1
linearne jednačine sa M nepoznatih. Dopunska jednačina je uvek ta da je zbir svih ti jednak 1. Preostalih
M jednačina dobija se iz poslednje jednakosti u dokazu.
𝑡1 𝑃11 − 1 + 𝑡2 𝑃21 + ⋯ + 𝑡𝑚 𝑃𝑚1 = 0
𝑡1 𝑃12 + 𝑡2 𝑃22 − 1 + ⋯ + 𝑡𝑚 𝑃𝑚2 = 0
⋮
𝑡1 𝑃1𝑚 + 𝑡2 𝑃2𝑚 + ⋯ + 𝑡𝑚 𝑃𝑚𝑚 − 1 = 0
𝑡1 + 𝑡2 + ⋯ + 𝑡𝑚 = 1
7. Entropija Markovljevog izvora. Jezik kao izvor informacija (6)
Neka je početno stanje izvora m-to. Entropija (ili prosečna neizvesnost) prelaska iz m-tog stanja
u neko drugo (stanje s) je:
1 1
𝐻𝑚 𝑆 = 𝑃 𝑠⎸𝑠𝑚 𝑙𝑑
𝑃 𝑠⎸𝑠𝑚
𝑠𝜖𝑆
1
1 1
𝐻 𝑆 = 𝑃[𝑠1 ]𝑃 𝑠2 ⎸𝑠1 𝑙𝑑 = 𝑃 𝑠1 , 𝑠2 𝑙𝑑
𝑃 𝑠2 ⎸𝑠1 𝑃 𝑠2 ⎸𝑠1
𝑠1 𝜖𝑆 𝑠2 𝜖𝑆 𝑠1 𝜖𝑆 𝑠2 𝜖𝑆
Početno stanje je s1, a završno s2. Obe sume dakle idu kroz sva stanja (kroz isti skup).
Na isti način je i slededi izraz entropija prelaska iz m-tog stanja u neko drugo u i koraka.
𝑖 1
𝐻𝑚 𝑆 = 𝑃 𝑠⎸𝑠𝑚 (𝑖) 𝑙𝑑
𝑃 𝑠⎸𝑠𝑚 (𝑖)
𝑠𝜖𝑆
𝑖
1
𝐻 𝑆 = 𝑃[𝑠1 ]𝑃 𝑠2 ⎸𝑠1 (𝑖) 𝑙𝑑
𝑃 𝑠2 ⎸𝑠1 (𝑖)
𝑠1 𝜖𝑆 𝑠2 𝜖𝑆
𝑖
1
𝐻 𝑆 = 𝑃 𝑠1 , 𝑠2 , … , 𝑠𝑖+1 𝑙𝑑
𝑃 𝑠𝑖+1 ⎸𝑠1 , 𝑠2 , … , 𝑠𝑖
𝑠 𝜖𝑆 𝑖+1
gde je si stanje izvora u i-tom trenutku. Suma ide po skupu stanja i+1 put (kao i+1 suma po skupu
stanja). Ova združena verovatnoda je ustvari verovatnoda da je u nekom stanju puta verovatnoda da de
da pređe u i+1 stanje, ako je u prethodnih i trenutaka bio u stanjima s1 do si.
Dakle, entropija po jednom simbolu ui koraka je:
𝑖
1 𝑖
𝐻 𝐴 = 𝐻 𝑆
𝑖
To je praktično i simbola, pa delimo sa i da bismo dobili po 1 simbolu.
Teorema 1: tvrdi da postoji takvo H(A) da je
𝑖
𝐻 𝐴 = lim 𝐻 𝐴
𝑖→∞
0
Teorema 2: Za regularan Markovljev izvor sa 𝑃 = 𝑡 = [𝑡1 , 𝑡2 , … , 𝑡𝑚 ] važi
1 2 𝑖
𝐻 𝐴 =𝐻 𝐴 =⋯=𝐻 𝐴 = ⋯ = 𝐻(𝐴)
Jezik kao primer Markovljevog izvora. U srpskom jeziku umamo 30 glasova, 31 slovo (računajudi i
razmak). Ako bismo uzeli da su sva slova jednakoverovatna, dobili bismo maksimalnu entropiju izvora i
to je ld(31) što je blizu 5 bita po simbolu. U realnosti, svaki jezik, pa tako i srpski ima neuniformnu
raspodelu verovatnode pojavljivanja pojedinih simbola, a osim toga simboli su i međusobno korelisani u
manjoj ili vedoj meri. Tako da je entropija srpskog jezika manja od pomenutih 5 bita po simbolu.
Informaciona suvišnost odnosno redundansa jezika se računa na slededi način:
𝐻(𝑆)𝑚𝑎𝑥 − 𝐻(𝑆)
𝑅𝑑 =
𝐻(𝑆)𝑚𝑎𝑥
Ako se uzme u obzir stvarna verovatnoda pojavljivanja simbola u srpskom jeziku i idalje se
smatra da je jezik DMS, dolazi se do toga da je entropija 4.24 bita po simbolu. Međutim ispitivanjem
verovatnode pojave digrama, trigrama itd. entropija se smanjuje i sve više približava vrednosti od 1 bita
po simbolu i to ne samo za srpski jezik.
8. Kontinualni izvor informacija. Maksimum entropije
kontinualnog izvora informacija. Dimenzija entropije
kontinualnog izvora. (10)
Ovaj izraz je sličan izrazu za maksimalnu entropiju kod DMS, pri čemu je umesto logaritma broja
simbola ovde prisutan logaritam amplitudskog opsega.Realni kontinualni izvori informacija imaju uvek
konačnu i ograničenu srednju snagu pri čemu amplitudski opseg ne mora biti ograničen, pa tada
uniformna raspodela nije odgovarajuda.
Analogno izvođenju kod diskretnih sistema:
∞ ∞ ∞ ∞
𝑞 𝑥 1 𝑞 𝑥 1
𝑝 𝑥 𝑙𝑑 𝑑𝑥 ≤ 𝑝 𝑥 − 1 𝑑𝑥 = 𝑞 𝑥 𝑑𝑥 − 𝑝 𝑥 𝑑𝑥 = 0
𝑝 𝑥 𝑙𝑛2 𝑝 𝑥 𝑙𝑛2
−∞ −∞ −∞ −∞
∞ ∞ ∞ ∞
1 1 1
⟹ 𝑝 𝑥 𝑙𝑑 𝑑𝑥 + 𝑝 𝑥 𝑙𝑑𝑞(𝑥)𝑑𝑥 = 𝑝 𝑥 𝑙𝑑 𝑑𝑥 − 𝑝 𝑥 𝑙𝑑 𝑑𝑥 ≤ 0
𝑝 𝑥 𝑝(𝑥) 𝑞(𝑥)
−∞ −∞ −∞ −∞
∞ ∞
1 1
⟹ 𝑝 𝑥 𝑙𝑑 𝑑𝑥 ≤ 𝑝 𝑥 𝑙𝑑 𝑑𝑥
𝑝 𝑥 𝑞 𝑥
−∞ −∞
Međutim, odnos signal/šum se ponaša po Gausovoj raspodeli. Ako uzmemo za q(x) Gausovu
raspodelu sa nultom srednjom vrednošdu dobijamo sledede:
1 𝑥2
−
𝑞 𝑥 = 𝑒 2𝜎 2
2𝜋𝜎 2
∞ ∞
1 𝑥2 1
𝐻 𝐴 ≤ 𝑝 𝑥 ln 2𝜋𝜎 2 + 2 𝑑𝑥 = ld 2𝜋𝜎 2 + 2 𝑥 2 𝑝 𝑥 𝑑𝑥
𝑙𝑛2 2𝜎 2𝜎 𝑙𝑛2
−∞ −∞
1 𝑙𝑛𝑒 1 𝑙𝑑𝑒 1
= ld 2𝜋𝜎 2 + 2 𝜎 2 = ld 2𝜋𝜎 2 + = ld 2𝜋𝑒𝜎 2
2 2𝜎 𝑙𝑛2 2 2 2
Dakle, maksimum entropije u slučaju kada je amplitudski opseg neograničen, postiže se sa
Gausovom raspodelom.
Nema smisla govoriti o jedinici (dimenziji) bit/simbolu. Uzmimo da je frekvencijski opseg signala
uvek ograničen, tada može da se primeni teorema o uzorkovanju, te se onda može govoriti o jedinici
bit/odmerku. Međutim, tačnije je definisati funkciju informacionog fluksa (s tim da je problem što je
merenje relativno u odnosu na koordinatni sistem):
𝑏𝑖𝑡
𝜙 𝐴 = 𝐻 𝐴 ∗ 2𝑓𝑔 [ ]
𝑠
Dakle, entropija bi bila u bitima po odmerku, a po teoremi o odabiranju imamo 2𝑓𝑔 odmeraka
po sekundi, pa je onda jedinica za fluks bit po sekundi.
Kod je način preslikavanja niza ulaznih u niz izlaznih simbola iz uređaja zvanog koder. Svakom od
mogidih ulaznih nizova (neobavezno istih dužina) pridružuje se određen izlazni niz (takođe neobavezno
istih dužina). Ukoliko su izlazni nizovi jednake dužine, reč je o KODU KONSTANTNE DUŽINE KODNE REČI.
Ukoliko to nije slučaj, reč je o KODU PROMENLJIVE DUŽINE KODNE REČI. Ukoliko važi xn=fn(in) u pitanju
je kod bez memorije. Kod bez memorije sa konstantnom dužinom kodne reči je BLOK KOD. Ukoliko važi
xn=fn(in, in—1,..., in-M)u pitanju je kod sa memorijom (TRELIS KOD). Ovakav kod se uvek može prikazati
dijagramom stanja ili trelis dijagramom (dijagram stanja kao funkcija vremena). Blok kodom naziva se i
prefiksni kod, kao i onaj za sažimanje podataka, ali svi oni imaju pomenute osobine blok koda pa se zato
tako i nazivaju.
Kod realnih izvora neki simboli se pojavljuju češde od ostalih, pa samim tim različiti simboli nose
različitu količinu informacija. Osim toga, najčešde postoji i neka statistička zavisnost između pojedinih
simbola. To upuduje na činjenicu da nisu svi simboli „natovareni informacijom do vrha“, pa je zadatak
statističkog kodera da „izvrši pretovar informacija“. Odnosno, zadatak statističkog kodera je da učini sve
simbole jednakim u pogledu količine informacije koju prenose.
Ako imamo kodni alfabet: X(x1,x2,...,xr), svaki simbol može da nosi maksimalno ld(r) bita informacije.
Ako izvor S ima simbole iz alfabeta I(i1,i2,…,is), svaki njegov simbol nosi u proseku H(S) bita po simbolu.
Optimalni statistički koder de izlaz iz izvora S kodovati tako da je KH(S)≅Nld(r), s tim da je K broj
izvornih simbola, a N minimalan mogud broj kodovanih simbola.
Pretpostavkom što manjeg kodnog alfabeta (najmanje 2 simbola u alfabetu), bide potreban sve
vedi broj kodnih simbola za kodovanje. Ako sa Lrobeležimo prosečan broj kodnih simbola (iz kodnog
alfabeta od r različitih simbola) po jednom izvornom simbolu, dobijamo da je
𝑁 𝐻(𝑆)
𝐿𝑟 𝑆 = lim𝑁→∞ = 𝑙𝑑 (𝑟) . (izvor nazivamo n-arnim ako ima n-demenzionalni alfabet)
𝐾
Neka je X=(x1,x2,...,xlK) kodovana sekvenca dužine lK(i). Za fiksirano K, skup svih sK r-arnih sekvenci
(kodnih reči) je kod. Dakle dužina je l, a K u indeksu označava da je K-arna ulazna sekvenca. Pošto je s-
arni ulazni alfabet, različitih mogudnosti na ulazu imamo sK. Pa onda i kodnih reči moramo imati toliko, a
one su r-arne, jer je kodni alfabet r-aran.
Kod je jednoznačno dekodabilan ako ne postoje takve dve sekvence koje čine istu r-arnu
sekvencu, odnosno, ako i samo ako bilo koja sekvenca kodnih reči odgovara jednoznačno samo jednoj
sekvenci (poruci) informacionog izvora. Po Šenonu, dovoljan uslov za jednoznačnu dekodabilnost jeste
da ni jedna kodna reč dužine l nije identična sa l prvih simbola neke druge kodne reči dužine l ili više.
Jasno je da je to tako jer se tada jednostavno detektuje kraj svake kodne reči (ni jedna kodna reč nije
prefiks neke druge). Prefiksni ili blok kod je upravo onaj koji ispunjava pomenuti dovoljan uslov za
jednoznačnu dekodabilnost. Međutim, kod može biti jednoznačno dekodabilan, a da nije prefiksni. Takav
je koma kod. To je kod kod kog na primer jedinica uvek označava početak neke kodne reči.
Postoje izvori sa i bez memorije, kodovi sa memorijom i bez nje, pa i kanali sa memorijom i bez
nje. Možemo ih koristiti u svim mogudim međusobnim kombinacijama (npr. izvor sa memorikom, kod sa
memorijom i kanal bez memorije).
10. Sardinas-Patersonov način provere jednoznačne
dekodabilnosti. Vreme zadrške pri dekodovanju. (7)
Ova teorema uspostavlja granice mogude kompresije podataka. Dokazuje da je nemogude izvršiti
kompresiju takvu da prosečan broj bita po simbolu bude manji od entropije izvora datih simbola, inače
de dodi do gubitka informacije. Međutim, mogude je vršiti kompresiju takvu da broj bita po simbolu bude
približan entropiji izvora, sa malom verovatnodom gubitka informacije.
Pozitivan stav:
Za DMS sa alfabetom A i entropijom H(A)=Hza svako 𝑁 ∈ ℕ postoji jednoznačno dekodabilan
binarni kod koji se sastoji od binarnih sekvenci (kodnih reči) dužine 𝑙𝑁 𝑎 , 𝑎 ∈ 𝐴𝑁 , za koji važi da je
očekivana dužina sekvence (kodnih reči):
𝐿𝑁 ≡ 𝑃𝑁 𝑎 𝑙𝑁 𝑎 ≤ 𝑁𝐻 + 𝑜 𝑁
𝐴𝑁
Pozitivan i negativan stav su ustvari dovoljan i potreban uslov. Dokaz je suviše komplikovan, ne
treba ga znati za sada.
12. Optimalni prefiksni kod za sažimanje podataka. Hafmanov
algoritam. (10)
Ukoliko kodne reči statističkog koda mogu da budu različite dužine, mogude je za dati izvor
konstruisati takav prefiksni kod čija je očekivana dužina najmanja moguda. Optimalan kod je onaj u kom
je prosečna dužina kodne reči jednaka entropiji po izvornom simbolu.
Teorema:
Za dati izvor S sa alfabetom A, od r simbola, binarni prefiksni kod sa minimalnom mogudom
dužinom kodnih reči ima sledede osobine:
1) Verovatniji simbol se koduje kradom kodnom rečju
2) Dva najmanje verovatna izvorna simbola su predstavljeni kodnim rečima iste dužine
3) Ukoliko postoje dve ili više kodnih reči iste dužine, onda postoje dve od njih koje se razlikuju
samo u poslednjem bitu
Dokaz:
1) Ako je P[a1]> P[a2] i l[a1] > l[a2+ , tada se međusobnom zamenom tih kodnih reči dobija bolji
kod
2) Ako pretpostavimo da dva najmanje verovatna izvorna simbola imaju dodeljene kodne reči
različitih dužina, tada odbacivanjem poslednjeg bita duže od te dve reči dobijamo kradu
kodnu reč i samim tim bolji prefiksni kod, a ono što je bitno, s obzirom da je u pitanju
prefiksni kod, te ni jedna kodna reč ne sme biti prefiks neke druge, pomenutim
odbacivanjem nismo mogli dodi do ved postojede kodne reči.
3) Ako pretpostavimo da su sve kodne reči iste dužine takve da se odbacivanjem poslednjeg
bita dobijaju krade reči koje su međusobno različite, a s obzirom da ni jedna kodna reč nije
prefiks neke druge, takvo skradivanje daje bolji prefiksni kod.
Teorema:
Napravimo od dva najmanje verovatna izvorna simbola novi zajednički veštački simbol i
formirajmo onda optimalan prefiksni kod Ҩ‘ za tako dobijen ekvivalentan izvor. Dodavanjem 0 i 1 na
kodnu reč koja predstavlja dodatni kombinovani simbol dobija se kod Ҩ za originalni izvor. Ҩ je
optimalan kod.
Dokaz:
Označimo dva najmanje verovatna simbola originalnog izvora sa a1 i a2, sa verovatnodama p*a1] i
p[a2+. Na osnovu prethodne teoreme znamo da su kodne reči optimalnog koda koje su njima pridružene
najduže i da se razlikuju samo na poslednjem mestu. Dužine kodnih reči iz kodova Ҩ i Ҩ’ su povezane
relacijom
𝑙 ′ 𝑎 + 1, 𝑧𝑎 𝑎 = 𝑎1 ∨ 𝑎 = 𝑎2
𝑙𝑎 =
𝑙 ′ 𝑎 , 𝑖𝑛𝑎č𝑒
Prosečne dužine ovih kodova su
𝐿 = 𝑝𝑎𝑙𝑎 = 𝑝 𝑎 𝑙 𝑎 + 𝑝 𝑎1 𝑙 𝑎1 + 𝑝 𝑎2 𝑙 𝑎2 =
𝐴 𝐴∕ 𝑎 1 ,𝑎 2
= 𝑝 𝑎 𝑙 ′ [𝑎] + 𝑝 𝑎1 𝑙 ′ 𝑎1 + 1 + 𝑝 𝑎2 𝑙′ 𝑎2 + 1 =
𝐴 𝑎 1 ,𝑎 2
= 𝑝 𝑎 𝑙 ′ [𝑎] + 𝑝 𝑎1 + 𝑝 𝑎2 𝑙 ′ 𝑎1 + 𝑝 𝑎1 + 𝑝 𝑎2 =
𝐴 𝑎 1 ,𝑎 2
= 𝐿′ + 𝑝 𝑎1 + 𝑝 𝑎2
Dakle, minimizacija dužine kodne reči za optimalan kod originalnog izvora vrši se minimizacijom
dužine kodne reči koda korišdenog za ekvivalentni izvor.
Na osnovu pomenutih teorema formuliše se Hafmanov algoritam.
BEGIN
sortiraj u stek simbole iz alfabeta po rastudim verovatnodama;
REPEAT
uzmi dva gornja simbola sa steka;
spoj ta dva simbola u jedan;
na stek stavi novi simbol umesto prethodna dva;
sortiraj stek po rastudim verovatnodama;
UNTIL
ostao samo jedan simbol;
REPEAT
uzmi prvi sastavljeni simbol od vrha steka na niže i raspakuj ga;
kodnoj reči koja predstavlja taj sastavljeni simbol dodaj 0 i 1 i tako formiraj kodne reči za
svaki od dva raspakovana simbola;
usortiraj ta dva raspakovana simbola, zajedno sa pridruženim kodnim rečima u stek po
rastudim vrednostima verovatnode;
UNTIL
nema više sastavljenih simbola;
END
Proširenje izvora smatra se pravljenje novih simbola udruživanjem postojedih u sve mogude
varijante sekvence dužine 2 simbola (prvo proširenje), 3 simbola (drugo proširenje) itd. Proširivanjem
izvora teži se optimalnom kodu. Stepen kompresije računamo kao količnik prosečne dužine reči
kodovane sekvence i dužine reči nekodovane sekvence. Efikasnost koda se računa kao količnik entropije
i prosečne dužine kodne reči.
Postoji jako puno optimalnih kodova. Svaka permutacija kodnih simbola jednog optimalnog koda
takođe je optimalan kod. Svaka zamena kodnih reči koje odgovaraju jednakoverovatnim simbolima
datog izvora, takođe je optimalan kod. Dakle, Hafmanov kod konstruiše samo jedan od njih.
13. Elajesov (aritmetički) kod (9)
Osnovna ideja se zasniva na korišdenju AEP osobine (asymptotic equipartition property) tako što
de se za kodovanje N-torki na izlazu iz izvora S sa alfabetom A odabrati skup od M=2K binarnih K-torki
(kodnih reči) takav da je 𝐾 ≥ 𝐿𝑁 = 𝐻 𝐴𝑁 , 𝑧𝑎 𝐷𝑀𝑆 = 𝑁𝐻(𝐴).
𝐾
Kodna brzina je 𝑅 = 𝑁 [bit/izvornom_simbolu]
𝐻 𝐴𝑁
Važi da je 𝑙𝑑 𝑟 ≥ 𝑅 ≥ 𝑁
, 𝑧𝑎 𝐷𝑀𝑆 = 𝐻(𝐴) .
𝐾 1 1
Prva nejednakost iz 𝑅 = 𝑁 ≥ 𝑁 = 𝑙𝑑 𝑟
⇒ 𝑅 ≤ 𝑙𝑑(𝑟),
𝐾 𝐻 𝐴𝑁
a druga nejednakost iz 𝐾 ≥ 𝐻 𝐴𝑁 ⇒ 𝑅 = 𝑁 ≥ 𝑁
.
Prvih M-1 kodnih reči su normalne kodne reči, a M-ta kodna reč je reč zanemarivanja.
Procedura kodovanja:
Ukoliko je izvorna N-torka u 𝑆 𝑁, 𝜀 , ona se koduje korišdenjem odgovarajude normalne kodne
reči, gde se epsilon bira tako da je kardinalnost skupa #𝑆 𝑁, 𝜀 = 𝑀 − 1, inače N-torku treba preslikati u
kodnu reč zanemarivanja. Ova procedura, iako je praktična, ne omogudava uvek jednoznačno
dekodovanje. Verovatnoda gubitka informacija usled zanemarivanja je
1
𝑃𝑒 = 2−𝐾𝐹 𝑅 +𝑜(𝐾)
, 𝑔𝑑𝑒 𝑗𝑒 𝐹 𝑅 = lim − 𝑙𝑑(𝑃𝑒 ) 𝑒𝑘𝑠𝑝𝑜𝑛𝑒𝑛𝑡 𝑔𝑟𝑒š𝑘𝑒.
𝐾→∞ 𝐾
Zaključujemo da eksponent greške raste porastom K kao i porastom kodne brzine, a tada opada
verovatnoda greške. Odnosno što manje komprimujemo, manja je verovatnoda kasnije pogrešnog
dekodovanja. (Što je K vede, manje se ulaznih N-torki preslikava u reč zanemarivanja, pa se manje
informacija gubi.) Što je K vede, odnosno N manje, manje se komprimuje podatak i kodna brzina je veda.
Najveda kodna brzina može biti 1, kada nema kompresije.
Tipična zavisnost eksponenta greške od R je data na slici. F(R) se dobija ukoliko se pri dokazu AEP
osobine umesto Čebiševe koristi znatno strožija Černovljeva nejednakost. U toj zavisnosti uočavamo dve
kritične vrednosti kodne brzine, ona od koje više eksponent nije 0, i ona na kojoj se javlja asimptota kojoj
teži eksponent (tj. najveda moguda brzina). Ta najveda moguda brzina je ld(r), što je 1 za binarni kodni
alfabet, tada nema kompresije i tada nema ni greške (ona je 0). Najmanja brzina koja se teorijski dostiže
je jednaka entropiji bita po simbolu, pa je upravo vrednost entropije izvora brzina od koje eksponent
počinje da rate , a za koju je greška maksimalna (odnosno iznosi 1).
15. Lempel-Zivovi algoritmi: varijante algoritma iz 1977. (8)
LZ77 i LZ78 su dva koda za kompresiju bez gubitaka predstavljena u radovima A. Lempela i J. Ziva
1977. i 1978. godine. Ova dva algoritma predstavljaju bazu za mnoge varijacije kao što su LZW, LZBW i
drugi. Osim njihovog naučnog doprinosa, oni se koriste i kao baza u šemama kompresije kao što su GIF,
PNG i druge. Teorijski, oba su kodovi sa rečnikom. LZ77 koristi klizedi prozor prilikom kompresije, što se
kasnije pokazalo ekvivalentnim sa korišdenjem eksplicitnog rečnika kako je i iskorišdeno u LZ78.
Klizedi prozor proizvoljne dužine, traženje poklapanja, zapis. Prva realizacija samo koliko je
vradanje i koliko je poklapanje (kada nema poklapanja piše se 0 vradanje i simbol), potom realizacija sa
flegom, indikator postoji li poklapanje, ako ne postoji, indikator je 0, pa ide simbol, a ako postoji,
indikator je 1, pa ide koliko se vradamo pa koliko simbola prepisujemo. Dopuna, bootstrap, možemo se
manje vratiti, a više prepisati (vratimo se 4 a ponovimo 10, dakle prepisemo sekvencu od 4, pa ponovo,
pa još prva dva simbola te sekvence). Postoji i Lempel Ziv Bender Wolf, koji se zasniva na LZ77, ali
umesto koliko prepisujemo, zapisuje razliku između najvedeg i prvog narednog manjeg poklapanja.
Dužina nekodovane sekvence je broj simbola puta broj bita po simbolu, a dužina kodovane je broj zapisa
puta broj bita potrebnih za zapis (indikator-1 bit, simbol-x bita, vradanje i ponavljanje-ldW, gde je W
dužina prozora, kod LZBW poslednji član zapisa se zapisuje sa brojem bita iz BW tabele). Stepen
kompresije je količnik dužine kodovane i dužine nekodovane sekvence. Dekoder radi na potpuno isti
način.
16. Lempel-Zivovi algoritmi: varijante algoritma iz 1978. (8)
LZ78 koristi rečnik. U rečnik se upisuje nov simbol i nova reč. Zapis je sačinjen od broja koji u
rečniku predstavlja reč koja se poklapa sa najdužom sekvencom (za koju smo našli poklapanje sa nekom
od reči iz alfabeta) i simbola koji se nadograđuje na tu reč (prvi naredni simbol nekodovane sekvence), i
takvu novu reč takođe beležimo u rečnik. Istovremeno nadograđujemo stablo (čije grane čine reči). Kada
u rečniku više nema mesta, neophodno je odbaciti listove stabla koji nisu korišdeni u prethodnom ili
trenutnom koraku i onda na prvo prazno mesto u rečniku upisati novu reč. Dekoder radi na potpuno isti
način i nije potrebno prosleđivati mu rečnik.
Varijacija, tj. nadogradnja na ovo jeste LZW kod koji takođe koristi rečnik (ali ima i nepromenljiv
deo rečnika koji sadrži alfabet), reči se prave na malo drugačiji način i takođe se pravi stablo i na isti
način se pravi mesto u rečniku. Dekoder i ovde radi na potpuno isti način bez potrebe za prosleđivanjem
rečnika.
17. Statistički model komunikacionog kanala (9)
aequivocus=dvoumica, nesporazum
Ako je X=Y onda je P[x⎸y+=1 samo u slučaju x=y, a inače 0, pa je i združena verovatnoda
P[x,y]=P[y]P[x⎸y+=P*y+ za slučaj x=y, a inače 0. Tada je H(X⎸Y)=0. To znači da kada kanal ne unosi smetnje
mera nesporazuma je 0, odnosno nema nesporazuma, što je i očekivano.
Ukoliko je H(X⎸Y)=H(X), zaključujemo da prijem simbola sa izlazne strane (Y) nije doneo bilo
kakvu informaciju, što znači da je kanal u prekidu. Veličina koja predstavlja razliku H(X) i H(X⎸Y), naziva
se TRANSINFORMACIJA (prenesena količina informacija) i ukoliko je ona jednaka nuli, kanal je u prekidu
i kroz njega nije mogude preneti informaciju.
1 1
𝐼 𝑋, 𝑌 = 𝐻 𝑋 − 𝐻 𝑋⎸𝑌 = 𝑃 𝑥 𝑙𝑑 − 𝑃 𝑥, 𝑦 𝑙𝑑 =
𝑃𝑥 𝑃 𝑥⎸𝑦
𝑋 𝑋 𝑌
1 𝑃[𝑦] 𝑃[𝑥, 𝑦]
= 𝑃[𝑥, 𝑦] 𝑙𝑑 − 𝑃[𝑥, 𝑦] 𝑙𝑑 = 𝑃[𝑥, 𝑦] 𝑙𝑑
𝑃𝑥 𝑃 𝑥, 𝑦 𝑃𝑥𝑃𝑦
𝑋 𝑌 𝑋 𝑌 𝑋 𝑌
= 𝑃 𝑥, 𝑦 𝑖(𝑥, 𝑦)
𝑋 𝑌
H(X,Y)
H(X)
H(Y)
H(Y⎸X)
H(X⎸Y) I(X,Y)
19. Kapacitet diskretnog kanala. Kapacitet BSC kanala. (8)
Iz ovog oblika se vidi da transinformacija zavisi samo od transverovatnoda oblika P*y⎸x+, što
znači od kanala, i od raspodele verovatnoda otpremne liste X, što znači od izvora. To znači da se
transinformacija može maksimizovati samo promenom P[X]. Maksimalna moguda transinformacija
naziva se KAPACITET KANALA, RC.
𝑏𝑖𝑡
𝑅𝑐 = max 𝐼(𝑋, 𝑌) [ ]
𝑃[𝑋] 𝑠𝑖𝑚𝑏𝑜𝑙𝑢
Izračunavanje kapaciteta kanala u opštem slučaju može biti vrlo komplikovano, ali za različite
klase kanala može se nadi jednostavniji način rešavanja ovog problema.
BSC kanal:
RC=1-H(p), za P[X=0]=P[X=1]=0.5
Izvođenje…
Uniformni kanali:
Kanal je uniforman sa ulazne strane ako su sve vrste u njegovoj kanalnoj matrici nastale
permutacijom članova prve vrste.(Uniforman je sa izlazne strane ako su sve kolone permutacija prve.) Za
takve kanale važi:
1
𝐼 𝑋, 𝑌 = 𝐻 𝑌 − 𝐻 𝑌⎸𝑋 = 𝐻 𝑌 − 𝑃 𝑥 𝐻 𝑌⎸𝑥 = 𝐻 𝑌 − 𝑃𝑥 𝑃 𝑦⎸𝑥 𝑙𝑑
𝑃 𝑦⎸𝑥
𝑋 𝑋 𝑌
= 𝐻 𝑌 − 𝐻 𝑌⎸𝑥 , ∀𝑥 ∈ 𝑋, 𝑗𝑒𝑟 𝑗𝑒 𝑃 𝑥 = 𝑐𝑜𝑛𝑠𝑡.
⟹ 𝑅𝐶 = 𝑙𝑑 𝑞 ′ − 𝐻 𝑌⎸𝑥 , ∀𝑥 ∈ 𝑋
pri čemu je P*X+ odabrano tako da H(Y) bude maksimalno, tj da izlazi budu jednako verovatni sa
verovatnodom 1/q‘. Na taj način je određen i kapacitet BSC kanala. (q’ je broj simbola izlaza)
Primer…
Za kanale čija je kanalna matrica kvadratna (imaju jednak broj ulaznih i izlaznih simbola) i
regularna (determinanta joj je različita od 0, za određivanje kapaciteta kanala se može koristiti metod
Lagranžovih multiplikatora. (Još jedan uslov za ovu metodu je da sve verovatnode ulaznih simbola budu
između 0 i 1, što se proverava kasnije.)
1) Formira se vektor H=[-H(Y⎸x1), -H(Y⎸x2), ..., -H(Y⎸xq)]
2) Reši se matrična jednačinaΛ= Λ1, Λ2, … , Λq =H ΠT]-1
3) Optimalna raspodela ulaznih verovatnoda je P*X+=*P*x1],P[x2],...,P[xq] ]
𝑞
4) Kapacitet kanala je 𝑅𝐶 = 𝑙𝑑 𝑖=1 2𝜆 𝑖
𝑞 𝑇 −1 𝜆𝑗
𝑗 =1 Π 𝑖𝑗 ∙ 2
𝑃 𝑥𝑖 = 𝑞 𝜆𝑗
𝑗 =1 2
Primer…
20. Kapacitet aditivnog kanala (9)
⟹ 𝐻 𝑋 + 𝑁⎸𝑋 = 𝐻 𝑁 , 𝑧𝑎 𝑛 ≠ 𝑓(𝑥)
𝐼 𝑋, 𝑌 = 𝐻 𝑌 − 𝐻 𝑌⎸𝑋 = 𝐻 𝑌 − 𝐻 𝑁 = 𝐻 𝑋 + 𝑁 − 𝐻(𝑁)
Granični slučajevi:
1) H(N)=0
⇒H(X+N)=H(X)
⇒I X,Y =H X
U pitanju je idealan kanal, kada se sva informacija sa ulaza prenosi.
2) H(X+N)=H(N)
⇒I(X,Y)=0
U pitanju je kanal koji je u prekidu (informacija sa ulaza se ne prenosi).
21. Kapacitet kontinualnog kanala (10)
Pojedini tipovi kanala mogu se kaskadno vezivati pod uslovom da je na mestu kaskadnog spoja
izlazni alfabet prethodnog kanala iste kardinalnosti kao ulazni alfabet narednog. Rezultat kaskadne veze
kanala je novi (ekvivalentni) kanal.
* 𝑋 𝑃 𝑦⎸𝑥, 𝑣 𝑃 𝑥⎸𝑦 = 𝑃 𝑦⎸𝑣 važi po teoremi irelevancije, a i intuitivno je jasno da ako nam je
poznato v, y praktično više i ne zavisi od x
23. Verovatnoća greške prenosa informacija. MAP kriterijum.
Odnos redundanse i verovatnoće greške. (7)
Nakon prijema određenog simbola na izlazu iz kanala, potrebno je doneti odluku o tome koji je
simbol bio poslat kroz kanal. Kriterijum treba postaviti tako da se verovatnoda greške kroz kanal
minimizuje.
Verovatnoda greške u opštem slučaju:
𝑃𝑒 = 𝑃 𝑥 𝑦 ≠ 𝑥 = 𝑃[𝑦] 𝑃[𝑥⎸𝑦]
𝑌 𝑋/𝑥 𝑦
𝑃𝑒 = 𝑃[𝑥, 𝑦] = 𝑃[𝑥, 𝑦] − 𝑃[ 𝑥 𝑦 , 𝑦] = 1 − 𝑃[ 𝑥 𝑦 , 𝑦]
𝑌 𝑋/𝑥 𝑦 𝑋 𝑌 𝑌 𝑌
Primeri…
Optimalno pravilo blokovskog odlučivanja naziva se još i OPTIMALNO DEKODOVANJE. N-torka
𝑥 𝑁 je kodna reč, a 𝑦 𝑁 izlazna kanalna sekvenca. Greška dekodovanja uvek dovodi do pogrešnog
određivanja jednog simbola poslate kodne reči. Verovatnoda pogrešnog određivanja poslatog simbola
pri dekodovanju najrealnija je mera pouzdanosti prenosa i nikada nije veda od verovatnode pogrešnog
dekodovanja cele kodne reči, ali je simbolnu verovatnodu greške teško odrediti u opštem slučaju. Prosto
proširivanje izlazne liste ne menja verovatnodu simbolske greške ukoliko između izlaznih kanalnih
simbola nema međuzavisnosti. Za DMC kanale međuzavisnost izlaznih simbola može nastati samo zbog
međuzavisnosti ulaznih simbola. Najjednostavniji način uvođenja međuzavisnosti je zabrana pojave
određenih kombinacija simbola na ulazu u kanal. Može dodi do problema da prvi simbol kodne reči ne
nosi informaciju, ali se prosečna verovatnoda simbolske greške smanji. Kod načinjen tako što su
određene ulazne kanalne sekvence zabranjene naziva se ZAŠTITNI KOD. Zabranom nekih ulaznih
sekvenci unesena je međuzavisnost pojedinih ulaznih kanalnih simbola, odnosno REDUNDANSA. Kvalitet
zaštitnog koda zavisi od izbora zabranjenih kodnih sekvenci. Unošenjem redundanse je smanjena kodna
brzina R=ld(M)/N *bit/prenesenom_kanalnom_simbolu+, gde je M broj kodnih reči tj. dozvoljenih
sekvenci u skupu svih mogudih N-torki nad kanalnim alfabetom. Kada su dozvoljene sve N-torke, kodna
brzina je R=ld(q), gde je q broj simbola ulaznog alfabeta. Dakle kodna brzina je jednaka entropiji izvora
na ulazu u kanal, uz pretpostavku da su sve N-torke na ulazu jednako verovatne. Dakle, jasno je da se
smanjivanjem kodne brzine smanjuje i verovatnoda greške. Ona se menja i sa povedanjem N.
24. Druga Šenonova teorema o kodovanju (6)
Druga Šenonova teorema daje odgovor na pitanje kako se menja verovatnoda greške
optimalnog zaštitnog koda sa promenom dužine sekvence, odnosno sa porastom N.
Pozitivan stav:
Pe opada sa N i teži 0 za R<Rc
Negativan stav:
Pe raste sa N za R≥Rc
Dokaz je u opštem slučaju veoma komplikovan, pa se radi za BSC-NE TREBA ZA OVAJ PREDMET
25. Eksponent greške zaštitnih kodova. (7)
Pe=2-NE(R)+o(N)za blok kodove, ℳ=0, gde E(R) predstavlja EKSPONENT GREŠKE i izgleda ovako:
Zaštitno kodovanje se razvilo 50-ih godina XX veka. Od tada se ulaže u kostrukciju što
efikasnijeg postupka kodovanja za pouzdan prenos informacija kroz kanale u kojima deluju smetnje.
Dakle, zahtevi su: što manja verovatnoda greške, što manja srednja snaga utrošena na prenos jednog
bita informacije, što krade vreme prijemne i otpremne obrade signala i naravno, što manja cena
čitavog sistema. Nemogude je postidi sve, pa se radi na optimizaciji nekih od njih, dok se ostali drže
na nekom fiksnom nivou. Razvojem tehnologije pomeraju se i granice pomenutih parametara.
Verovatnoda greške nekada je bila dovoljna do 10-4, a danas ide i do 10-9. Odnos srednjih snaga
signala i šuma se spušta sa nekadašnjih 11 na današnjih 3-6 dB, pa i manje. Vreme obrade takođe
ubrzano pada. Da su sve tehničke komunikacije u suštini diskretne pokazuje se time da je za potpuno
veran prenos ili skladištenje bilo koje informacije dovoljno pouzdano preneti samo konačan broj
simbola iz nekog pogodno odabranog alfabeta.
model sistema za digitalni prenos:
izvor infostatistički koderšifarski koderzaštitni kodermodulatorprenosni
medijumdemodulatorzaštitni dekoderšifarski dekoderstatistički dekoderkorisnik informacija
Za prenosni sistem obavezni su samo izvor, prenosni medijum i korisnik, a sve ostalo je opciono,
ali relativno često u realnim sistemima za digitalni prenos informacija. Prenosni kanal možemo
predstaviti kao IZVORZAŠTITNI KODERKODNI KANALZAŠTITNI DEKODERKORISNIK
Načini zaštitnog kodovanja su:
1) ponavljanje sumnjivih poruka (ARQ)
2) kodovanje za otklanjanje grešaka (FEC)
ARQ sistemi, iako su mnogo jednostavniji i jeftiniji, imaju nekoliko problema, a to su: veliko
kašnjenje koje je u nekim slučajevima neprihvatljivo i potreba za dodatnim kanalom koji nije uvek mogud
(uvođenjem povratnog kanala, kapacitet kanala se ne menja).
Klase zaštitnih kodova:
1) blok kodovi (nema memorije, bitska kodna brzina R=K/N=broj_ulaza/broj_izlaza)
2) trelis kodovi (postoje memorijski elementi)
Razmatrademo samo prenos informacija kroz:
1) BSC, binarni simetrični kanal, verovatnoda greške prenosa bita je p
2) BEC, binarni kanal sa brisanjem
3) BSDC, binarni kanal sa finim odlučivanjem (kvantizacijom) na izlazu
q
0 0
r
p
E
p
r
1 1
q
Kvantizacija u BSDC može biti na 4, 8, 16 nivoa. Za BSC se pokazuje da je u bitskom odnosu signal
šum, uočeno znatno poboljšanje za kvantizaciju na 8 umesto 4 nivoa, ali neznatno na više od 8 nivoa.
Trelis kodovi su u kanalima bez memorije superiorniji u odnosu na blok kodove. U kanalima sa
memorijom, blok kodovi su superiorniji. Za blok kodove Pe~2-E(R)*N, a za trelis kodove Pe=2-E(R)*(ℳ+1)*N.
27. Trelis kodovi: definicija, parametri, dijagram stanja i trelis
dijagram (7)
Trelis koder je Milijev automat sa konačnim brojem stanja, K ulaza i N izlaza. Generatorska
sekvenca ili polinom definiše način povezivanja ulaza sa izlazom za linearne trelis kodove. Linearan kod
je onaj kod kog je zbir komponenta po komponentu neke dve mogude izlazne sekvence takođe moguda
izlazna sekvenca. Za alfabet {0,1} zbir je definisan kao ekskluzivno ili. Linearni kod je svaki kod kod kog se
u funkciji preslikavanja koriste samo linearni operatori. Konvolucioni kod je onaj kod kod kog je
kodovana sekvenca jednaka konvoluciju informacione sekvence i generatorske sekvence. Linearni trelis
kod i konvolucioni kod su sinonimi. Fiksni konvolucioni koder je onaj kod kog funkcija preslikavanja
odnosno generatorski polinom nije funkcija vremena (diskretnog). U praksi se najčešde koriste fiksni
konvolucioni kodovi. Parametri: ℳ broj memorijskih delija, K broj ulaza, N broj izlaza, R=K/N kodna
brzina. Pošto je trelis kod automat sa konačnim brojem stanja, njegovo ponašanje se može opisati
dijagramom stanja (stanja i prelazi). Na liniji koja označava prelaz obično se piše simbol koji je
prouzrokovao taj prelaz, a zgodno je označiti i izlaz iz kodera za taj prelaz. Dok mogudi prelazi zavise
samo od stanja i memorije, kao i informacione sekvence, izlazi iz kodera zavise i od funkcije
preslikavanja. Dijagram stanja nacrtan posebno za svaki trenutak daje trelis, odnosno rešetkasti
dijagram. Praktično služi za pradenje prelazaka iz jednog stanja u drugo u toku vremena. Pogodan je za
proučavanje strukture rastojanja koda u kojoj je najinteresantnije slobodno rastojanje koda.
dfree=minimalno Hemingovo rastojanje između parova različitih puteva kroz beskonačno dug
trelis. Za linearne kodove to je minimalna Hemingova težina nekog ne-nultog puta kroz beskonačan
trelis.
28. Metrika za optimalno dekodovanje trelis kodova (9)
Pošto je izlaz dat, može se ostvariti samo izborom ulaza. Pošto maksimizacija proizvoda nije
jednostavna kao maksimizacija sume i pošto je logaritam monotono rastuda funkcija, ova maksimizacija
se može zameniti slededom maksimizacijom
𝑁𝐿
ili
𝑁𝐿
𝑙𝑑𝑃 𝑦𝑛 ⎸𝑥𝑛 − 𝑓(𝑦𝑛 ) , 𝑡𝑎𝑗 č𝑙𝑎𝑛 𝑗𝑒 𝑐𝑜𝑛𝑠𝑡, 𝑝𝑎 𝑛𝑒𝑚𝑎 𝑢𝑡𝑖𝑐𝑎𝑗𝑎 𝑛𝑎 𝑚𝑎𝑘𝑠𝑖𝑚𝑖𝑧𝑎𝑐𝑖𝑗𝑢, 𝑛𝑒 𝑧𝑎𝑣𝑖𝑠𝑖 𝑜𝑑 𝑋
𝑛=1
ili
𝑁𝐿
metrika 𝜇 𝑥𝑛 , 𝑦𝑛
Pogodno je odabrati 𝑓 𝑦𝑛 = min𝑥 𝑛 𝑙𝑑𝑃 𝑦𝑛 ⎸𝑥𝑛
Tada je metrika uvek nenegativna, a jednaka nuli za „najgoru“ ulaznu sekvencu, tj. za najlošije
poklapanje. Za BSC i BEC metrika je irelevantna u odnosu na izbor verovatnoda prelaza u kanalu. Kod
trelis kodova problem dekodovanja po maksimalnoj verodostojnosti se svodi na pronalaženje puta kroz
trelis sa najvedom akumulisanom metrikom.
29. Viterbijev algoritam za dekodovanje trelis kodova (VA):
završeni trelis (9)
Poenta je kretanje kroz trelis uz zadržavanje samo najboljeg puta do savkog stanja. Postoje dve
tipične situacije: završen i beskonačan trelis. Kod završenog, nakon L trenutaka (grana) treba ubaciti ℳ
unapred poznatih K-torki u koder kako bi se koder doveo u jedinstveno (poznato) stanje. Kod
beskonačnog dekoder ne može da čeka na kraj trelisa. Dekodovana poruka kod završenog trelisa se
iščitava od kraja trelisa, iz jedinstvenog poznatog stanja u koje vodi samo jedan preživeli put.
U slučaju da dekodujemo kanal BSDC-4, potom dekodujemo, a da je kanal postao BSC, a onda i
BEC, dobijamo različitrezultat. Razlog je: što finije odlučujemo manje grešaka pravimo, odnosno grubo
odlučivanje ima vedu verovatnodu pojave greške, pa de nam od pomenuta tri slučaja, najverovatnije
tačnu sekvencu dati BSDC-4.
30. Viterbijev algoritam za dekodovanje trelis kodova (VA):
beskonačan trelis (10)
Odaberi 𝑖𝑛 kao granu na dubini n iz koje proizilazi put sa najboljom metrikom do nekog od
stanja u trenutku n+τ, gde je τ kašnjenje. Bez obzira kako se razreši slučaj istih metrika, odluka na
kraju bude ista. Kašnjenje treba odabrati tako da verovatnoda greške usled prinudne odluke bude
zanemarljiva u odnosu na verovatnodu greške dekodovanja, a da se pri tome prostorna
kompleksnost dekodera minimizuje. Eksperimentalno je utvrđeno da je τ=4ℳ. Ukoliko želimo da
izbegnemo maksimizaciju metrike po svim stanjima u nekom trenutku, radi dekodovanja samo jedne
grane, treba koristiti sledede pravilo: odaberi 𝑖𝑛 kao granu na dubini n iz koje proizilazi put do stanja
svih nula (ili ma kog drugog) na dubini n+τ, s tim da kašnjenje u ovom slučaju mora biti vede i iznosi
τ=5ℳ.
31. Dopune VA neophodne pri praktičnoj realizaciji.
Karakteristike VA. (9)
Karakteristike VA:
1. Obezbeđuje dekodovanje po maksimalnoj verodostojnosti.
2. Brz u hardverskoj realizaciji.
3. Praktično se može realizovati samo ukoliko je broj stanja relativno mali, npr. 4096 ili
manje. Broj stanja je 2Kℳ, jer se memorija sastoji od ℳ 2K-arnih delija, odnosno Kℳ
binarnih delija. Za K=1 broj memorijskih delija je ograničen na ~12.
4. Pošto se pomodu VA mogu dekodovati samo kodovi kratkih memorijskih dužina,
esencijalno je korišdenje najboljeg mogudeg koda. Ovo podrazumeva maksimalno
mogude slobodno rastojanje, minimalan broj jedinica u informacionoj sekvenci koji
prouzrokuje kodovani put na rastojanju dfree od puta svih nula. (Ne postoji
deterministički način konstrukcije najboljih kodova za određenu dužinu memorije ved se
dobijaju kompjuterskom pretragom. Kodova brzine R=K/N i memorijske dužine ℳ ima
2KN(ℳ+1). N generatorskih polinoma, svaki sa K(ℳ+1) članova koji mogu biti 0 ili 1.)
5. Tipično postižu Pe=10-5 na R=R0
6. Kao univerzalan algoritam našao je primenu u svim estimacijama rada automata sa
konačnim brojem stanja (ISI)
32. Fanoova metrika. Stek algoritam. (8)
Za vede vrednosti dužine memorije, razvijaju se postupci za dekodovanje trelis kodova pod
zajedničkim imenom SEKVENCIJALNO DEKODOVANJE. Osnovna ideja: Razmotati trelis u stablo tako što
de se stanja u trenutku n razlikovati ne samo ukoliko je sadržaj memorije različit, nego i ukoliko se
informacione sekvence koje su do tog stanja dovele, različite. Ovo se može ostvariti i fiktivnim
produženjem memorije-trelis koder je specijalan slučaj kodera sa strukturom stabla, kod koga je
memorija ograničena na ℳ vremenskih jedinica, ali je i kod sa strukturom stabla specijalan slučaj trelis
kodera kada je ℳ>L. Algoritam plada jedno računanje (dinar, sekund) svaki put kad od kopije kodera
traži da mu za željeno stanje da izlaz iz kodera. Stanje: prethodnih Kℳ informacionih simbola ili bita u
do sada analiziranom slučaju.
Fanoova metrika proističe iz zahteva za minimalnom verovatnodom greške pri dekodovanju
kodova sa promenljivom dužinom kodnih reči. Neka je maksimalna dužina kodne reči nekog koda NS.
Neka je primljena i kodna reč dužine Nf, a posle nje još NS-Nf grana sa po N bita, generisanih iz mašine za
koju ne znamo kako funkcioniše, ali znamo da su iste apriorne verovatnode pojave svakog simbola. Neka
je m poruka kodovana u reč dužine f.
𝑃 𝑚, 𝑌𝑆 = 𝑃 𝑚 𝑃[ 𝑡⎸𝑚]𝑃[𝑌𝑆 ⎸𝑋𝑚 , 𝑡]
𝑡
𝑃0 𝑌𝑆 = 𝑃0 𝑌𝑓 𝑃0 𝑌𝑆−𝑓
Što znači da je dovoljno maksimizovati (nema potrebe posmatrati iza dubine f)
𝑃 𝑚, 𝑌𝑆 𝑃[𝑌𝑓 ⎸𝑋𝑚 ]
= 𝑃[𝑚]
𝑃0 𝑌𝑆 𝑃0 𝑌𝑓
Kao i ranije, i ova metrika se dobija logaritmovanjem ove verovatnode:
𝑓−1
𝑃[𝑌𝑓 ⎸𝑋𝑚 ] 𝑃[𝑌𝑓 ⎸𝑋𝑚 ] 𝑃[𝑦𝑛 ⎸𝑥𝑛 ]
𝜇𝑓 = 𝐴𝑙𝑑 𝑃[𝑚] = 𝐴𝑙𝑑 + 𝐴𝑙𝑑𝑃 𝑚 = 𝐴 𝑙𝑑 −𝐾
𝑃0 𝑌𝑓 𝑃0 𝑌𝑓 𝑃0 𝑦𝑛
𝑛=0
𝑓−1 𝑁
𝑃[𝑦⎸𝑥] 𝐾 1
= 𝐴 𝑙𝑑 − 𝑅 , 𝑔𝑑𝑒 𝑗𝑒 𝑅 = , 𝑎 𝑃 𝑚 = 𝐾𝑓
𝑃0 𝑦 𝑁 2
𝑛=0
1. MAla verovatnoda greške, u principu istog reda veličine kao za VA, ali se ovi dekoderi za
razliku od VA mogu realizovati za vede dužine memorije
2. Količina računanja je skoro nezavisna od dužine koda pa se mogu koristiti za dekodovanje
vrlo dugih kodova ℳ=48, odnosno broj stanja je 248.
3. Lako se prilagođava finom odlučivanju
4. Količina računanja je slučajna promenljiva sa Paretoovom raspodelom. Praktično uz
prihvatljivu vremensku kompleksnost dekodovanja, mora se dozvoliti određena količina
“brisanja” (otkaz funkcije dekodera). Ova vrednost se krede oko 10-3 za L~10000.
𝑑𝑖 = min 𝑑𝐻 ( 𝑥𝑛 , 𝑥𝑛 ′)
𝑖0 ≠𝑖0 ′
𝑛=0
𝑑𝑖 = min 𝑤𝐻 ( 𝑥𝑛 )
𝑖0 ≠𝑖0 ′
𝑛=0
𝑟𝑖 = min 𝑑𝐻 ( 𝑥𝑛 , 𝑥𝑛 ′)
𝑖0 ≠𝑖0 ′
𝑛=0
𝑖+ℳ
𝑟𝑖 = min 𝑤𝐻 ( 𝑥𝑛 )
𝑖0 ≠0
𝑛=0
Vrstno rastojanje očigledno opada pošto se porastom i u skup po kom se vrši minimizacija samo
dodaju novi članovi, a stari ostaju u njemu. Pa važi:
d0≤d1≤d2≤...≤d∞≤r∞≤...≤r1≤r0
Za kodove za koje ne važi d∞=r∞nazivaju se katastrofalnim. Zato što relativno mali broj
pogrešno prenesenih simbola može da prouzrokuje beskonačno mnogo grešaka dekodovanja.