Professional Documents
Culture Documents
Теорија Информација и Капацитет Канала За Пренос Података
Теорија Информација и Капацитет Канала За Пренос Података
Универзитет у Приштини
Семинарски рад
Професор: Студент:
Увод...........................................................................................................................................1
1. Појам информације..............................................................................................................2
1.1 Информацијска хијерархија..........................................................................................2
1.2 Дефиниција количине информација.............................................................................3
1.3 Дискретни извори без меморије....................................................................................6
1.4 Ентропија извора............................................................................................................7
1.4.1 Ентропија бинарног извора.....................................................................................7
1.4.2 Информациони флукс..............................................................................................8
1.5 Дискретни извори са меморијом...................................................................................9
1.5.1 Ентропија Марковљевог извора.............................................................................9
2. Комуникациони канали.....................................................................................................10
2.1 Трансинформација........................................................................................................11
2.2 Капацитет канала..........................................................................................................13
2.3 Капацитет дискретног канала без меморије..............................................................14
2.4 Капацитет континуалног канала.................................................................................15
2.5 Капацитет канала у присуству шума и интерференције...........................................19
Закључак.................................................................................................................................22
Литература..............................................................................................................................23
Увод
Интуитивна представа појма информације је готово свима нама блиска, али научна
заснованост и интерпретација информације утемељена је тек половином прошлог
века рађањем нове научне дисциплине Теорије информација.
Све ово указује да појам информација није лако схватити нити једноставно
протумачити.
1
1. Појам информације
На пример број 17 је податак и он као такав нема посебно значење. „сада је 17 часова“
је информација јер је податку додељено неко значење.
2
испод оног претходног:
Посматрајмо пренос поруке о догађају који представља једно од могућих стања неког
стационарног, дискретног, стохастичког процеса ξ(t).
3
Потенцијални прималац односно корисник поруке већ познаје природу стохастичког
процеса и функцију расподеле вероватноћа његових стања.
Према томе количина информација Q( si) коју садржи порука о стању si и априорна
вероватноћа датог стања Pξ ( si) очигледно су обрнуто пропорционалне величине:
1
Q( si)÷ P ξ ( si ) (1.2.1)
1
Q( s1 i , s2 ј ; τ )÷ P ξ1 ξ 2 (s 1 i , s 2 ј ; τ ) (1.2.2)
1 1
Q( si , s ј) ÷ P ξ ( si ) P ξ (s ј ) (1.2.3)
4
1 1
Q( si , s ј) ÷ log P ξ (si ) + log P ξ (s ј ) (1.2.4)
1
Q( si) ¿ log10 P ξ (si ) [Hartley] (1.2.5)
1
Q( si) ¿ ln Pξ (s i) [nat] (1.2.6)
Међутим, у већини радова из теорије информација усваја се бинарна (тј. двојна) основа
логаритма, па се јединица за меру количине информација назива „shannon“ у част
Clauda Shannona:
1 1
Q( si) ¿ log2 P (s i) = ld P (s i) [shannon] (1.2.7)
Када је извор информација стохастички процес са свега два дискретна стања и када су
1
оба стања једнако вероватна, тј. Pξ (si ) = онда једначина (1.2.7) постаје:
2
Према томе 1 shannon је количина информације коју садрђи порука о догађају који има
два могућа стања, уз услов да су оба стања једнако вероватна.
5
1.3 Дискретни извори без меморије
Када се на излазу извора појави неки симбол si, онда тај догађај носи количину
информација:
1
Q( si) = ld P (s i) [Sh] (1.3.1)
На пример, ако посматрамо симбол који се врло ретко појављује и поред тога што
такав симбол носи велику количину информација, његов допринос статистичкој
средњој вредности количине информација неће бити значајан.
6
ово је израз који у Теорији информација означава ентропију извора као мерило
просечне неизвесности о појављивању неког симбола са листе S посматраног извора
при чему величина ентропије нумерички означава просечни број сханнона по једном
симболу извора.
1
P(si ) = q , i = 1,2, … , q
7
1 1
H(s) = α ld α +(1−α )ld (1−α )
Sh
Ф(S) = H(s)v(s) [ s ]
где је v(s) брзина генерисања симбола извора, односно број симбола у јединици
времена.
8
1.5 Дискретни извори са меморијом
На пример, ако памти “к” претходних симбола, онда такав извор називамо
Марковљевим извором к-тог реда.
Извор без меморије се може сматрати специјалним случајем, тј. Марковљевим извором
за који је к=0.
Посматрајмо ергодични Марковљев извор к-тог реда који је задат листом симбола:
k S = s1 , s2, … , sq
9
И одговарајућим условним вероватноћама:
1
Q¿/ s j 1, s j 2 , … , s jk ) = ld P (s i /s j 1 , s j 2 , … , s jk )
Просечна количина информација коју доноси појављивање било којег симбола док се
налази у одређеном стању ( s j 1, s j 2 , … , s jк ) може се одредити усредњавањем претходног
израза по свим могућим симболима извора:
q
Она означава средњи број сханнона по једном симболу извора док се извор налази у
одређеном стању.
Да би смо одредили средњи број сханнона по једном симболу извора, без обзира у ком
стању се извор налази, потребно је одредити средњу вредност парцијалне ентропије
преко свих могућих стања извора.
2. Комуникациони канали
Пренос информација подразумева или њихово преношење из једне тачке у другу или
њихово преношење кроз време.
10
Све присутни шумови на каналима преноса могу деловати на један од следећих
начина:
- У условима изузетно високог шума није уопште могуће обавити поуздан пренос
порука.
- Ниво шума је такав да је могуће пренети поруке са прихватљивим нивоом
грешака у преносу.
- Могуће је пренети поруке са вероватноћом грешке која се може учинити по
жељи малом применом кодова за исправљање грешака.
Основна идеја заштитног кодовања је додавање редундансе у кодиране поруке,
тако даи поред грешака у преносу преостаје довољно непромењених
информација у кодованим порукама на основу којих се може реконструисати
послата порукаса задатим нивоом грешке реконструкције.
Комуникациони канал, или краће канал, репрезентује све што се може догодити са
поруком у току њеног преноса од предајника до пријемника (Слика 2).
2.1 Трансинформација
Посматрајмо канал који је приказан на следећој слици (2.1), на улазу у канал налази се
отпремни случајни процес {Х}, односно дискретни извор информација без меморије,
који у посматрани канал шаље симболе са отпремне Х листе (Х = х 1, х 2 , … , х m).
11
Слика (2.1): Статистички модел дискретног преносног канала без меморије
Пошто пријем једног симбола није довољно поу дан индицатор, а објективнију
процену преносног канала, неопходно је одредити статистичку средњу вредност
апостериорне ентропије усредњавањем претходног израза по целој пријемној Y листи,
чиме добијамо:
n n m
1
H(X/Y) = ∑ Р (У j ) H(X/У j) =∑ ∑ Р (x i /У j )log 2 P (x /У ) (2.1.3)
j=1 j=1 i=1 i j
12
Ова разлика средњих вредности априорне и апостериорне неизвесности о отпремном
случајном процесу {X}, са аспекта корисника информација на пријемној страни,
упућује на закључак да је преносом симбола кроз канал пренесена и одређена количина
информација о отпремном случајном процесу {X}.
Теорија информација, коју је развио Клод Шенон, дефинише појам капацитета канала
и пружа математички модел помоћу којег се он може израчунати.
13
Кључни резултат каже да је капацитет канала, дат максимумом међусобне
информације између улаза и излаза канала, при чему је максимизација у односу на
дистрибуцију улаза.
где је:
Sh
C = v(X;Y) max[I(X;Y)] [ s ] (2.3.1)
14
Из једначине (2.3.1) следи да капацитет канала који се изражава у Шенонима у
секунди, зависи како од статичких (максимална трансинформација max[I(X;Y)] ), тако
и од детерминистичких особина канала, тј. граничне учестаности пропусног опсега
канала f g .
Један такав случај представља комуникациони канал са шумом чији је модел приказан
на следећој слици:
Ово је канал саједним улазом и једним излазом, односно канал са једном предајном иједном
пријемном антеном, те је уобичајено да се у том смислу у теорији телекомуникација означава
и као SISO канал, независно од његових других карактеристика.
y = hx + n (2.4.1)
15
Ако претпоставимо да су све стварне сметње и шумови у каналу „представљени“ у
виду случајног шума n = {N}, при преносу кроз такав канал не долази до губитака
информација, па са становишта идеалног посматрача који види здружену (Х,У) листу,
а не види N листу, имајући у виду једначину (2.4.1) мора постојати једнакост између
здружене ентропије отпремних процеса Н(Х,N) и просечне примљене информације
која је једнака здруженој ентропији Н(Х,У), тј:
Може се показати, да максималну ентропију при ограниченој средњој снази има онај
извор информација, обележићемо га са ѕ = {Ѕ}, који се понаша као нормални процес,
2
чија је варијанса σ = коначна и средња вредност тј, процес који ћемо у складу
са стандардом нотификацијом означити као .
(2.4.6)
16
Да би смо израчунали max I(X;Y) у једначини (2.4.5) претпоставићемо да случајни
процеси {Х} и {N} имају нормалну расподелу тренутних вредности, да су њихове
средње вредности једнаке нули, и да су њихове средње снаге σ 2х и σ 2n коначне тј.
представићемо и .
(2.4.7)
И варијансе:
(2.4.8)
Односно:
σ у = ¿ h∨¿ σ x ¿ + σ n ≤ ∞
2 2 2 2
(2.4.9)
Ако се сада вратимо на израз (2.4.5), ина десној страни уведемо одговарајуће изразе за
ентропију нормалних случајних процеса y = {Y} и n = {N}, добијамо:
(2.4.10)
Ако у овај израз сменимо једначину (2.4.8) и (2.4.8) добијамо израз за максималну
трансинформацију у континуалном каналу:
(2.4.11)
(2.4.12)
17
(2.4.13)
тј.
(2.4.14)
Што је тражени израз за капацитет дискретног канала, под условом да важе учињене
претпотавке о карактеру сигнала и шума и уз услов да је h детерминистичке приороде
и познато на оба краја канала.
(2.4.15)
Где је Е(∙) оператор очекивања, и односи се на импулсни одзив канала, тј. канални
коефицијент ¿ h∨¿2 ¿ .
Поред свега горе наведеног, вреди напоменути да изрази за капацитет (2.4.14) и (2.4.15)
имају форму која је типична у телекомуникацијама: log 2 (1+SNR) – логаритам са
основом два од израза који представља збир јединице и односа сигнал-шум.
Као што је илустровано на следећој слици (2.4.2), за мале вредности односа сигнал-
шум капацитет канала је приближно линеарна функција од SNR, док за веће вредности
односа сигнал-шум важи апроксимација :log 2 (1+SNR)≈ :log 2 (SNR), односно капацитет
канала је приближно логаритамска функција од SNR.
Наиме, повећање предајне снаге има за последицу повећање односа сигнал-шум, што
последично омогућава одговарајуће повећање брзине протока, у претпоставку да је
брзина протока више условљена снагом него преносним опсегом.
18
Слика (2.4.2): Капацитет канала у функцији односа сигнал-шум
SNR = σ 2x E ¿ ¿ (2.4.16)
19
Интерференција није увек независна од улазног сигнала x и импулсног одзива канала h
.
y = hx + v + n (2.5.1)
C≥ E ¿ (2.5.3)
20
где је σ 2v ( h ,u ) = Е(¿ v∨¿2∨¿ H =h , U =u ¿ ¿ ) условна варијанса интерференције.
Доња гранична вредност за капацитет канала у изразу (2.5.3) одговара случају када се
нтерференција третира као додатни извор шума, што не мора бити оптимално са
аспекта теорије информација.
Резултати капацитета узимају у обзир дискретне канале без меморије, који се разликују
од практичних континуалних бежичних канала.
Међутим, ширина опсега В може се поделити у уске подканале, који су у основи без
меморије ако је време трајања симбола много дуже од кашњења у каналу.
21
Закључак
Зависи од различитих фактора као што су: ширина опсега, број канала, ниво шума
интерференција...
Узимајући у обзир све ове факторе, важно је прецизно проценити капацитет канала за
пренос података како би се осигурао ефикасан и пусти капацитет.
22
Литература
1. https://drive.google.com/file/d/1jRh6focFZTWND_FYJPn9Hmt210whxFMt/view?
usp=drive_web
2. https://drive.google.com/file/d/1TGAyZQWR8cxZr9bLLoc0UmTw937YTJzK/view?
usp=drive_webв
3. https://drive.google.com/file/d/1_Se1au6aJEFlx6AYjy4K46abfSPj_iDG/view?
usp=drive_web
4. https://drive.google.com/file/d/1j8Tqc6HVTAv4PYuMRm34UQWcTdFzeCDd/view?
usp=drive_web
23