Professional Documents
Culture Documents
Entropia Informacji Omiotek
Entropia Informacji Omiotek
Zbigniew OMIOTEK
Wyższa Szkoła Zarządzania i Administracji w Zamościu,
Katedra Informatyki i Inżynierii Wiedzy
zomiotek@wszia.edu.pl
Franciszek GRABOWSKI
Politechnika Rzeszowska,
Zakład Systemów Rozproszonych
fgrab@prz.rzeszow.pl
Streszczenie
System transmisji sieciowej jest złożoną strukturą hierarchiczną, w której
jedną z kluczowych ról odgrywa warstwa najwyższa, czyli źródło
informacji. Dlatego ważna jest możliwość ilościowej oceny informacji
(mowy, tekstu, obrazu) generowanej przez źródło. W rozdziale
przybliżono metody badania zależności występujących w tekstach.
Zaprezentowano również wyniki badań obrazów oraz ilościowe kryterium
różnicowania obrazów pod względem stopnia złożoności.
1. Wprowadzenie
Wśród pięciu zmysłów, jakimi natura obdarzyła człowieka, wzrok i słuch są tymi,
którym współczesny postęp w dziedzinie telekomunikacji nadał rangę szczególną.
Możliwy jest bowiem przekaz bodźców wzrokowych i słuchowych na odległość.
Celem takiego przekazu jest transmisja informacji od źródła do odbiorcy. Z tego
punku widzenia niezwykle istotną kwestią staje się poznanie istoty źródła informacji,
a w szczególności możliwość stwierdzenia w sposób ilościowy, czy sygnał
generowany przez źródło (np. mowa człowieka lub obraz) zawiera informację, czy też
nie. Można również zadać pytanie, czy w wyniku analizy matematycznej można
zaliczyć badany sygnał do pewnej klasy sygnałów zawierających informację istotną
z punktu widzenia percepcji przez człowieka? Uzasadnione wydaje się przyjęcie tezy,
że cechą informacji jest występowanie zależności (korelacji) krótko
i długoterminowych. Zatem, ogólnie można założyć, że badanie występowania
korelacji powinno dać odpowiedź na wcześniej postawione pytanie.
2 Z. Omiotek, F. Grabowski
liter, zawierającemu 4 znaki zależne od tego, czy oryginalna litera była samogłoską,
spółgłoską, spacją, czy znakiem interpunkcyjnym. Druga krzywa odpowiada funkcji
M (d ) dla ciągu identycznego, jak powyższy. Natomiast trzecia krzywa ( M (d ) )
[2] [1]
Zakres wykorzystania wymiaru fraktalnego jest dość szeroki i obejmuje, m. in. analizę
i interpretację obrazów medycznych (sieć naczyń krwionośnych siatkówki oka,
nowotwory tkanki nabłonkowej, itp.), analizę i rozpoznawanie skupisk zieleni (np.
drzew), zmienności gatunkowej roślin, linii brzegowych, a nawet zjawisk
atmosferycznych. Wymiar fraktalny charakteryzuje stopień złożoności obiektów
wykorzystując ocenę tego, jak szybko wzrastają długość, powierzchnia czy objętość,
jeśli pomiar dokonywany jest z coraz większą dokładnością. W przypadku obiektów
fraktalnych wykorzystana jest zasada, że dwie wielkości – długość, powierzchnia czy
objętość z jednej strony, a stopień dokładności z drugiej – nie zmieniają się w sposób
dowolny, lecz są związane prawem potęgowym o postaci y ≈ x d , które pozwala
wyznaczyć jedną wartość na podstawie drugiej. Istnieje wiele estymatorów wymiaru
fraktalnego, z których najwięcej zastosowań mają wymiar pudełkowy oraz estymator
Fouriera. Historia wymiaru fraktalnego sięga pracy Hausdorffa z 1918 r. Jakkolwiek
definicja tego, co później zostało nazwane wymiarem Hausdorffa, nie jest przydatna
w praktyce, ma jednak duże znaczenie teoretyczne i wykazuje istotny związek
z wymiarem pudełkowym.
przy założeniu, że granica istnieje. Praktycznie, wymiar pudełkowy określa się w ten
sposób, że rysujemy wykres log( N (δ )) w funkcji log(1 / δ ) i aproksymujemy go linią
prostą. Nachylenie otrzymanej prostej jest wymiarem pudełkowym. Na rys. 3
przedstawiono metodę obliczania wymiaru pudełkowego dla trzech wielkości
elementów siatki. Dane wykorzystane do sporządzenia wykresu z rys. 3 zamieszczono
w tab. 1.
Metody badania źródeł informacji 7
(
E [VH (t + δ ) − VH (t )] ≈ δ
2
) 2H
(6)
gdzie H ∈ (0, 1) .
8 Z. Omiotek, F. Grabowski
Parametr H jest współczynnikiem Hursta ruchu Browna i jak zostało wykazane przez
Pentlanda [11] jest on bezpośrednio związany z wymiarem fraktalnym DF funkcji
VH (t ) zależnością
DF = E + 1 − H (7)
gdzie E jest wymiarem topologicznym. W pozycji [11] wykazano również, że VH (t )
ma widmo Fouriera o mocy FH ( f ) takie, że
FH ( f ) ≈ f − β (8)
oraz H jest związane z parametrem β zależnością
β = 2H + 1 (9)
Ponieważ każda poprzeczna sekcja dwuwymiarowej fraktalnej powierzchni Browna
VH ( x, y ) jest liniową funkcją ruchu Browna z identycznym H, możemy zapisać
( 2
)
E [VH ( x + δ cos γ , y + δ sin γ ) − VH (x, y )] ≈ δ
2H
(10)
1 2 3 4
5 6 7 8
9 10 11 12
13 14 15 16
Rys. 4. Zdjęcia przedstawiające obrazy naturalne (rozmiar org. 800 × 600 pikseli)
Metody badania źródeł informacji 11
17 18 19 20
21 22 23 24
25 26 27 28
29 30 31 32
7. Podsumowanie
Zacytowane wyżej wyniki badań plików tekstowych pokazały specyficzne
zachowanie (w pewnym zakresie) funkcji korelacji oraz funkcji informacji wzajemnej.
Wskazuje ono na przynależność badanych ciągów znaków do pewnej wspólnej klasy
źródeł informacji, do której należą wszystkie teksty napisane w językach naturalnych.
Z kolei, w odniesieniu do obrazów, zaprezentowano możliwość ich różnicowania
i klasyfikacji pod kątem wartości wymiaru pudełkowego (lub poziomu
samopodobieństwa) charakteryzującego obraz. Zatem, informacja generowana przez
źródło, niezależnie od tego, czy jest to mowa, tekst, czy obraz, może być
scharakteryzowana w sposób ilościowy.
Literatura
1. Edoardo M.: 1/f noise: a pedagogical review. eprint arXiv:physics/0204033.
2. Voss R., Clarke J.: 1/f Noise in Music and Speech. Nature 258, pp. 317÷318, 1975.
3. Shannon C. E.: Prediction and entropy of printed English. Bell Syst. Techn. Journal,
pp. 50÷64, 1951.
4. Cover T. M., King R. C.: A Convergent Gambling Estimate of the Entropy of English. IEEE
Transactions on Information Theory IT-24(4), pp. 413÷421, 1978.
5. Grassberger P.: Estimating the information content of symbol sequences and efficient codes.
Univ. of Wuppertal preprint, WU-B-87-11, 1987.
6. Chaitin G. J.: Toward a mathematical definition of “life”. The Maximum Entropy Formalism,
Levine and Tribus, eds. MIT Press, 1979.
7. Shaw R.: The Dripping Faucet as a Model Chaotic System. Aerial Press, 1984.
8. Grassberger P.: Towards a quantitative theory of self-organized complexity. Int. J. Theor.
Phys. 25, pp. 907÷938, 1986.
9. Li W.: Mutual information functions of natural language texts. Santa Fe Institute preprint,
SFI-89-008, 1989.
10. Peitgen H.-O., Jürgens H., Saupe D.: Granice chaosu. Fraktale. Cz. 1, Wydawnictwo naukowe
PWN, Warszawa 2002.
11. Pentland A.: Fractal-based description of natural scenes. IEEE Trans. on Pattern Analysis and
Machine Vision, 6:661-674, 1984.
12. Voss R. F.: Random fractal forgeries. In R.A. Earnshaw, editor, Fundamental Algorithms in
Computer Graphics. Springer-Verlag, 1985.
13. Freeborough P. A.: A comparison of fractal texture descriptors.
http://www.bmva.ac.uk/bmvc/1997/papers/002/fractal.html
14. R. Tadeusiewicz, P. Korohoda: Komputerowa analiza i przetwarzanie obrazów.
Wydawnictwo Fundacji Postępu Telekomunikacji, Kraków 1997. Publikacja dostępna online:
http://winntbg.bg.agh.edu.pl/skrypty2/0098/default.htm
15. The USC-SIPI Image Database. http://sipi.usc.edu/database/
16. Wyniki fraktalnej analizy obrazów. http://zo.wszia.edu.pl/badania/analiza_fraktalna.htm
17. Fractal analysis system. http://cse.naro.affrc.go.jp/sasaki/fractal/fractal-e.html