Download as pdf or txt
Download as pdf or txt
You are on page 1of 12

Rozdział

Metody badania źródeł informacji

Zbigniew OMIOTEK
Wyższa Szkoła Zarządzania i Administracji w Zamościu,
Katedra Informatyki i Inżynierii Wiedzy
zomiotek@wszia.edu.pl
Franciszek GRABOWSKI
Politechnika Rzeszowska,
Zakład Systemów Rozproszonych
fgrab@prz.rzeszow.pl

Streszczenie
System transmisji sieciowej jest złożoną strukturą hierarchiczną, w której
jedną z kluczowych ról odgrywa warstwa najwyższa, czyli źródło
informacji. Dlatego ważna jest możliwość ilościowej oceny informacji
(mowy, tekstu, obrazu) generowanej przez źródło. W rozdziale
przybliżono metody badania zależności występujących w tekstach.
Zaprezentowano również wyniki badań obrazów oraz ilościowe kryterium
różnicowania obrazów pod względem stopnia złożoności.

1. Wprowadzenie
Wśród pięciu zmysłów, jakimi natura obdarzyła człowieka, wzrok i słuch są tymi,
którym współczesny postęp w dziedzinie telekomunikacji nadał rangę szczególną.
Możliwy jest bowiem przekaz bodźców wzrokowych i słuchowych na odległość.
Celem takiego przekazu jest transmisja informacji od źródła do odbiorcy. Z tego
punku widzenia niezwykle istotną kwestią staje się poznanie istoty źródła informacji,
a w szczególności możliwość stwierdzenia w sposób ilościowy, czy sygnał
generowany przez źródło (np. mowa człowieka lub obraz) zawiera informację, czy też
nie. Można również zadać pytanie, czy w wyniku analizy matematycznej można
zaliczyć badany sygnał do pewnej klasy sygnałów zawierających informację istotną
z punktu widzenia percepcji przez człowieka? Uzasadnione wydaje się przyjęcie tezy,
że cechą informacji jest występowanie zależności (korelacji) krótko
i długoterminowych. Zatem, ogólnie można założyć, że badanie występowania
korelacji powinno dać odpowiedź na wcześniej postawione pytanie.
2 Z. Omiotek, F. Grabowski

2. Języki naturalne jako źródła zależności długoterminowych


Okazuje się, że sygnały wykazujące obecność zależności długoterminowych
charakteryzują się również szumem typu 1/f. Występowanie takiego szumu wykryto
podczas obserwacji wielu zjawisk w otaczającym nas świecie (jasność gwiazd, ruch
uliczny, itp.). Szum 1/f tworzą sygnały losowe posiadające widmo mocy zmieniające
się zgodnie z odwrotnym prawem potęgowym ( P ( f ) ≈ 1 / f α , gdzie α ≈ 1 ) [1]. Już
w latach 70-tych zaobserwowano, że widmo mocy zbliżone do szumu 1/f
charakteryzuje sygnał dźwięku odpowiadający muzyce oraz mowie i to zarówno
w odniesieniu do intensywności, jak i wysokości tonu [2]. Muzyka jest
reprezentowana (kodowana) za pomocą nut, natomiast mowa za pomocą tekstu.
Dlatego badanie tekstów może przybliżyć zależności występujące podczas
przekazywania informacji za pomocą języka naturalnego. Wykrycie w tekstach szumu
1/f zapoczątkowało szereg badań, których celem była matematyczna i statystyczna
analiza tekstów. Badania koncentrowały się na częstości występowania jednostek
danego języka (np. słów) oraz rozkładzie ich długości (np. zdań). Znane są również
badania dotyczące entropii oraz prawdopodobieństwa warunkowego przejścia od
jednej litery do litery sąsiadującej z nią [3, 4, 5]. Szum 1/f charakteryzujący teksty nie
może być jednak zidentyfikowany za pomocą widma mocy, ponieważ widma mocy
nie można zdefiniować dla ciągów znaków. Podobnie, dla ciągów znaków, nie można
bezpośrednio zastosować funkcji korelacji, która jest odwrotną transformatą Fouriera
widma mocy (funkcja korelacji jest natomiast stosowana dla ciągów liczb). W takiej
sytuacji naturalną alternatywą funkcji korelacji dla ciągów znaków staje się
informacja wzajemna (ang. Mutual Information). Znanych jest wiele badań
dotyczących ciągów, w których, w rozmaity sposób zastosowano informację
wzajemną. Na przykład, Chaitin [6] zastosował podział badanego systemu i obliczył
informację wzajemną pomiędzy poszczególnymi jego składowymi. Następnie wartość
maksymalna informacji wzajemnej dla wszystkich możliwych składowych stała się
podstawą do matematycznej definicji pojęć „życia” i „organizacji”. Z kolei Shaw [7]
i Grassberger [8], wykorzystali informację wzajemną pomiędzy dwoma jednostronnie
ograniczonymi blokami w ciągu do zdefiniowania pojęcia „złożoności”. Wymienione
wyżej przykładowe zastosowania informacji wzajemnej prowadzą do pojedynczych
wartości charakteryzujących badane ciągi, ale znane są również badania, w których
wykorzystano informację wzajemną jako funkcję odległości pomiędzy elementami
ciągu [9].

3. Metody badania zależności występujących w tekstach


3.1. Funkcja korelacji
Rozważmy możliwość zastosowania funkcji korelacji do zbadania zależności
występujących w tekście. Niech dany będzie ciąg liczb { xi } (i = 1, 2, ..., N ) , gdzie
wartość dla danej pozycji odpowiada stanowi zmiennej xi ∈ { aα } (α = 1, 2, ..., M ) .
Metody badania źródeł informacji 3

Jeżeli prawdopodobieństwo łączne tego, że i-ta pozycja ma wartość aα oraz pozycja


j = i + d ma wartość aβ wynosi Pαβ (d ) = P ( xi = aα , x j = aβ ) , to funkcja korelacji
jest wyrażona następująco:
2
 
Γ(d ) ≡ ∑∑ aα aβ Pαβ (d ) −  ∑ aα Pα  (1)
α β  α 
Przykład zastosowania funkcji korelacji jest zawarty w pozycji [9]. Wykorzystano tam
inauguracyjne przemówienie Kennediego, którego tekst zawierał 7391 liter. Tekst
został wstępnie przygotowany do analizy w ten sposób, że litery zostały losowo
mapowane na liczby z zakresu 2÷27, białe znaki zostały zamienione na liczbę 0,
a znaki interpunkcyjne na liczbę 1. Na rys. 1. w skali log-log wykreślono wartości
bezwzględne funkcji korelacji Γ(d ) dla 10-ciu różnych losowych przekształceń.

Rys. 1. Wartości bezwzględne funkcji korelacji dla ciągów losowych utworzonych na


podstawie tekstu przemówienia Kennediego [9]

Na powyższym rysunku widać wyraźnie, że bez względu na transformację funkcje


korelacji zmieniają się zależnie od zakresu odległości. Takie zachowanie funkcji
korelacji zostało czytelnie przedstawione w ramce znajdującej się w prawym górnym
rogu rysunku. Została tam narysowana krzywa będąca średnią wszystkich funkcji
Γ(d ) , do której następnie dopasowano linię prostą dla odległości d zawartych
w przedziale 1÷15. Wykreślona prosta opada z nachyleniem –0,93, co wskazuje, że
w zakresie odległości d występują silne zależności między literami.
4 Z. Omiotek, F. Grabowski

3.2. Funkcja informacji wzajemnej


Funkcja korelacji jest stosowana dla ciągów liczbowych, natomiast dla ciągów
znakowych wykorzystywana jest funkcja informacji wzajemnej. Rozważmy zatem
sekwencje znaków, gdzie stany zmiennych {aα } nie są liczbami. Funkcja informacji
wzajemnej między dwoma pozycjami w ciągu może być zdefiniowana następująco:
M M
Pαβ (d )
M (d ) ≡ ∑∑ Pαβ (d ) log = 2 H [1] − H [ 2 ] (d )
[1]
2 (2)
α β Pα Pβ

gdzie: Pαβ (d ) jest definiowane tak, jak w równaniu (1);


Pα jest gęstością prawdopodobieństwa dla symbolu aα ;
H [1] jest entropią dla pojedynczej pozycji w ciągu;
H [ 2] (d ) jest entropią dla połączonego bloku utworzonego z dwóch pozycji
znajdujących się w odległości d.
Podobnie można zdefiniować informację wzajemną pomiędzy dwoma blokami
o długości L, tj. blokami zawierającymi L pozycji, oddzielonymi odległością
wynoszącą d pozycji. Prawdopodobieństwa Pα są wówczas prawdopodobieństwami
bloków o długości L, a Pαβ (d ) są łącznymi prawdopodobieństwami dla dwóch
bloków o długości L. Funkcję informacji wzajemnej dla dwóch bloków o długości L
można zatem zdefiniować następująco:
ML ML
Pαβ (d )
M (d ) ∑∑ Pαβ (d ) log
[ L]
≡ (3)
α β Pα Pβ

Powyższa zależność definiuje informację wzajemną między dwoma blokami


dwupozycyjnymi ( M (d )[ 2 ] ), trzypozycyjnymi ( M (d )[3] ), itd.
Funkcja informacji wzajemnej pozwala mierzyć zależności między znakami
występującymi na dwóch pozycjach w ciągu. Jeżeli te znaki są niezależne, to
informacja wzajemna między nimi wynosi zero. Jeżeli są one silnie zależne,
informacja wzajemna pomiędzy nimi jest duża. Występowanie szumu typu 1/f, a tym
samym zależności długoterminowych dla danego ciągu znaków, można sprawdzić
badając, czy funkcja informacji wzajemnej M (d ) dla tego ciągu ma postać odwrotnej
funkcji potęgowej. Jeżeli tak, należy ekstrapolować wykładnik M (d ) do wykładnika
odpowiadającego funkcji Γ(d ) i sprawdzić, czy odpowiada on widmu mocy typu 1/f.
W przypadku ciągów binarnych oznacza to, że dla widma mocy typu 1/f wymagana
jest funkcja informacji wzajemnej postaci
1
M (d ) ≈ 2 (1− β )
(0 < β < 1) (4)
d
Metody badania źródeł informacji 5

Na rys. 2. zaprezentowano przebieg trzech funkcji informacji wzajemnej dla tekstu


przemówienia Kennediego. Pierwsza krzywa ( M (d ) ) odpowiada ciągowi typów
[1]

liter, zawierającemu 4 znaki zależne od tego, czy oryginalna litera była samogłoską,
spółgłoską, spacją, czy znakiem interpunkcyjnym. Druga krzywa odpowiada funkcji
M (d ) dla ciągu identycznego, jak powyższy. Natomiast trzecia krzywa ( M (d ) )
[2] [1]

odpowiada ciągowi liter zawierającemu 28 znaków.

Rys. 2. Funkcja informacji wzajemnej dla ciągów otrzymanych z przemówienia Kennediego.


× – ciąg typów liter M (d ) – ciąg typów liter M (d )
[1] [2]
(4 znaki), (4 znaki),
– ciąg liter M (d )
[1]
(28 znaków) [9]

Obserwując przebieg krzywych M (d ) widać, iż na krótszych odległościach opadają


one zgodnie z odwrotnym prawem potęgowym, z wykładnikiem równym ok. 3.
Zatem, funkcje nie prowadzą w tych przypadkach do szumu typu 1/f, nie mniej jednak
wskazują na przynależność badanych ciągów znaków do pewnej wspólnej klasy
źródeł informacji. Takie zachowanie funkcji informacji wzajemnej potwierdzają
również, zaprezentowane w pozycji [9], wyniki analizy innych tekstów,
charakteryzujących się większą długością, niż przemówienie Kennediego.
Wspomniane teksty to: artykuły serwisu informacyjnego Associated Press, Biblia
w języku niemieckim, tekst sztuki Szekspira Hamlet oraz zbiór 11-tu innych sztuk
tego autora.

4. Ocena stopnia złożoności obrazów


W wielu dziedzinach nauki istnieje potrzeba oceny stopnia złożoności analizowanych
obrazów. Narzędziem stosowanym do oceny tej złożoności jest analiza fraktalna, która
dostarcza miary ilościowej w postaci wymiaru fraktalnego.
6 Z. Omiotek, F. Grabowski

Zakres wykorzystania wymiaru fraktalnego jest dość szeroki i obejmuje, m. in. analizę
i interpretację obrazów medycznych (sieć naczyń krwionośnych siatkówki oka,
nowotwory tkanki nabłonkowej, itp.), analizę i rozpoznawanie skupisk zieleni (np.
drzew), zmienności gatunkowej roślin, linii brzegowych, a nawet zjawisk
atmosferycznych. Wymiar fraktalny charakteryzuje stopień złożoności obiektów
wykorzystując ocenę tego, jak szybko wzrastają długość, powierzchnia czy objętość,
jeśli pomiar dokonywany jest z coraz większą dokładnością. W przypadku obiektów
fraktalnych wykorzystana jest zasada, że dwie wielkości – długość, powierzchnia czy
objętość z jednej strony, a stopień dokładności z drugiej – nie zmieniają się w sposób
dowolny, lecz są związane prawem potęgowym o postaci y ≈ x d , które pozwala
wyznaczyć jedną wartość na podstawie drugiej. Istnieje wiele estymatorów wymiaru
fraktalnego, z których najwięcej zastosowań mają wymiar pudełkowy oraz estymator
Fouriera. Historia wymiaru fraktalnego sięga pracy Hausdorffa z 1918 r. Jakkolwiek
definicja tego, co później zostało nazwane wymiarem Hausdorffa, nie jest przydatna
w praktyce, ma jednak duże znaczenie teoretyczne i wykazuje istotny związek
z wymiarem pudełkowym.

5. Wybrane metody wyznaczania wymiaru fraktalnego


5.1. Metoda pudełkowa
W celu obliczenia wymiaru pudełkowego badany obraz należy umieścić na regularnej
siatce składającej się z elementów o długości boków równej δ , a następnie policzyć
ile elementów siatki (pudełek) pokrywa obraz. Liczba, którą otrzymamy ( N (δ ) ),
będzie zależna od rozmiaru elementów siatki. W dalszych iteracjach należy stopniowo
zmniejszać wartość δ i określać odpowiednie wartości N (δ ) . Istota określenia
wymiaru pudełkowego polega na obserwacji, jak zmienia się N (δ ) przy zmianie δ
[10].
Dla obrazów występujących w naturze liczba elementów występujących w kolejnych
iteracjach nie jest stała, dlatego wymiar pudełkowy określa się jako wartość graniczną,
gdzie długość pudełka zmierza do zera. Zakładając, że N (δ ) jest liczbą pudełek
o długości boku δ pokrywających obraz, wymiar pudełkowy takiego obrazu jest
zdefiniowany następująco:
log( N (δ ))
Db = lim (5)
δ → 0 log (1 / δ )

przy założeniu, że granica istnieje. Praktycznie, wymiar pudełkowy określa się w ten
sposób, że rysujemy wykres log( N (δ )) w funkcji log(1 / δ ) i aproksymujemy go linią
prostą. Nachylenie otrzymanej prostej jest wymiarem pudełkowym. Na rys. 3
przedstawiono metodę obliczania wymiaru pudełkowego dla trzech wielkości
elementów siatki. Dane wykorzystane do sporządzenia wykresu z rys. 3 zamieszczono
w tab. 1.
Metody badania źródeł informacji 7

Tabela 1. Obliczanie wymiaru pudełkowego


δ N (δ ) log(1 / δ ) log( N (δ )) Db
0,2500 8 0,6021 0,9031
0,1667 19 0,7781 1,2787 1,798
0,0833 59 1,0793 1,7708

Rys. 3. Ilustracja metody obliczania wymiaru pudełkowego dla danych z tabeli 1

5.2. Metoda Fouriera


Niech funkcja VH (t ) będzie liniową funkcją ruchu Browna lub ułamkowego ruchu
Browna z zerową wartością średnią przyrostów Gaussa oraz wariancją

(
E [VH (t + δ ) − VH (t )] ≈ δ
2
) 2H
(6)

gdzie H ∈ (0, 1) .
8 Z. Omiotek, F. Grabowski

Parametr H jest współczynnikiem Hursta ruchu Browna i jak zostało wykazane przez
Pentlanda [11] jest on bezpośrednio związany z wymiarem fraktalnym DF funkcji
VH (t ) zależnością

DF = E + 1 − H (7)
gdzie E jest wymiarem topologicznym. W pozycji [11] wykazano również, że VH (t )
ma widmo Fouriera o mocy FH ( f ) takie, że

FH ( f ) ≈ f − β (8)
oraz H jest związane z parametrem β zależnością
β = 2H + 1 (9)
Ponieważ każda poprzeczna sekcja dwuwymiarowej fraktalnej powierzchni Browna
VH ( x, y ) jest liniową funkcją ruchu Browna z identycznym H, możemy zapisać

( 2
)
E [VH ( x + δ cos γ , y + δ sin γ ) − VH (x, y )] ≈ δ
2H
(10)

dla niezależnych kątów λ . Funkcję, która wypełnia ten warunek nazywamy


dwuwymiarowym ułamkowym ruchem Browna. W pozycji [12] Voss wykazał, że taki
ruch posiada dwuwymiarowe widmo mocy o powierzchni opisanej zależnością
FH ( f ,θ ) ≈ f − β (11)
gdzie
β = 2H + 2 (12)
Nachylenie widma obrazu β możemy wykorzystać do estymacji wymiaru fraktalnego
D stosując zależność
β
D =4− (13)
2
gdzie 2 ≤ β ≤ 4 . W przypadku małego samopodobieństwa badanego obrazu,
estymacja wymiaru fraktalnego za pomocą metody Fouriera jest dokładniejsza, niż
estymacja za pomocą wymiaru pudełkowego [13].

6. Badanie obrazów metodą pudełkową


Większość obrazów obserwowanych w naturze (drzewa, twarze, domy, góry, chmury,
itd.) wykazuje własność samopodobieństwa. Wyraża się ona w tym, iż obraz składa
się z kopii (odpowiednio przekształconych) części samego siebie. Poziom
samopodobieństwa charakteryzującego obraz można wyznaczyć wykorzystując
wymiar fraktalny obrazu oraz jego związek ze współczynnikiem Hursta.
Metody badania źródeł informacji 9

Cechy obrazów, istotne w wielu obszarach cyfrowego przetwarzania (kompresja,


analiza i rozpoznawanie), to między innymi: kształt obiektów tworzących obraz, ich
kolor, położenie oraz tekstura tych obiektów [14]. Z kolei najważniejsze atrybuty
tekstur, wykorzystywane do ich klasyfikacji, to: szorstkość (gładkość lub ziarnistość),
kierunkowość, regularność i nieregularność oraz kontrast.
W dalszej części pracy przedstawiono wybrane wyniki analizy fraktalnej obrazów
występujących w naturze (rys. 4), obrazów stanowiących wynik działalności
człowieka oraz przykładowych tekstur (rys. 5) [15]. Wyniki obejmujące pełny zakres
przeprowadzonych badań zaprezentowano w [16]. Badane obrazy, po przekształceniu
do skali szarości, poddawane były analizie za pomocą metody pudełkowej. Do analizy
wykorzystano oprogramowanie Fractal Analysis System [17].
Podczas badań przeprowadzono analizę fraktalną wybranych zdjęć przedstawiających
góry (1-4), drzewa (5-8), linie horyzontu (9-12) oraz wybrane krajobrazy (13-16).
Dane zawarte w tab. 2 pozwalają porównać między sobą 4 wymienione wcześniej
kategorie. Średnia wartość współczynnika Hursta obrazów poddanych analizie jest
największa dla horyzontu (0,6843), nieco mniejsza dla gór (0,6253)
i zdecydowanie najmniejsza dla drzew (0,4676). Taka relacja jest charakterystyczna
również dla wielu innych zdjęć, które zostały zbadane, ale nie zostały zamieszczone
w niniejszym opracowaniu.
Zdjęcia przedstawiające efekty działalności człowieka (17-20) charakteryzują się dużo
mniejszym samopodobieństwem, w porównaniu z obrazami naturalnymi. Średnia
wartość współczynnika Hursta zdjęć 17-20 wyniosła 0,5057. Dla porównania,
uśredniona wartość tego parametru dla gór wyniosła 0,6253, a dla horyzontu 0,6843.
Wcześniejszą tezę potwierdzają wyniki analizy zdjęć satelitarnych aglomeracji
miejskich (21-24), które swą postać zawdzięczają przecież działalności człowieka.
Współczynnik Hursta osiąga w tym przypadku bardzo małe wartości, zmieniające się
od 0,258 do 0,402, a jego wartość średnia dla analizowanych zdjęć wynosi 0,3367.
Obrazy 25-28 przedstawiają przykładowe tekstury o różnym stopniu „szorstkości”.
Ziarnistość powierzchni zmieniała się od stosunkowo drobnej, dla tkaniny (tekstura nr
25), do grubej, charakteryzującej powierzchnię żwirową (tekstura nr 28). Wyniki
analizy wskazują na związek między poziomem ziarnistości, a współczynnikiem
Hursta. Tekstury gładsze charakteryzują się mniejszą, a bardziej ziarniste – większą
wartością tego parametru. Druga kategoria tekstur charakteryzowała się różnym
poziomem „regularności” kształtów występujących na ich powierzchni (29-32).
Większa regularność oraz większy rozmiar obiektów (31 i 32) wiąże się z większą
wartością współczynnika Hursta, w przeciwiństwie do tekstur mniej regularnych,
z drobniejszą fakturą powierzchni (29 i 30).
Analiza fraktalna pozwoliła porównać między sobą obrazy naturalne oraz tekstury pod
kątem występowania samopodobieństwa. Wyniki badań pokazały, iż generalnie,
w przypadku obrazów naturalnych, własność samopodobieństwa występuje i to na
stosunkowo wysokim poziomie (współczynik Hursta znacznie przekracza poziom
0,5). Odwrotnie jest w przypadku tekstur, gdzie nie zaobserwowano wspomnianej
cechy. Dla niemalże wszystkich analizowanych tekstur współczynik Hursta był
znacznie mniejszy od 0,5.
10 Z. Omiotek, F. Grabowski

Tabela 2. Wyniki analizy fraktalnej obrazów z rys. 4


Nr Db H Kategoria Nr Db H Kategoria
1 2,4956 0,5044 9 2,4455 0,5545
2 2,4017 0,5983 10 2,3702 0,6298
Góry Horyzont
3 2,3324 0,6676 11 2,2748 0,7252
4 2,2692 0,7308 12 2,1625 0,8375
5 2,6375 0,3625 13 2,4805 0,5195
6 2,5495 0,4505 14 2,3955 0,6045
Drzewa Krajobraz
7 2,4998 0,5002 16 2,1231 0,8769
8 2,3914 0,6086 16 2,0502 0,9498

1 2 3 4

5 6 7 8

9 10 11 12

13 14 15 16

Rys. 4. Zdjęcia przedstawiające obrazy naturalne (rozmiar org. 800 × 600 pikseli)
Metody badania źródeł informacji 11

Tabela 3. Wyniki analizy fraktalnej obrazów z rys. 5


Nr Db H Kategoria Nr Db H Kategoria
17 2,5086 0,4914 25 2,6368 0,3632
18 2,5058 0,4942 Działalność 26 2,6303 0,3697 Tekstury
19 2,4499 0,5501 człowieka 27 2,6165 0,3835 (szorstkość)
20 2,4280 0,5720 28 2,5510 0,4490
21 2,7420 0,2580 29 2,6792 0,3208
22 2,6950 0,3050 30 2,6222 0,3778 Tekstury
Aglomeracje
23 2,6427 0,3573 31 2,5874 0,4126 (regularność)
24 2,5980 0,4020 32 2,4925 0,5075

17 18 19 20

21 22 23 24

25 26 27 28

29 30 31 32

Rys. 5. Zdjęcia przedstawiające efekt działalności człowieka oraz wybrane tekstury


(rozmiar oryginalny – 512 × 512 pikseli)
12 Z. Omiotek, F. Grabowski

7. Podsumowanie
Zacytowane wyżej wyniki badań plików tekstowych pokazały specyficzne
zachowanie (w pewnym zakresie) funkcji korelacji oraz funkcji informacji wzajemnej.
Wskazuje ono na przynależność badanych ciągów znaków do pewnej wspólnej klasy
źródeł informacji, do której należą wszystkie teksty napisane w językach naturalnych.
Z kolei, w odniesieniu do obrazów, zaprezentowano możliwość ich różnicowania
i klasyfikacji pod kątem wartości wymiaru pudełkowego (lub poziomu
samopodobieństwa) charakteryzującego obraz. Zatem, informacja generowana przez
źródło, niezależnie od tego, czy jest to mowa, tekst, czy obraz, może być
scharakteryzowana w sposób ilościowy.

Literatura
1. Edoardo M.: 1/f noise: a pedagogical review. eprint arXiv:physics/0204033.
2. Voss R., Clarke J.: 1/f Noise in Music and Speech. Nature 258, pp. 317÷318, 1975.
3. Shannon C. E.: Prediction and entropy of printed English. Bell Syst. Techn. Journal,
pp. 50÷64, 1951.
4. Cover T. M., King R. C.: A Convergent Gambling Estimate of the Entropy of English. IEEE
Transactions on Information Theory IT-24(4), pp. 413÷421, 1978.
5. Grassberger P.: Estimating the information content of symbol sequences and efficient codes.
Univ. of Wuppertal preprint, WU-B-87-11, 1987.
6. Chaitin G. J.: Toward a mathematical definition of “life”. The Maximum Entropy Formalism,
Levine and Tribus, eds. MIT Press, 1979.
7. Shaw R.: The Dripping Faucet as a Model Chaotic System. Aerial Press, 1984.
8. Grassberger P.: Towards a quantitative theory of self-organized complexity. Int. J. Theor.
Phys. 25, pp. 907÷938, 1986.
9. Li W.: Mutual information functions of natural language texts. Santa Fe Institute preprint,
SFI-89-008, 1989.
10. Peitgen H.-O., Jürgens H., Saupe D.: Granice chaosu. Fraktale. Cz. 1, Wydawnictwo naukowe
PWN, Warszawa 2002.
11. Pentland A.: Fractal-based description of natural scenes. IEEE Trans. on Pattern Analysis and
Machine Vision, 6:661-674, 1984.
12. Voss R. F.: Random fractal forgeries. In R.A. Earnshaw, editor, Fundamental Algorithms in
Computer Graphics. Springer-Verlag, 1985.
13. Freeborough P. A.: A comparison of fractal texture descriptors.
http://www.bmva.ac.uk/bmvc/1997/papers/002/fractal.html
14. R. Tadeusiewicz, P. Korohoda: Komputerowa analiza i przetwarzanie obrazów.
Wydawnictwo Fundacji Postępu Telekomunikacji, Kraków 1997. Publikacja dostępna online:
http://winntbg.bg.agh.edu.pl/skrypty2/0098/default.htm
15. The USC-SIPI Image Database. http://sipi.usc.edu/database/
16. Wyniki fraktalnej analizy obrazów. http://zo.wszia.edu.pl/badania/analiza_fraktalna.htm
17. Fractal analysis system. http://cse.naro.affrc.go.jp/sasaki/fractal/fractal-e.html

You might also like