Download as pdf or txt
Download as pdf or txt
You are on page 1of 68

MATERIAŁY BADAWCZE

Seria: Gospodarka wodna i ochrona wód – 24

ISSN 0239-6238

Janusz Żelaziński
Małgorzata Mierkiewicz

Wykorzystanie wielowariantowej
prognozy hydrologicznej w sterowaniu
zbiornikami retencyjnymi

________________________________________________________________________________________________________________________________________________________________

INSTYTUT METEOROLOGII I GOSPODARKI WODNEJ


Warszawa 2009
DANE O AUTORACH
dr Janusz Żelaziński, dr inż. Małgorzata Mierkiewicz
Instytut Meteorologii i Gospodarki Wodnej
01-673 Warszawa, ul. Podleśna 61

Recenzent:
prof. dr hab. inż. Jarosław Napiórkowski

KOMITET REDAKCYJNY WYDAWNICTW IMGW


prof. dr inż. Jan Zieliński – przewodniczący, prof. dr hab. inż. Maciej Maciejewski – z-ca
przewodniczącego, mgr Elżbieta Waśkowska – sekretarz
dr Rafał Bąkowski, mgr inż. Barbara Cygan, prof. dr hab. inż. Jan Dojlido,
doc. dr Alfred Dubicki, doc. dr inż., prof. WSEiZ Marek Gromiec,
dr Andrzej Kruczała, mgr Łukasz Legutko, dr hab., prof. IMGW Halina Lorenc,
inż. Jan Orłowski, prof. dr hab. inż. Maria Ozga-Zielińska, dr inż. Bogdan Ozga-Zieliński,
prof. dr hab. inż. Kazimierz Różdżyński, mgr Jan Sadoń, mgr inż. Edmund Sieinski,
mgr inż. Maria Storożyńska, mgr inż. Janusz Wiśniewski

Redakcja i przygotowanie do druku: Maria Storożyńska

ADRES REDAKCJI: Instytut Meteorologii i Gospodarki Wodnej


01-673 Warszawa, ul. Podleśna 61, tel. 56-94-510 fax 56-94-511
Nakład 150 egz. Druk i oprawa: Drukarnia IMGW

2
Spis treści
1. Konieczność decydowania jako skutek niepewności ........................................ 5
2. Niepewność jako jedno z „praw przyrody” ...................................................... 8
3. Cel pracy .............................................................................................................. 12
4. Ocena możliwości zaspokojenia potrzeb użytkowników prognoz hydrologicz-
nych ....................................................................................................................... 14
4.1. Ogólne wymagania ....................................................................................... 14
4.2. Czas wyprzedzenia prognozy hydrologicznej opartej na wynikach obserwacji
opadu – konieczność wykorzystywania ilościowych prognoz opadu .......... 14
4.3. Krok czasowy dostępnych ilościowych prognoz opadu ............................... 15
4.4. Zróżnicowanie przestrzenne wyników ilościowych prognoz opadów ......... 16
4.5. Potrzeba uwzględnienia niepewności prognoz opadu .................................. 17
5. Niepewność prognoz opadu ................................................................................ 19
5.1. Miary niepewności ........................................................................................ 19
5.2. Wyniki analizy niepewności ilościowych prognoz opadu ............................ 21
6 Wielowariantowe ilościowe prognozy opadów ................................................. 24
6.1. Uwagi wstępne .............................................................................................. 24
6.2. Stochastyczny model prognozy opadów (1) – model Boxa-Jenkinsa .......... 24
6.3. Stochastyczny model opadów (2) – podejście bootstrapowe ....................... 29
6.4. Generowanie opadów ................................................................................... 34
6.5. Podsumowanie .............................................................................................. 36
7. Przetwarzanie wielowariantowej prognozy opadu w wielowariantową
prognozę hydrogramu odpływu .................................................................. 37
8. Wykorzystanie prognozy hydrologicznej sformułowanej w postaci wiązki
przyszłych możliwych realizacji hydrogramu odpływu w sterowaniu
zbiornikami retencyjnymi .................................................................................. 38
8.1. Uwagi wstępne .............................................................................................. 38
8.2. Kryteria w warunkach niepewności .............................................................. 39
8.3. Przeszkoda wymiarowości ............................................................................ 42
8.4. Wykorzystanie wielowariantowej prognozy hydrologicznej w sterowaniu
zbiornikiem retencyjnym podczas powodzi – przykład zbiornika Wióry
na rzece Świślinie ......................................................................................... 44
8.5. Wykorzystanie wielowariantowej prognozy hydrologicznej w sterowaniu
zbiornikiem retencyjnym podczas powodzi – przykład zbiornika Tresna
na rzece Sole ................................................................................................. 50
8.5.1. Wprowadzenie .................................................................................... 50
8.5.2. Sterowanie w okresie tworzenia rezerwy dodatkowej ........................ 51
8.5.3. Sterowanie w okresie szczytu fali ....................................................... 52
8.5.4. Optymalizacja parametru a ................................................................. 53
8.5.5. Symulacja sterowań i jej wyniki ......................................................... 55
8.6. Sterowanie zbiornikiem Sulejów na Pilicy w okresie suszy ........................ 58
9. Podsumowanie i wnioski ............................................................................. 63
10. Literatura ................................................................................................. 66
Abstract ...................................................................................................................... 68

4
„Jedyną rzeczą pewną jest niepewność”
(Jerzy Kołodziejski)

1. Konieczność decydowania jako skutek


niepewności
Paradoksalne stwierdzenie przytoczone jako motto zostało wypowiedziane
przez Profesora Jerzego Kołodziejskiego podczas dyskutowania scenariuszy
rozwoju społeczno- ekonomicznego kraju i jak sądzimy mogłoby odnosić się
również do wszelkich, operacyjnych i nieoperacyjnych przedsięwzięć gospodar-
ki wodnej. Charakteryzuje ono dobrze główną tezę niniejszej pracy. Jej celem
jest uświadomienie niezbywalnego charakteru niepewności oraz dokonanie
przeglądu pewnych problemów, jakie pojawiają się w gospodarce wodnej
w związku z niepewnością.
W pracach poświęconych problemom decyzyjnym często pojawia się zwrot
„podejmowanie decyzji w warunkach niepewności”. Jest on stosowany przez
autorów tych prac dla odróżnienia zagadnień decyzyjnych, w których niepew-
ność odgrywa istotną rolę od sytuacji, kiedy skutki decyzji są dokładnie znane.
Postaramy się wykazać, że w realnych sytuacjach decyzyjnych, a w szczególno-
ści w gospodarce wodnej, prognoza skutków decyzji jest zazwyczaj niepewna.
Klir (1991) charakteryzuje ten problem następująco: „Problemy realnego świata
rzadko są pozbawione niepewności, czego konsekwencją jest konieczność po-
dejmowania decyzji”. W uzasadnieniu tego przekonania Klir cytuje brytyjskiego
ekonomistę Shackle’a (1961): „W świecie predestynacji decyzje byłyby złudne,
w świecie doskonale przewidywalnym – puste, w świecie pozbawionym natural-
nego porządku – bezsilne. Nasz intuicyjny stosunek do życia implikuje decyzje
nie złudne, nie puste i nie bezsilne. W tym sensie decyzja wykluczająca zarówno
doskonałe przewidywanie, jak i anarchię w naturze musi być zdefiniowana jako
poszukiwanie w obliczu ograniczonej niepewności”. Sens cytowanych wypowie-
dzi można zilustrować przykładem gry w szachy, czyli typowej gry decyzyjnej:
 Predestynacja to sytuacja, gdy niezależnie od postępowania graczy wy-
nik jest przesądzony i udział w grze traci sens.
 Doskonałe przewidywanie, czyli możliwość dokładnej pozbawionej nie-
pewności prognozy, wyników gry też czyni ją bezsensowną, wiadomo
bowiem, kto wygra.

5
 W sytuacji braku reguł (anarchii) najlepiej zabić przeciwnika, co wyklu-
cza przegraną.
W gospodarowaniu wodą niepewność jest szczególnie duża i znane są przy-
padki fatalnych skutków nadmiernej wiary w poprawność przyjmowanych zało-
żeń, scenariuszy rozwoju społeczno-ekonomicznego oraz wszelkich prognoz.
Oto niektóre przykłady.
 W latach siedemdziesiątych przewidywano, że w roku 2000 zapotrzebowa-
nie na wodę w Polsce będzie ok. 40 mld m3 rocznie. Istotnym elementem
w tym zapotrzebowaniu było zapotrzebowanie rolnictwa – wynikało to
z tezy, iż „każdy kłos na wagę złota”, co oznacza nieograniczone zapotrze-
bowanie na żywność. Faktyczne zapotrzebowanie na wodę w roku 2000
wyniosło ok. 7 mld m3 i w 90% były to pobory otwartych systemów chłod-
niczych elektrowni, z których to poborów 90% wody wracało do rzek. Nie
były to tylko „błędy i wypaczenia” socjalizmu, podobne scenariusze trak-
towano bowiem poważnie na całym świecie. Powstawały programy budo-
wy gigantycznych zbiorników retencyjnych, przerzutów wody regulacji
rzek, melioracji rolnych. Systemy melioracji, ukierunkowane na odwodnie-
nia, w znacznym stopniu w Polsce zrealizowano. Skutkiem były ogromne
wydatki, finansowane przez budżet oraz głównie dewastacja środowiska.
Korzyści, o ile w ogóle wystąpiły, okazały się nieistotne – mamy nadpro-
dukcję żywności, a rolnictwo tworzy ok. 2% produktu narodowego brutto
i funkcjonuje dzięki różnym dotacjom. Na znacznych obszarach kraju brak
małych rzek, istnieją tylko rowy melioracyjne pozbawione jakichkolwiek
walorów przyrodniczych. Zniszczenie retencji osuszonych mokradeł skut-
kuje zwiększeniem zagrożeń powodziami i suszą. Tylko mizeria finansowa
uratowała polskiego podatnika przed jeszcze większymi bezsensownymi
wydatkami, a polskie rzeki przed kompletną dewastacją w wyniku realizacji
wszystkich proponowanych inwestycji. Niemniej jednak stworzona wów-
czas presja trwa do dziś. Przykładem może tu być „Program dla Odry
2006”, walka o budowę stopnia Nieszawa na Wiśle oraz „lista indykatyw-
na” inwestycji proponowanych do realizacji przy współfinansowaniu przez
Unię Europejska. Poglądy na cele i środki działania gospodarki wodnej
zmieniły się diametralnie i obecnie najbardziej prawdopodobny scenariusz
to eskalacja wydatków na renaturyzację rzek zniszczonych przez hydro-
techników i meliorantów. Jest to przykład skutków wykorzystania sformu-
łowanej kategorycznie, traktowanej jako pewna prognozy rozwoju społecz-
no-gospodarczego.
 Podczas powodzi w roku 1960, zbiornik Rożnowski na Dunajcu spowodo-
wał zwiększenie maksymalnego przepływu poniżej zbiornika w wyniku de-
terministycznego, tj. nieuwzględniającego niepewności, potraktowania pro-
gnozy dopływu do zbiornika. Historia hydrotechniki notuje więcej takich
przypadków, będących skutkiem potraktowania jako pewnej kategorycznie
sformułowanej, krótkoterminowej prognozy hydrologicznej.

6
 Powódź w dorzeczu Odry w 1997 roku zaskoczyła swoimi rozmiarami.
Prawdopodobieństwo wystąpienia tak wielkiego przepływu w górnej Odrze
oceniono bezpośrednio po tym wydarzeniu na 0,01% (średnia powtarzal-
ność rzędu 10 000 lat). Jest to oczywisty absurd wynikający z nieuzasad-
nionej wiary w stosunkowo niewielkie błędy oszacowań maksymalnych
przepływów o określonym prawdopodobieństwie przewyższenia. Problem
ten był szerzej dyskutowany w pracy Żelazińskiego (2007). Rozmiary po-
wodzi spowodowały m.in., że instrukcje eksploatacyjne zbiorników reten-
cyjnych stały się nieprzydatne, podczas opracowywania tych instrukcji nie
uwzględniono bowiem możliwości pojawienia się tak wielkich fal. W przy-
padku zbiornika Nysa na Nysie Kłodzkiej spowodowało to nieznaczne
zwiększenie przepływów Odry poniżej ujścia Nysy Kłodzkiej w stosunku
do sytuacji bez zbiornika. Szczegółowe dochodzenie wykazało, że nie było
to zaniedbanie ze strony decydentów, lecz wynik stanu wiedzy sprzed po-
wodzi.

Istnieją możliwości ograniczenia szkód związanych z niepewnością. Trzeba


tylko wyzbyć się złudzeń o możliwości osiągnięcia idealnych rozwiązań oraz
nauczyć się racjonalnych zachowań w obliczu niepewności. Niektóre możliwo-
ści takiej racjonalizacji opisano w niniejszej pracy.

7
2. Niepewność jako jedno z „praw przyrody”
Pojęcie niepewności traktujemy intuicyjnie, jako niedostatek informacji po-
trzebnej do rozwiązania problemu. Informacja może być niekompletna, niepre-
cyzyjna, fragmentaryczna, niecałkowicie pewna, niejasna, sprzeczna lub w jaki-
kolwiek inny sposób niedostateczna.
Historia nauki to historia pozyskiwania nowej, pełniejszej i coraz lepiej
opisującej rzeczywistość informacji o otaczającym świecie, a zatem może być
traktowana jako proces ograniczania niepewności. Poglądy na temat możliwości
eliminacji niepewności w wyniku postępu nauki uległy w mijającym stuleciu
istotnej ewolucji. Wywodzące się z osiemnastowiecznych koncepcji mechani-
stycznych przekonania deterministyczne, zgodnie z którymi niepewność jest
wyłącznie wynikiem naszej ignorancji, zostały podważone. Mechanika kwanto-
wa wskazała na chaotyczne i nieprzewidywalne zachowanie się cząstek elemen-
tarnych. Przekonanie, iż chaos jest jedną z właściwości świata mikrocząstek,
z trudem torowało sobie drogę – znane jest powiedzenie Einsteina, iż „Bóg nie
gra w kości”. Eksperymentalne potwierdzenie tez mechaniki kwantowej wyka-
zało, iż Einstein nie miał racji.
Przez wiele lat panowało przekonanie, iż w skali makro świat jest przewi-
dywalny. Powszechnie sądzono, że jeżeli zbudujemy adekwatny model matema-
tyczny oraz określimy warunki początkowe i brzegowe to problem prognozy
stanie się tylko problemem obliczeniowym, który można rozwiązać doskonaląc
metody numeryczne i komputery. Pojawienie się teorii deterministycznego cha-
osu zachwiało tym przekonaniem, aczkolwiek wśród wielu polskich meteorolo-
gów wydaje się ono nadal powszechne... Istotę zjawiska, o którym mówimy,
można określić następująco: złożone, nieliniowe systemy dynamiczne są wpra-
wdzie deterministyczne (tj. mogą być opisane układem deterministycznych rów-
nań różniczkowych zwyczajnych), lecz nieprzewidywalne, co oznacza, iż nie-
możliwe jest dokładne prognozowanie zachowania się takiego systemu w przy-
szłości. Modele globalnego klimatu, modele rozwoju społeczno-ekonomicznego
oraz modele prognoz meteorologicznych są złożone i nieliniowe.
W naukach humanistycznych również pojawiły się poglądy o nieprogno-
zowalności świata. Najdobitniej wyraził to filozof Karl Popper (1996) uzasad-

8
niając swoje indeterministyczne przekonania. Interesujący jest fakt, iż do po-
dobnych poglądów doszli badacze różnych specjalności, wychodząc z odmien-
nych przesłanek i posługując się odmienną metodologią.
Ponieważ skutki bieżących decyzji podejmowanych w gospodarce wodnej
zależą istotnie od przyszłego przebiegu zjawisk hydrometeorologicznych oraz
od przyszłego rozwoju społeczno-ekonomicznego, poprawa jakości dostępnej
aktualnie informacji na temat przyszłości może poprawiać jakość decyzji. Po-
trzeba prognozy jest więc oczywista, czy jednak w świetle przytoczonych wyżej
poglądów, traktujących niepewność jako jedną z podstawowych właściwości
świata, oczekiwanie „dobrej prognozy” jest zasadne?
Tezy o nieprognozowalności nie mogą być traktowane fundamentalistycz-
nie, jako przekonanie o całkowitym chaosie panującym we wszechświecie. Jest
to raczej pragmatyczna konstatacja, iż niepewności, pomimo osiągnięć nauki,
nigdy nie da się całkowicie wyeliminować, a podejmowanie decyzji przy wyko-
rzystaniu najdoskonalszych dostępnych aktualnie i w przyszłości prognoz zaw-
sze będzie związane z ryzykiem błędu. Jednocześnie jednym z paradygmatów
nauki jest konieczność powtarzalnych wyników eksperymentów potwierdzają-
cych naukowe hipotezy, co w oczywisty sposób zakłada możliwość prognozo-
wania ich wyników. Właściwe jest zatem mówienie o ograniczonej prognozo-
walności, nie zaś o jej całkowitym braku. Bezdyskusyjna jest więc konieczność
doskonalenia istniejących i poszukiwania nowych modeli prognostycznych,
mając jednak zawsze świadomość istnienia obecnie i w przyszłości granic pro-
gnozowalności.
Wydaje się, że jedną z podstawowych przyczyn rozczarowania decydentów
i techników efektami wdrażania wyników badań w dziedzinie hydrologii i go-
spodarki wodnej, w tym wyników doskonalenia modeli i procedur prognostycz-
nych, jest niewłaściwe rozumienie niepewności. Ludziom trudno zaakceptować
fakt, iż niepewność jest jedną z podstawowych właściwości świata, podobnie jak
np. zasada zachowania energii, i kontynuując tę analogię, że nadzieja na elimi-
nację niepewności jest podobnie złudna jak nadzieja na zbudowanie perpetuum
mobile. Ponieważ nawet Einstein nie akceptował niepewności jako jednej z za-
sad fizyki, przyczyną oporów nie jest nieuctwo, lecz głęboko zakorzenione
przekonania, zwłaszcza w kręgu cywilizacji europejskiej, gdzie powstał mecha-
nistyczny i deterministyczny model świata. Teza o ograniczonej prognozowal-
ności może stanowić atrakcyjne alibi dla osób i zespołów zajmujących się róż-
nego rodzaju prognozami, w przypadku gdy prognozy okazują się nietrafne, lecz
jest wysoce deprymująca dla menedżerów i polityków usiłujących podejmować
racjonalne decyzje przy wykorzystaniu różnych ekspertyz i prognoz. Powinni
oni jednak zawsze pamiętać, że niepewność istnieje, prognozy ją tylko ograni-
czają, a nie likwidują, że ograniczenie niepewności może poprawić decyzje, lecz
zazwyczaj nie da się tej poprawy osiągnąć traktując prognozy deterministycznie.
W opisanej sytuacji podstawowym błędem jest ocenianie jakości decyzji
a posteriori, gdy wydarzenie (np. powódź) się skończyło, i dostępna jest cała
wiedza o jego przebiegu i skutkach. Oczywiście oceny takie były i będą wyko-

9
nywane, a często prowadzą one do pożytecznych wniosków, jeżeli np. ujawniają
zawodność systemów obiegu informacji lub inne niesprawności techniczne
i organizacyjne. Błąd polega natomiast na porównywaniu rzeczywistych efektów
osiągniętych w warunkach operacyjnych z efektami maksymalnymi możliwymi
do uzyskania przy pełnej wiedzy (tj. idealnej prognozie). Niestety często oceny
pracy służb powodziowych (w tym służby prognoz) wykonywane po zakończe-
niu powodzi prowadzą do stawiania zarzutów podobnie bezsensownych jak za-
rzut niewłaściwego typowania liczb w totolotku.
Historia prowadzonych w Polsce prac nad doskonaleniem prognoz powodzi
dobrze ilustruje praktyczne skutki ograniczonej prognozowalności w dziedzinie
gospodarki wodnej. W wyniku tych prac powstały modele prognostyczne i mo-
dele wspomagania decyzji istotnie poprawiające efektywność sterowania zbior-
nikami retencyjnymi w okresie powodzi w porównaniu ze stosowanymi obecnie
metodami tradycyjnymi. Nowe metody nie zostały wdrożone, gdyż nie spełniają
oczekiwań, tj. nie prowadzą do decyzji idealnych, możliwych do uzyskania
w wyniku bezbłędnej prognozy.
Główną przyczyną niepewności prognoz hydrologicznych okazał się brak
dobrych ilościowych prognoz opadu. Szybki rozwój komputerów i związanych
z tym możliwości obliczeniowych pozwalał sądzić, że wspomniana bariera zo-
stanie wkrótce przełamana. Oczekiwania te nie sprawdziły się. Trafne, ilościowe
prognozy hietogramu dla zlewni średniej wielkości z okresem wyprzedzenia
ok. 2-3 dni są nadal nieosiągalne, zarówno w kraju jak i zagranicą, tak jak przed
25 laty. Nadzieja na pokonanie tej bariery przez zagęszczanie siatki obliczenio-
wej w hydrodynamicznych modelach atmosfery oraz wykorzystywanie technik
telemetrycznych do oceny warunków początkowych okazała się jak dotychczas
iluzją. Wydaje się, że prognozy hydrogramu odpływu ze zlewni o czasie wy-
przedzenia pozwalającym na skuteczne decyzje oraz o trafności umożliwiającej
deterministyczne traktowanie prognoz w algorytmach decyzyjnych zawsze będą
nieosiągalne. Do takich pesymistycznych wniosków skłaniają wyniki badań
deterministycznego chaosu (Grasseberger 1991). Tylko właściwe, tj. uwzględ-
niające niepewność, potraktowanie dostępnych aktualnie prognoz hydrologicz-
no-meteorologicznych może w istotny sposób poprawić jakość decyzji w sto-
sunku do decyzji podejmowanych bez wykorzystywania tych prognoz, lub też
przy ich deterministycznym potraktowaniu. Wyniki badań, które od lat w tej
dziedzinie prowadzili autorzy niniejszej pracy upoważniają do powyższego
stwierdzenia (Żelaziński 1987, Żelaziński i in. 1995).
W pracy koncentrujemy się na przykładach dotyczących ochrony przed
zjawiskami ekstremalnymi – powodzią i suszą. Wynika to z zainteresowań auto-
rów, lecz dyskutowane problemy występują w całym obszarze szeroko rozumia-
nej gospodarki wodnej.
Podczas dyskusji na temat niepewności często jest zadawane pytanie: jak
można podjąć działanie (które musi być jednoznaczne, tak jak konkretny ruch na
szachownicy), gdy mamy świadomość, że skutki tego działania mogą być bar-
dzo różne? Proponowana odpowiedź jest następująca: musimy rozważyć różne

10
możliwe działania (również zaniechanie działań!), zbadać ich różne możliwe
skutki i wybrać takie działanie, które uznamy za najlepsze, mając świadomość
jego różnych możliwych skutków. Proponowana odpowiedź prowadzi do ko-
nieczności przeprowadzenia następującej procedury:
1. Trzeba przeanalizować wiele wariantów działań. Wybór liczby i rodzaju
wariantów jest decyzją. Ograniczenie rodzaju i liczby wariantów wyni-
kające z wyobraźni, wiedzy lub przekonań, decydenta, jak również
z możliwości technicznych, ograniczeń finansowych, czasowych i praw-
nych rzutuje na jakość rozwiązania, tworzy ryzyko błędnego wyboru
i odpowiedzialności za ten wybór, co jest niezbywalną cechą procesu
decyzyjnego.
2. Trzeba dokonać prognozy skutków wybranych wariantów działań.
W gospodarce wodnej mogą to być bardzo różne skutki: społeczno-eko-
nomiczne, ekologiczne i kulturowe. Wybór zakresu prognozy, a także
narzędzi wykorzystywanych w prognozowaniu jest również decyzją,
która oczywiście stwarza ryzyko błędu.
3. Trzeba ustalić zbiór kryteriów pozwalających ocenić prognozowane
skutki rozważanych wariantów działań. Ponieważ każde działanie po-
woduje wiele różnych skutków mówimy o systemie kryteriów, trudno
bowiem jedną miarą oceniać np. skutki ekonomiczne, społeczne i śro-
dowiskowe. Niemniej jednak ten system kryteriów powinien umożli-
wiać wybór preferowanego wariantu działania. Wybór systemu kryte-
riów jest decyzją najważniejszą i najtrudniejszą.
Oczywiście w sytuacji operacyjnej, gdy przykładowo trzeba podjąć decyzję
o ewakuacji z terenu zagrożonego powodzią, brakuje czasu na wykonanie trzech
opisanych wyżej kroków. Muszą być one wykonane w fazie przygotowania de-
cydentowi, osobie podejmującej operacyjną decyzję o ewakuacji lub jej zanie-
chaniu, narzędzi wspomagających podejmowanie decyzji. Jednym z takich
narzędzi jest instrukcja gospodarki dla zbiornika retencyjnego i głównie tym
narzędziem, będziemy się zajmowali w dalszej części pracy. W naszych rozwa-
żaniach pomijamy procedury, które doprowadzają do budowy zbiornika oraz
przypisaniu temu zbiornikowi określonych funkcji. Zajmujemy się zbiornikami
istniejącymi, które powinny być eksploatowane możliwie efektywnie. Podkre-
ślamy jednak fakt, iż cele, dla których buduje się zbiorniki, można zazwyczaj
osiągnąć bardzo różnymi metodami (wariantami działań) i decyzja o wyborze
wariantu powinna być podejmowana w wyniku zaproponowanej wyżej procedu-
ry z uwzględnieniem niepewności prognoz rozwoju społeczno ekonomicznego
i niepewności prognoz hydrologicznych.

11
3. Cel pracy
Po powodzi 1997 roku Bank Światowy udzielił Polsce pożyczki na naprawę
szkód powodziowych oraz realizację programu ograniczenia ryzyka powodzi.
Istotnym komponentem programu finansowanego z tej pożyczki oraz innych
źródeł krajowych i zagranicznych była modernizacja systemu prognoz hydrolo-
gicznych i meteorologicznych Instytutu Meteorologii i Gospodarki Wodnej
(IMGW). Komponent ten został zrealizowany, co uczyniło polską służbę hydro-
logiczno-meteorologiczną jedną z najbardziej zaawansowanych służb w skali
światowej pod względem wyposażenia w nowoczesną zautomatyzowaną sieć
pomiarową oraz systemy gromadzenia, przetwarzania i rozpowszechniania in-
formacji. Oczekiwania użytkowników tej informacji, a w szczególności użyt-
kowników prognoz niestety zdecydowanie przekraczają aktualne możliwości
nauki i techniki. Użytkownik prognoz oczekuje dokładnej (bezbłędnej) prognozy
o okresie wyprzedzenia umożliwiającym podjęcie najlepszej decyzji. W przy-
padku decyzji podejmowanych w związku z zapobieganiem skutkom suszy po-
żądany okres wyprzedzenia to miesiąc, a nawet sezon. W operacyjnej ochronie
przeciwpowodziowej użytkownicy oczekują dokładnej prognozy hydrogramu
odpływu ze zlewni górskiej o okresie wyprzedzenia rzędu kilkudziesięciu go-
dzin. Są to oczekiwania, których spełnienie aktualnie i najprawdopodobniej kie-
dykolwiek jest nierealne.
Celem niniejszej pracy jest zaproponowanie algorytmów podejmowania de-
cyzji w operacyjnej ochronie przed skutkami powodzi i suszy przy realnie do-
stępnej, czyli obarczonej znacznymi błędami prognozie hydrologicznej. Jest to
cel ważny, bowiem jego osiągnięcie umożliwia pełne wykorzystanie informacji
prognostycznej wytwarzanej przez nowoczesny system, którego realizacja i eks-
ploatacja jest związana ze znacznymi nakładami. Inaczej mówiąc dążeniem na-
szym było bezinwestycyjne zwiększenie efektywności nowego systemu prognoz
eksploatowanego w IMGW.
Znaczna część pracy poświęcona jest sformułowaniu propozycji uzyskiwa-
nia ilościowych prognoz opadu w postaci prognozy wielowariantowej reprezen-
tującej niepewność prognozy. Określenie „prognoza wielowariantowa” jest pro-
pozycją polskiego odpowiednika angielskiego terminu „ensemble prediction”.

12
Konieczność uwzględnienia w pracy problemu ilościowych prognoz opadów
wynika z następujących przyczyn:
(1) Ilościowa prognoza opadu w postaci reprezentującej niepewność jest
niezbędna ze względu na potrzeby procesów decyzyjnych. Kategorycz-
ne prognozy hydrologiczne uzyskane na podstawie kategorycznie sfor-
mułowanych prognoz meteorologicznych nie budzą zastrzeżeń dopóty,
dopóki błędy prognoz hydrologicznych są zaniedbywalne z punktu wi-
dzenia efektywności decyzji podejmowanych na podstawie takich pro-
gnoz. Niestety jakość prognoz opadowych uzyskiwanych z dostępnych
modeli mezoskalowych i wynikająca z tego jakość prognoz hydrolo-
gicznych nie jest zadowalająca.
(2) Wielowariantowe prognozy meteorologiczne nie są w Polsce wykony-
wane. Tak więc autorzy pracy w sytuacji konieczności wykorzystywa-
nia prognoz wielowariantowych i nie wykonywania takich prognoz
przez polska służbę musieli zająć się problemem należącym w istocie
do obowiązków służby meteorologicznej.

13
4. Ocena możliwości zaspokojenia potrzeb
użytkowników prognoz hydrologicznych
4.1. Ogólne wymagania
W działaniach operacyjnych zapobiegających skutkom powodzi oczekuje
się, aby:
• prognoza była sformułowana w postaci hydrogramu przepływu/stanu wody;
• czas wyprzedzenia prognozy hydrogramu odpływu/stanu był dostatecznie
długi dla podjęcia optymalnej decyzji, a krok czasowy kolejnych rzędnych
hydrogramu był odpowiednio krótki, tak by błąd w ocenie kulminacji wez-
brania był zaniedbywany;
• prognozy były bezbłędne.
Zasadność tych oczekiwań oraz możliwość ich zaspokojenia przedstawiono
poniżej, analizując problem sterowania falą powodziową przy wykorzystaniu
zbiorników retencyjnych (problem ten należy do najtrudniejszych). Należy pod-
kreślić, że podobne uwarunkowania występują w każdym przypadku, gdy pro-
gnozy hydrologiczne są wykorzystywane do wspomagania decyzji ograniczają-
cych szkody powodziowe. W przypadku decyzji ograniczających skutki suszy
dodatkowo jest wymagany szczególnie długi okres wyprzedzenia prognozy.

4.2. Czas wyprzedzenia prognozy hydrologicznej opartej na wynikach


obserwacji opadu – konieczność wykorzystywania ilościowych prognoz
opadu
Efektywność sterowania falą powodziową oraz innych decyzji podejmowa-
nych w operacyjnej ochronie przeciwpowodziowej zależy od trafności prognozy
hydrologicznej (zgodności prognozy z rzeczywistym przebiegiem zjawiska) oraz
od czasu wyprzedzenia prognozy. Dla typowej karpackiej lub sudeckiej zlewni
górskiej zamkniętej zbiornikiem retencyjnym (o powierzchni 500-2000 km2)
czas dobiegu wynosi od kilku do kilkunastu godzin. Wykorzystując tylko zaob-
serwowane opady możemy uzyskać trafną prognozę hydrogramu odpływu dla
okresu wyprzedzenia nie przekraczającego czasu dobiegu, tj. od kilku do kilku-
nastu godzin. Skuteczne sterowanie falą powodziową przez zbiornik wymaga

14
prognozy hydrogramu dopływu do zbiornika dla całego okresu trwania fali
powodziowej. Wyniki wieloletnich badań problemu sterowania zbiornikami re-
tencyjnymi w okresie powodzi (Żelaziński i in. 1995, Żelaziński 1999) wykaza-
ły, że nie można oczekiwać istotnej poprawy wyników sterowania repetycyjnego
z wykorzystaniem trafnych prognoz o krótkim, kilkugodzinnym okresie wyprze-
dzenia. Skutków błędnego sterowania, polegającego na zbyt szybkim lub zbyt
powolnym napełnianiu zbiornika, nie można bowiem naprawić przez zmiany
sterowania w kolejnych krokach sterowania repetycyjnego. Czas trwania prze-
pływów powodziowych podczas wysokich wezbrań rzek górskich to 40-70 go-
dzin. Z przytoczonych oszacowań wynika, że prognozę hydrogramu odpływu
pozwalającą na skuteczne sterowanie zbiornikiem retencyjnym w okresie powo-
dzi można uzyskać wykorzystując prognozę hydrogramu odpływu opartą na
prognozie hietogramu z dwu- lub trzydobowym wyprzedzeniem. Inaczej
mówiąc, niezbędnym ze względu na użyteczność wyników końcowych wej-
ściem do modelu prognozy hydrogramu odpływu deszczowego (obok wyników
pomiarów opadu poprzedzających moment stawiania prognozy) jest prognozo-
wany na kilkadziesiąt godzin hietogram opadu średniego dla zlewni (potrze-
ba uśrednienia opadu wynika z posługiwania się w prognozach hydrologicznych
przeważnie modelami o parametrach skupionych lub dyskretnie rozłożonych).
Podobna sytuacja występuje w przypadku zbiorników nizinnych. Najgroź-
niejsze wezbrania opadowe występują w zlewniach nizinnych średniej wielkości
(Pilica, Bzura, Wkra, Prosna i in.). Czas dobiegu w takich zlewniach jest wpraw-
dzie dłuższy niż w zlewniach górskich (rzędu kilkudziesięciu godzin), lecz od-
powiednio dłużej trwają też wezbrania. Zatem skuteczne sterowanie wymaga,
podobnie jak w górach, prognozy hietogramu o czasie wyprzedzenia ok. 3 dni.
W przypadku sterowania, którego celem jest minimalizacja skutków suszy, wy-
magania związane z czasem wyprzedzenia prognozy są znacznie większe. Pro-
gnoza powinna obejmować okres trwania zjawiska, często wiele miesięcy.
Obecnie ilościowe prognozy opadu z modeli mezoskalowych eksploatowa-
nych w Polsce (w Krakowie ALADIN – Aire Limitée Adaptation dynamique
Développement InterNational, w Warszawie COSMO-LM14 – Consortium for
Small Scale Modelling) są wykonywane dla wyprzedzenia od 48 do 72 godzin.
Ze względu na wymogi ochrony przed powodzią warunek czasu wyprzedzenia
jest więc spełniony, problem stanowi niedostateczna jakość prognoz opadu.
4.3. Krok czasowy dostępnych ilościowych prognoz opadu
Krok czasowy zarówno obserwacji, jak i prognoz hydrogramu odpływu
powinien być dostatecznie krótki, aby błędy w ocenie czasu wystąpienia i wyso-
kości maksymalnego natężenia przepływu, wynikające z dyskretnego systemu
rejestracji, nie miały istotnego znaczenia dla skuteczności działań w ochronie
przeciwpowodziowej. Upraszczając, można przyjąć, że maksymalne natężenie
przepływu (kulminacja fali powodziowej) zależy od terminu wystąpienia i wy-
sokości maksymalnego natężenia opadu. Miarą natężenia opadu jest iloraz
OΔt/Δt, gdzie OΔt – suma opadu w interwale Δt. Zlewnia działa jak filtr tłumiący

15
chwilowe wahania natężenia opadu. Tłumienie zależy od wielkości i charakteru
zlewni. W małych zlewniach górskich (o powierzchni ok. 1000 km2) tłumienie
jest niewielkie, a zatem natężenie przepływu maksymalnego zależy od natężenia
opadu w krótkim interwale Δt, od kwadransa do 2-3 godz. W średniej wielkości
zlewniach nizinnych, o powierzchni ok. 5000 km2, tłumienie jest silniejsze
i natężenie przepływu maksymalnego zależy od natężenia opadu w interwale Δt
od 3 do 6 godz. W największych zlewniach nizinnych, takich jak zlewnia Bugu,
Narwi i Warty, silne tłumienie powoduje, że natężenie przepływu maksymalne-
go zależy od natężenia opadu w interwale Δt rzędu doby. Opierając się na wielo-
letnich doświadczeniach zebranych podczas wykorzystywania w operacyjnych
prognozach symulacyjnych modeli typu opad-odpływ, można przyjąć, że pro-
gnoza hietogramu powinna być sformułowana z wykorzystaniem kroku czaso-
wego 1-3 godz. dla zlewni górskiej i 6-24 godz. dla zlewni nizinnej. Aktualnie
dostępne w Polsce ilościowe prognozy opadu odpowiadają tym formalnym wy-
mogom. Przykładowo, model mezoskalowy COSMO-LM14 (Dokumentacja
Modelu Mezoskalowego COSMO-DWD…) oblicza prognozy elementów mete-
orologicznych z krokiem od Δt = 15 min (dla pierwszych 18 godz. wyprzedze-
nia), przez Δt = 1 godz., do Δt = 3 godz. (dla ostatnich 30 godz.).

4.4. Zróżnicowanie przestrzenne wyników ilościowych prognoz opadów


W górskich częściach dorzecza Odry i Wisły istnieją systemy zbiorników
retencyjnych wykorzystywanych do ochrony przed powodzią. Podejście syste-
mowe polegające na koordynacji pracy tych zbiorników umożliwia uzyskania
istotnie lepszych wyników sterowania falą powodziową niż uzyskiwane przy
traktowaniu każdego zbiornika jako samodzielnego obiektu. Celem koordynacji
jest dążenie do tego, by kulminacje fal wypływających z poszczególnych zbior-
ników nie nakładały się na kulminacje fal powstających w innych zlewniach.
Można to zilustrować konkretnym przykładem powodzi w lipcu 1997
w zlewni Dunajca. Zbiornik Czorsztyn istotnie zredukował wówczas kulminację
w profilu zapory chroniąc skutecznie kilka małych miejscowości poniżej. Nie-
stety opady, które wystąpiły w zlewni dopływów Dunajca pomiędzy Czorszty-
nem a Nowym Sączem, spowodowały, że w gęsto zaludnionych okolicach Sta-
rego i Nowego Sącza redukcja ta była niezauważalna (Bobiński, Kadłubowski
i Żelaziński 1998). Powstaje pytanie: czy możliwe było takie sterowanie falą
dopływającą do zbiornika Czorsztyn, aby redukcja kulminacji w rejonach gęsto
zaludnionych była istotnie większa? Odpowiedź jest twierdząca, ale warunkiem
możliwości takiego sterowania jest dokładna prognoza hietogramu w zlew-
niach małych dopływów Dunajca pomiędzy Czorsztynem i Nowym Sączem.
W przypadku braku takiej prognozy nie warto podejmować próby koordynacji,
gdyż grozi to istotnym pogorszeniem efektywności sterowania.
Analiza dostępnych w Polsce ilościowych prognoz opadów prowadzi do
stwierdzenia, że prognozowany rozkład przestrzenny opadów jest mało precy-
zyjny.

16
4.5. Potrzeba uwzględnienia niepewności prognoz opadu
Decydenci żądają prognoz sformułowanych kategorycznie, tj. w postaci ty-
lu liczb ile elementów obejmuje prognoza, np. ocen przepływu w kolejnych
krokach czasowych prognozy hydrogramu. W procesach decyzyjnych taka pro-
gnoza jest traktowana deterministycznie, to znaczy jako jedyny możliwy i pew-
ny opis przyszłości. Przyczyny tej preferencji są oczywiste – dokładna znajo-
mość przyszłości pozwala łatwo zaproponować sterowanie, które w przypadku
trafnej prognozy będzie sterowaniem najlepszym. Jeżeli natomiast prognoza
okaże się nietrafna, tj. obarczona błędem na tyle istotnym, że zastosowane ste-
rowanie będzie również nietrafne, to odpowiedzialność za szkody związane
z tym sterowaniem można przypisać autorom prognozy – zjawisko to można
nazwać „transferem odpowiedzialności”. Niestety większość prognoz meteoro-
logicznych i hydrologicznych jest obarczona błędami tak znacznymi, że katego-
ryczne potraktowanie tych prognoz w procesach decyzyjnych prowadzi do efek-
tów dalekich od oczekiwań decydentów.
Sterowania podejmowane na podstawie prognozy kategorycznej są zazwy-
czaj dalekie od optymalnych. Nawet jeśli jest to wartość oczekiwana zmiennej
prognozowanej, gdyż w przypadku prognozy wielokrokowej wątpliwa jest moż-
liwość sensownego zdefiniowania wartości oczekiwanej wielowymiarowej
zmiennej losowej. Wynika to z faktu, że w warunkach niepewności oczekiwana
wartość korzyści czy strat wynikających z realizacji sterowania nie jest
dostatecznym kryterium. Konieczne jest korzystanie z kryteriów dodatkowych
pozwalających w szczególności minimalizować prawdopodobieństwo wystąpie-
nia nieakceptowalnych sytuacji, takich jak np. zwiększenie szkód powodzio-
wych w wyniku zastosowanego sterowania przejściem fali powodziowej przez
zbiornik retencyjny lub całkowite opróżnienie zbiornika służącego zaopatrzeniu
w wodę.
W gospodarce wodnej stosuje się zazwyczaj repetycyjny schemat podej-
mowania decyzji. Decyzja jest realizowana tylko do momentu otrzymania kolej-
nej prognozy. Jeżeli nowa prognoza jest różna od poprzedniej, decyzja ulega
zmianie. Takie postępowanie jest poprawne tylko w przypadku, gdy są spełnione
pewne warunki (normalny rozkład błędów prognozy, liniowa symetryczna
i addytywna funkcja kryterialna). W gospodarce wodnej warunki te nie są speł-
nione. Zwrócił na to uwagę m.in. Findeisen (1979). Tylko sformułowanie pro-
babilistyczne prognozy pozwala na podjęcie decyzji optymalnej w schemacie
sterowania repetycyjnego.
Tak więc, potrzeby decydentów można zaspokoić przez sformułowanie
prognoz w postaci probabilistycznej, zakładając, że decydent akceptuje i po-
trafi wykorzystać takie sformułowania.
Prognozy hydrogramu fali powodziowej są wykorzystywane nie tylko przy
sterowaniu zbiornikami, ale skutki ignorowania niepewności prognoz zawsze są
szkodliwe. Warto podkreślić, że w ostatnich dekadach praktycznie wszystkie
poważne publikacje zarówno naukowe, jak i o charakterze podręcznikowym,

17
tak zwaną analizę ryzyka jako właściwe podejście do problemu. Ilustrują to ma-
teriały z seminarium w Lyonie poświęconego prognozom hydrometeorologicz-
nym (Colloque SHF-191e CST – „Prévisions hydrométéorologiques”, Lyon, 18-
19 novembre 2008). Większość referatów, w tym referat autorów niniejszej pra-
cy (Żelaziński, Mierkiewicz 2008), dotyczyła problematyki niepewności pro-
gnoz i konieczności uwzględnienia tej niepewności w podejmowaniu decyzji.
Aktualną sytuację w tej dziedzinie dobrze charakteryzuje tytuł jednego z refera-
tów: „Od niepewnej prognozy do prognozy niepewności” („From forecast uncer-
tainty to forecasting uncertainty”, Joly Alain, GAME-CNRM, Météo-France et
CNRM). Tytuł ten można potraktować jako nową definicję prognozy. Otóż za-
daniem prognozy nie jest stwierdzenie, jak będzie „naprawdę”, w większości
przypadków jest to bowiem niemożliwe. Pozostawmy „dokładne prognozowa-
nie” szarlatanom, wróżbitom i prezenterom telewizyjnym. Skoncentrujmy się na
działaniach realnych i użytecznych. Zadaniem prognozy jest określenie niepew-
ności związanej z przyszłością, oczywiście przy wykorzystaniu dostępnej wie-
dzy dla minimalizacji tej niepewności. Używając określenia „nowa definicja
prognozy”, mamy świadomość, że w Polsce, od 50 lat, tj. od czasu publikacji
pierwszej pracy Kaczmarka poświęconej prognozowaniu (Kaczmarek 1960),
wiele prac badawczych i wdrożeniowych poświęcono prognozom sformułowa-
nym w postaci warunkowego rozkładu prawdopodobieństwa. Prognozy te
w sposób oczywisty uwzględniały niepewność. Wyniki tych prac wdrożono
w służbie prognoz w latach sześćdziesiątych ubiegłego wieku, ale nigdy nie były
właściwie wykorzystywane przez decydentów. Tak więc określenie „nowa defi-
nicja” należy rozumieć jako jedyną sensowna definicję wynikającą z aktualnego
stanu wiedzy i wieloletnich doświadczeń.
Warunkiem możliwości zastosowania tego podejścia jest uwzględnienie
niepewności w procesach decyzyjnych.
Na zakończenie tej części przytoczmy przetłumaczoną wypowiedź wybit-
nego hydrologa czeskiego Vita Klemeša (2000): „Tworzy to iluzję wiedzy, która
nie istnieje, a iluzoryczna wiedza może powodować większe szkody niż świado-
mość ignorancji” Wypowiedź dotyczy analizy częstotliwości powodzi, ale kon-
kluzja jest słuszna w przypadkach wykorzystywania w procesach decyzyjnych
każdej iluzorycznej wiedzy. Prognoza obarczona znacznym błędem, ale sformu-
łowana kategorycznie (bez ujawnienia niepewności) stanowi „iluzję wiedzy”
i wykorzystanie tej pozornej wiedzy w procesach decyzyjnych powoduje w wie-
lu przypadkach większe szkody niż te spowodowane decyzją podejmowaną ze
świadomością ograniczeń posiadanej wiedzy. W ochronie przed powodzią taka
iluzoryczna wiedza może powodować zagrożenie życia ludzi. Uwagi powyższe
nie podważają potrzeby wykorzystywania prognoz, nawet mało dokładnych
w procesach decyzyjnych. Chodzi o podkreślenie konieczności formułowania
prognoz w sposób opisujący ich niepewność oraz konieczności uwzględniania
tej niepewności w procesach decyzyjnych.

18
5. Niepewność prognoz opadu

5.1. Miary niepewności

Ilościowe miary niepewności zależą od przyjętej teorii niepewności, tj. teo-


rii, za której pomocą staramy się opisać niepewność. Teorią klasyczną jest teoria
prawdopodobieństwa, w której właściwą miarą niepewności jest entropia Shan-
nona. W ostatnich latach powstały inne teorie niepewności, np. zbiorów rozmy-
tych, Dempstera-Shafera, możliwości, miar rozmytych, wymagające posługiwa-
nia się odmiennymi miarami niepewności (Żelaziński 2000).
W dalszych rozważaniach niepewność prognoz meteorologicznych i hydro-
logicznych zostanie potraktowana intuicyjnie, jako niedostatek informacji po-
trzebnej do podjęcia najlepszej decyzji. Zakładamy, że najlepszą decyzję można
podjąć wówczas, gdy prognoza pokrywa się z wynikami pomiaru. W przypadku
opadów pojawia się w tym miejscu problem dokładności oceny opadu średniego
dla zlewni na podstawie punktowych pomiarów w kilku posterunkach. Problem
ten często jest podnoszony w dyskusjach, np. na temat zastosowania radarów
meteorologicznych. Ponieważ podstawą decyzji są wyniki oszacowania obsza-
rowego na podstawie obserwacji punktowych, „surowe” lub przetworzone
przez model prognostyczny, traktujemy te wyniki jako bezbłędne przy pełnej
świadomości, że jest to założenie arbitralne. Uzasadnieniem dopuszczalności
takiego założenia jest fakt, że wyniki symulacji hydrogramu odpływu przy
wprowadzeniu na wejście do modelu symulacyjnego opadów średnich ocenio-
nych na podstawie wyników punktowych obserwacji nie różnią się istotnie od
wyników obserwacji tegoż hydrogramu. Ostatnie stwierdzenie może budzić
wątpliwości w świetle aktualnych doświadczeń z kalibracją modeli uzyskanych
w ramach programu modernizacji służb IMGW. Autorzy niniejszej pracy mają
kilkudziesięcioletnie doświadczenia w kalibracji i wykorzystaniu symulacyjnych
modeli odpływu ze zlewni. Doświadczenia te upoważniają do wniosku, że czę-
sto spotykane przypadki niemożliwości uzyskania zadowalających wyników sy-
mulacji hydrogramu odpływu są wynikiem błędów obserwacji hydrologicznych
i meteorologicznych oraz krótkich ciągów obserwacyjnych (oraz złych modeli
identyfikowanych deterministycznie). Zazwyczaj jest to brak pomiarów prze-

19
pływu w strefie wód wysokich, co skutkuje wielkimi błędami krzywych natęże-
nia przepływu. Często również brak ciągłej rejestracji stanów wody, wskutek
czego hydrogram jest obarczony istotnymi błędami. Najważniejsze przyczyny
błędów w oszacowaniu opadów to niedostateczna gęstość sieci opadowej, brak
ciągłych (z dostatecznie krótkim krokiem czasowym) obserwacji opadu oraz
trudne do wyjaśnienia błędy pomiarowe – zazwyczaj sumy opadów zarejestro-
wane przez samopisy różnią się bardzo od sum opadów zarejestrowanych przez
deszczomierz. Mamy nadzieję, że w wyniku eksploatacji zmodernizowanego
systemu pomiarowo-obserwacyjnego opisane niedociągnięcia będą sukcesywnie
eliminowane. Wniosek z powyższych rozważań o zasadniczym znaczeniu dla
niniejszej pracy jest następujący:
Głównym źródłem błędów prognoz hydrologicznych są błędy (niepew-
ność) ilościowych prognoz opadu.
Podstawowym, zastosowanym w niniejszej pracy sposobem oceny niepew-
ności prognoz jest porównywanie:
a. rozkładu prawdopodobieństwa opadów obserwowanych, a ściślej osza-
cowań obszarowych uzyskanych na podstawie wyników punktowych
obserwacji, z rozkładem prawdopodobieństwa bezwzględnych wartości
błędów prognoz opadów;
b. rozkładu prawdopodobieństwa błędów prognoz opadów z modeli mezo-
skalowych z rozkładem prawdopodobieństwa błędów prognoz inercyj-
nych (szczegóły dalej).
Jako prognozę bezbłędną, która w procesach decyzyjnych może być trak-
towana deterministycznie, traktujemy prognozę, dla której wszystkie błędy są
zerowe. Uzyskanie takiej prognozy nie jest możliwe. Rozkłady prawdopodo-
bieństwa mogą być porównywane różnymi sposobami. Dotychczas najczęściej
wykorzystywano porównywanie statystyk rozkładów – wartości średnich i śred-
nich kwadratowych odchyleń. Wymienione dwie statystyki opisują wyczerpują-
co tylko rozkłady dwuparametryczne, pod warunkiem, że typ rozkładu jest zna-
ny. Nie jest to sposób dobry w przypadku zmiennych hydrologiczno-meteorolo-
gicznych. „Prawdziwe” rozkłady tych zmiennych nie są znane, natomiast dopa-
sowywanie rozkładów empirycznych do różnych rozkładów teoretycznych pro-
wadzi zazwyczaj do wyboru rozkładów opisywanych przez trzy parametry
(np. rozkładu Pearsona III typu w przypadku przepływów maksymalnych lub
dyskretno-ciągłego rozkładu gamma w przypadku opadów).
Uwzględniając powyższe zastrzeżenia, zastosowano metodę wizualnego
porównywania rozkładów, a ściślej empirycznych funkcji prawdopodobieństwa
przewyższenia, przedstawionych w postaci graficznej na podziałkach prawdo-
podobieństwa. Takie wizualne porównanie, aczkolwiek subiektywne, umożliwia
wszechstronną analizę właściwości badanych modeli. Zbiory danych, na których
podstawie są wykonane odpowiednie rysunki pozwalają obliczyć dowolne cha-
rakterystyki statystyczne.
Do badań włączono tak zwane inercyjne prognozy opadów. Prognoza iner-
cyjna polegała na założeniu, że w kolejnych krokach czasowych prognozy

20
w okresie jej wyprzedzenia opad będzie identyczny z opadem zaobserwowa-
nym w ostatnim kroku poprzedzającym moment stawiania prognozy. Badano
zarówno niepewność ww. inercyjnych prognoz opadu, jak i prognoz hydrogramu
odpływu wynikających z wprowadzenia na wejście modelu symulacyjnego hy-
drogramu odpływu inercyjnych prognoz opadu. Prognozy inercyjne włączono do
badań kierując się następującymi przesłankami:
• W latach 70. XX wieku badano efektywność prognoz hydrogramu odpływu
wykonywanych eksploatowanymi wtedy modelami dla zlewni Soły po Ży-
wiec i w zlewni Dunajca po Kowaniec. Stwierdzono wówczas, że inercyjne
prognozy opadów oraz prognozy zakładające brak opadu są obarczone błę-
dami istotnie mniejszymi niż prognozy wykonywane wówczas przez synop-
tyków meteorologów dla potrzeb wspomnianych modeli.
• W przypadku awarii sytemu dostarczającego ośrodkom prognoz hydrologi-
cznych ilościowych prognoz opadu powstaje problem, co wprowadzić na
wejście modelu prognozy hydrologicznej? Założenie, że opad o dotychcza-
sowej intensywności przedłuży się, jest w takiej sytuacji często stosowane.

5.2. Wyniki analizy niepewności ilościowych prognoz opadu


Przykładowe wyniki badań, które wykonano zgodnie z metodą opisaną po-
wyżej przedstawiono na rys. 1-3.
8
Pprog
7 Pobs
|Pobs-Pprog|
6
Pobs, Pprog, |Pprog-Pobs| [mm]

0
0,68
-1 0,55
-0,5 0,35
0 0,18
0,5 0,07
1 0,01
1,5

prawdopodobienstwo p

Rys. 1. Zlewnia zbiornika Klimkówka, model COSMO-LM14, interwał 03 – 06 UTC.


Funkcje prawdopodobieństwa przewyższenia opadu obserwowanego, opadu prognozowanego oraz
błędów bezwzględnych opadu prognozowanego
Fig. 1. The Klimkówka reservoir catchment, the COSMO-LM14 model, the time interval 03-06
UTC. The empirical exceedance probability of observed rainfall, forecasted rainfall and absolute
errors of forecasts

21
8

|Pobs-Piner|
7
|Pobs-Pprog|

6
błąd prognozy opadu [mm]

0
0,68
-1 0,55
-0,5 0,35
0 0,18
0,5 0,07
1 0,01
1,5

prawdopodobieństwo p

Rys. 2. Zlewnia zbiornika Klimkówka, model COSMO-LM14, interwał 03 – 06 UTC.


Funkcje prawdopodobieństwa przewyższenia błędów ilościowych prognoz opadu z modelu oraz
błędów prognozy inercyjnej
Fig .2. The Klimkówka reservoir catchment, the COSMO-LM14 model, the time interval 03-06
UTC. The empirical exceedance probability of errors of forecasted rainfall and errors of inertial
forecast
30
Pobs
Wartości opadów i błędy prognoz opadów [mm]

Pprog
25
|Pobs-Pprog|
|Pobs-Piner|
20

15

10

0
-3 -2,5 0,87
-2 -1,5 0,69
-1 -0,5 0,37
0 0,5 0,065
1 1,5 0,002
2

prawdopodobieństwo p

Rys. 3. Zlewnia zbiornika Sulejów, model COSMO-LM14, prognoza opadu a pierwszą dobę.
Funkcje prawdopodobieństwa przewyższenia opadu obserwowanego, opadu prognozowanego oraz
błędów bezwzględnych opadu prognozowanego z modelu i wg inercji
Fig. 3. The Pilica River catchment at cross section Sulejów, the COSMO-LM14 model, the 1-day
ahead forecast. The empirical exceedance probability of observed rainfall, forecasted rainfall,
absolute errors of forecasts and errors of inertial forecast

22
Analiza wykresów prowadzi do następujących wniosków:
• Rozkłady prawdopodobieństwa opadów obserwowanych są podobne do
rozkładów prawdopodobieństwa wartości bezwzględnej błędów prognoz.
Inaczej mówiąc błędy prognoz mają ten sam rząd wielkości, co opady ob-
serwowane;
• W większości badanych przypadków stwierdzono brak istotnych różnic
między rozkładami błędów prognoz uzyskiwanych z modelu mezoskalowe-
go i błędów prognoz inercyjnych. A zatem prognozy mezoskalowe zazwy-
czaj nie wnoszą istotnej informacji o hietogramie opadów średnich dla
zlewni w porównaniu z informacją zawartą w prognozach inercyjnych, czy-
li podobne oszacowanie hietogramu (biorąc pod uwagę niepewność wyni-
ków) można uzyskiwać bez wykorzystywania modelu meteorologicznego,
a stosując jedynie prognozę inercyjną;
• Niemniej jednak w przypadku zlewni Pilicy i prognoz opadu średniego dla
zlewni z modelu mezoskalowego stwierdzono pewną przewagę prognoz
z modelu mezoskalowego nad prognozami inercyjnymi. Warto więc jako
wejście do modelu prognozy hydrologicznej wykorzystywać prognozy
z modelu mezoskalowego. Po pierwsze pozwala to już obecnie poprawić
jakość prognoz hydrologicznych, a po drugie każda poprawa prognoz me-
zoskalowych uzyskiwana w miarę postępu badań pozwoli automatycznie
poprawić jakość prognoz hydrologicznych;
• Znaczna niepewność ilościowych prognoz opadu i wynikająca z tego faktu
niepewność prognoz hydrologicznych wyklucza deterministyczne trakto-
wanie prognoz w procesach decyzyjnych. Zostanie to wykazane w dalszych
częściach pracy.
Biorąc powyższe pod uwagę, wydaje się, że jedną z możliwych dróg roz-
wiązania problemu uwzględnienia niepewności prognoz opadu w procesach
decyzyjnych gospodarki wodnej jest zbudowanie modelu wielowariantowej
prognozy hietogramu opadu średniego dla zlewni, gdzie predyktorami będą ka-
tegoryczne, ilościowe prognozy opadu z modelu mezoskalowego. Temu pro-
blemowi poświęcono rozdział 6.

23
6. Wielowariantowe ilościowe prognozy
opadów
6.1 Uwagi wstępne

W krajach rozwiniętych problem prognoz wielowariantowych jest jednym


z wiodących problemów naukowych meteorologii i prognozy takie są w wielu
ośrodkach wykonywane rutynowo. Uznaliśmy, że oczekiwanie na pojawienie się
takich prognoz w Polsce nie jest celowe, wydłuża się bowiem termin uzyskania
istotnej poprawy efektywności procesów decyzyjnych. Ponadto mamy wątpli-
wości, czy wielowariantowe prognozy wykonywane w ośrodkach zagranicznych
w sposób właściwy reprezentują niepewność tych prognoz. Prognozy wielowa-
riantowe w deterministycznych modelach mezoskalowych zazwyczaj są uzyski-
wane przez zmiany warunków początkowych, co wynika z teorii chaosu deter-
ministycznego. Zakłada się, że jedynym źródłem błędów prognoz jest niedo-
kładność oceny warunków początkowych, pomijając możliwość powstawania
błędów wynikających z nieadekwatności modelu mezoskalowego oraz modelu
globalnego tworzącego oszacowania warunków brzegowych dla modelu mezo-
skalowego. Pytanie, czy prognoza wielowariantowa uzyskiwana z modelu me-
zoskalowego stanowi reprezentatywną i nieobciążoną próbę losową warunko-
wego wielowymiarowego rozkładu prawdopodobieństwa zmiennych prognozo-
wanych, pozostaje otwarte, a niektóre związane z tym pytaniem wątpliwości
omówiono dalej. Należy dodać, że badania wykazały silne obciążenie ilościo-
wych prognoz opadu z modeli mezoskalowych błędem systematycznym.
Dla uniknięcia, przynajmniej częściowo, dyletantyzmu wynikającego z fak-
tu, że autorzy nie są meteorologami w tej części pracy wykorzystywano wiedzę
doświadczonego fizyka atmosfery i synoptyka dra Ryszarda Kozieła.

6.2. Stochastyczny model prognozy opadów (1) – model Boxa-Jenkinsa


Opady, a ściślej sekwencja sum dobowych opadów, tworzą szereg czasowy,
który nie może być efektywnie analizowany z wykorzystaniem standardowych
narzędzi statystycznych. Opady traktowane jako zmienne losowe należą do ro-
dziny rozkładów dyskretno-ciągłych. Część dyskretną rozkładu tworzą opady

24
zerowe, natomiast ciągła część rozkładu należy do rodziny skrajnie asymetrycz-
nych (z dodatnią asymetrią) rozkładów prawdopodobieństwa, dla których mode-
lem może być np. rozkład gamma. Ponadto jest to proces niestacjonarny ze
względu na sezonową zmienność opadów. Jednakże, model operacyjny, po-
wszechnie stosowany nie powinien wykorzystywać wyrafinowanych metod
matematycznych. Dlatego postanowiliśmy wykorzystać powszechnie znany
model Boxa-Jenkinsa. Warunkiem stosowalności tego podejścia jest przekształ-
cenie szeregu czasowego obserwowanych sum opadowych w proces w przybli-
żeniu normalny i stacjonarny. Zaproponowano następujący algorytm transfor-
macji:
(1) Obliczenie następujących dwóch statystyk dla każdego dnia w roku:
nt
Pot = [1]
N
1 nt 0.28
Zt = ∑ Rt [2]
nt 1
gdzie: t – numer kolejny dnia w roku (t = 1, 2, ..., 365), Pot – prawdopodobień-
stwo, że w dniu o numerze t opad Rt > 0, Rt – suma dobowa opadu zaobserwo-
wana w dniu o numerze t, nt – liczba dni, w których (Rt > 0) w ogólnej liczbie
dni o numerze t w okresie N lat, N – liczba lat obserwacji, Z t – cząstkowa śred-
nia (średnia wartość zmiennej losowej Z = R0,28 ze zbioru 0 < R).
Przyjęto założenie, że wyrażenie Z = R0,28 przekształca rozkład prawdopo-
dobieństwa dobowych sum opadów w rozkład normalny (Kaczmarek 1970).
Dopuszczalność takiego założenia testowano wykorzystując test χ2.

Rys. 4. Zlewnia Pilicy – parametr R0,28 przed zastosowaniem i po zastosowaniu procedury wygła-
dzającej
Fig. 4. The Pilica River catchment – the R0,28 parameter before and after a smoothing procedure

25
(2) "Wygładzenie" zmienności parametrów Pot i Z t w czasie. Można przyjąć
płynną zmienność w czasie tych parametrów odzwierciedlającą sezonową zmie-
nność opadów. Założenie to wydaje się rozsądne, nie ma bowiem przesłanek
uzasadniających skokową z dnia na dzień zmianę oceny średniego opadu w wie-
loleciu. Parametry estymowane z wykorzystaniem równań [1] i [2] na podstawie
względnie małej próby losowej (rzędu 30 lat obserwacji) są jednak obarczone
znacznymi błędami. Możemy wyeliminować ten efekt (nie oznacza to eliminacji
błędów, a jedynie wygładzenie zmienności parametrów w czasie), stosując filtr
średniej ruchomej. Zmienność w czasie zmiennej Z t przed zastosowaniem i po
zastosowaniu procedury wygładzania pokazano na rys. 4. Tablice wygładzonych
wartości zmiennych Pot i Z t wykorzystywano w dalszych obliczeniach.

(3) Estymacja parametru, Mt – wartości średniej i St – standardowego odchyle-


nia, rozkładu prawdopodobieństwa dobowych sum opadów przekształconych
w zmienną o rozkładzie normalnym.
Do estymacji wykorzystujemy równania wynikające z elementarnych prze-
kształceń wzorów na kwantyl rozkładu normalnego:
f (TPot )
Z t = M t + St [3]
p (TPot )
M t + S t TPot =0 [4]
gdzie: f(TPot) i p(Tpot) – funkcje związane ze standaryzowanym rozkładem nor-
malnym N(0,1), podane przez Kaczmarka (1970) w formie tabelarycznej i wy-
prowadzone dla estymacji cząstkowej średniej, TPot – kwantyl zmiennej o stan-
daryzowanym rozkładzie normalnym przy prawdopodobieństwie przewyższenia
Pot (jest to prawdopodobieństwo, że w dniu o numerze t opad Rt > 0).
(4) Transformacja zbioru obserwowanych dobowych sum opadów w zbiór
zmiennych tworzących stacjonarny proces normalny. Ogólne wzory na trans-
formację są następujące:
Ri0,t.28 − M t
Z i ,t = jeśli Ri,t > 0
St [5]
Z i ,t = x i , t jeśli Ri,t = 0
gdzie: Ri,t – dobowa suma opadów zaobserwowana w i-tym roku (i = 1, 2, ..., N)
i w dniu o numerze t, Zi,t – dobowa suma opadów zaobserwowana w i-tym roku
(i = 1, 2, ..., N) i w dniu o numerze t, przekształcona w zmienną o standaryzo-
wanym rozkładzie normalnym, xi,t – liczba losowa wylosowana z rozkładu nor-
malnego standaryzowanego.
Generator liczb losowych o standaryzowanym rozkładzie normalnym może
być wykorzystany do generowania liczb xi,t, jednak wszystkie wylosowane licz-
by większe niż TPot muszą być pominięte dla uzyskania efektu obcięcia rozkładu.

26
Teraz można już wykorzystywać standardowe narzędzia statystyczne. Po-
trzebne wydają się dwie dodatkowe uwagi:
 Obliczenia wykazały, że autokorelacja procesu opadowego nie zależy od
czasu (pory roku). Tak więc można analizować pełną próbę, pomijając
sezonowe zmiany autokorelacji;
 Proces opadowy zawiera zjawiska (opady) o różnej genezie, np. opady
termiczne i frontalne. Ich struktura losowa prawdopodobnie jest różna,
lecz brak informacji o genezie opadów zaobserwowanych w wieloleciu
zmusza do uproszczeń.

Przeanalizowano pełną próbę zmiennej Z, uzyskaną z 30-letniej próby do-


bowych sum opadów zaobserwowanych w zlewni Pilicy. Wykorzystano meto-
dologię rozwiniętą przez Boxa i Jenkinsa (1983) do estymacji parametrów mo-
delu ARIMA. Przykładowo po wybraniu modelu AR2 (okazał się on optymalny)
uzyskujemy następujące równania:

Z p (t + Δt ) = a1 Z t −1 + a 2 Z t + δT p [6]

gdzie: Zp(t+Δt) – prognozowana wartość zmiennej Z w momencie t + Δt o praw-


dopodobieństwie przewyższenia p; a1, a2 – parametry modelu AR2; Zt–1, Zt –
wartości zmiennej Z oszacowane wg równania [5] z wykorzystaniem wyników
obserwacji opadów R w krokach czasowych t – 1 i t; δ – średni kwadratowy błąd
estymacji modelu AR2; Tp – kwantyl standaryzowanego rozkładu normalnego
dla prawdopodobieństwa p.
Równanie [6] i procedura generująca liczby losowe o rozkładzie normal-
nym umożliwiają generowanie sekwencji liczb dla dowolnej liczby dni, krok po
kroku. Wykorzystując tablice wartości Mt i St oraz równanie:
1

Rt = ( Z t S t′′ + M t ) 0, 28 jeśli Z t > 0


[7]
Rt = 0 jeśli Z t ≤ 0

możemy przekształcić sekwencję liczb Z w sekwencję dobowych sum opado-


wych.
Dla celów ochrony przeciwpowodziowej wystarczy kilkudniowy okres wy-
przedzenia prognozy. W przypadku suszy i problemu sterowania zbiornikiem
zaopatrującym użytkowników w wodę, prognoza opadów powinna obejmować
okres kilku kolejnych miesięcy i prognozy takie można uzyskać wykorzystując
opisany model stochastyczny.
Wielokrotne powtarzanie tej procedury umożliwia uzyskiwanie prognozy
w postaci pęku przyszłych możliwych realizacji procesu opadowego. Wprowa-
dzenie takiego pęku do modelu hydrologicznego pozwala uzyskać prognozę
hydrogramu odpływu w postaci pęku hydrogramów reprezentującego niepew-

27
ność prognozy. Jest to najdogodniejsza reprezentacja niepewności, decyzje są
bowiem podejmowane zazwyczaj przy wykorzystaniu technik symulacyjnych.
Opracowany stochastyczny model opadu w połączeniu z ilościowymi pro-
gnozami opadu uzyskiwanymi z modelu mezoskalowego i wykorzystaniem
twierdzenia Bayesa rozwiązuje problem generowania pęku przyszłych możli-
wych hietogramów. Zaproponowane podejście ma w naszym przekonaniu istot-
ne zalety:
 Pozwala uzyskać nieobciążone oszacowania parametrów warunkowego
rozkładu prawdopodobieństwa prognozowanych opadów (pod warun-
kiem usunięcia silnego obciążenia błędem systematycznym, co wykaza-
ły badania prognoz z modelu mezoskalowego);
 Wykorzystuje dane klimatologiczne, co eliminuje uzyskanie oszacowań
mało realistycznych, uzyskiwanych niekiedy z modelu mezoskalowego.
Opisany model był prezentowany na Międzynarodowej Konferencji IAHR
–AIRH i Politechniki Warszawskiej “Advances in Hydro-Science and Engineer-
ing. ICHE 2002” (Żelaziński i Mierkiewicz 2002).
Zaproponowany model opadów jest oparty na licznych założeniach typo-
wych w sytuacji, gdy klasyczny aparat statystyki matematycznej jest wykorzy-
stywany do budowania modeli procesów hydrologiczno-meteorologicznych.
Zgodnie z przyjętą praktyką niesprzeczność założeń z wynikami obserwacji
badano testami statystycznymi. Problem w tym, że postępowanie testowe może
jedynie wykazać, że z zadanym małym prawdopodobieństwem założony model
nie jest sprzeczny z obserwacjami. Natomiast stwierdzenie niesprzeczności nie
przesądza, czy przyjęty model losowy jest adekwatny.
Konieczne jest założenie typu rozkładu prawdopodobieństwa i jest to tylko
założenie, nawet jeśli wykorzystujemy testy zgodności i statystyczne kryteria
dopasowania. Należy bowiem pamiętać, że:
(a) Testowaliśmy tylko posiadaną próbę losową i możliwość ekstrapolacji wg
wybranego rozkładu jest założeniem arbitralnym;
(b) Wynik dowolnego postępowania testowego jest też niepewny (niepewność
tego wyniku reprezentuje arbitralnie przyjęty poziom istotności testu), na-
wet w stosunku do badanej serii, bez jej ekstrapolacji w czasie;
(c) Nie badaliśmy wszystkich rozkładów teoretycznych niesprzecznych z roz-
kładem empirycznym, a ograniczenie obszaru badań do kilku typów roz-
kładów jest również arbitralne.

Wymienione wątpliwości uzasadniały poszukiwanie innych możliwości


zbudowania modelu stochastycznego nie wymagających przyjmowania licznych,
wątpliwych założeń. Wydaje się, że taką szansę może dać podejście bootstrapo-
we. Bootstrap pozwala wyeliminować z rozważań założenia dotyczące typu
rozkładu lub inaczej – struktury procesu losowego. W przypadku zaproponowa-
nego stochastycznego modelu opadów chodzi o możliwość wyeliminowania
licznych założeń, które przyjęto przekształcając proces opadowy w stacjonarny
standaryzowany, proces normalny.

28
6.3. Stochastyczny model opadów (2) – podejście bootstrapowe
Bootstrap jest metodą oceny dokładności oszacowań statystycznych opartą
na wykorzystaniu komputerów. Ważną cechą podejścia bootstrapowego jest
brak założeń odnośnie do typu rozkładu, jakiemu podlegają analizowane zmien-
ne. Zakłada się zazwyczaj tylko, że istnieje zbiorowość generalna, z której wylo-
sowano posiadaną próbę oraz, że elementy próby są niezależne. Opis metody
bootstrap można znaleźć w monografii Efrona i Tibshirani (1993). Metoda ta
rozwija się szybko – w cytowanej monografii przywołano kilkadziesiąt publika-
cji poświęconych bootstrapowi i jego wykorzystaniu we wszystkich działach
klasycznej statystyki. Odsyłając zainteresowanych do tej monografii, postaramy
się zilustrować ideę bootstrapu prostym przykładem.
Załóżmy, że mamy n-elementową próbę losową dowolnej, jednowymiaro-
wej zmiennej losowej i chcemy określić rozkład prawdopodobieństwa wartości
średniej tej zmiennej, obliczonej na podstawie posiadanej próby losowej. W po-
dręcznikach statystyki można znaleźć dowód, że średnia z próby ma rozkład
normalny o wartości oczekiwanej równej średniej arytmetycznej z próby i wa-
riancji równej wariancji z próby podzielonej przez pierwiastek kwadratowy
z liczebności próby. Relacja taka wynika z założeń przyjmowanych w wypro-
wadzeniu centralnego twierdzenia granicznego. Pokażemy, jak bootstrap po-
zwala rozwiązać ten problem w sposób elementarny bez dodatkowych założeń.
Wykorzystując komputer, z posiadanej próby losujemy zadaną liczbę B
zbiorów n-elementowych, stosując schemat losowania ze zwracaniem. Oznacza
to, że poszczególne elementy pierwotnej próby losowej mogą się w poszczegól-
nych wylosowanych zbiorach powtarzać wielokrotnie. Może nawet powstać
zbiór zawierający n ekstremalnych elementów z próby, aczkolwiek prawdopo-
dobieństwo takiego zdarzenia jest niewielkie. Następnie obliczamy średnią
z każdego wylosowanego zbioru, uzyskując zbiór B różnych oszacowań śred-
niej, który reprezentuje rozkład prawdopodobieństwa oszacowania badanej
średniej na podstawie n-elementowej próby. Możemy następnie wyznaczyć róż-
ne charakterystyki tego rozkładu (kwantyle, momenty i in.), a w szczególności
obliczyć średni kwadratowy błąd oszacowania średniej. W cytowanej już mono-
grafii można znaleźć dowody wskazujące na poprawność podejścia bootstrapo-
wego. W szczególności wykazano, że wraz ze wzrostem liczby wylosowanych
zbiorów B, wzrasta dokładność oszacowania bootsrapowego. Oczywiście mak-
symalna możliwa liczba różnych n-elementowych zbiorów Bmax, jest ograniczo-
na liczebnością próby n. Estymatory bootstrapowe wykorzystujące zbiory
o liczebności Bmax nazywamy idealnymi estymatorami bootsrapowymi. Stosun-
kowo nieduża liczebność próby (n) sprawia, że Bmax przyjmuje bardzo wielkie
wartości, co utrudnia wykorzystywanie estymatorów idealnych. W praktycznych
zastosowaniach losuje się od 25 do 200 zbiorów.
W przypadku stwierdzenia, że zdarzenia takie jak sekwencje opadowe po-
wodujące powodzie nie mogą być traktowane jako zdarzenia niezależne, można
zastosować tak zwany bootstrap ruchomych bloków (moving blocks bootstrap),

29
gdzie próbą losową jest realizacja procesu losowego podzielona na bloki, mię-
dzy którymi korelacja jest zaniedbywalna. Bootstrap oferuje narzędzia pozwala-
jące badać strukturę autokorelacyjną i szacować dokładność parametrów opisu-
jących tę strukturę.
Tworzenie bootstrapowego modelu opadu wymaga rozstrzygnięcia następu-
jących problemów:
1. Sposobu uwzględnienia ilościowych prognoz opadu z modelu mezoska-
lowego w generowaniu realizacji bootstrapowych procesu opadowego;
2. Sposobu uwzględnienia nieznanej struktury autokorelacyjnej opadów;
3. Sposobu wyboru ze zbioru historycznych hietogramów podzbiorów, co
do których można przyjąć hipotezę stacjonarności. Opad jest procesem
cyklicznie niestacjonarnym, gdyż jego charakterystyki stochastyczne
zmieniają się w cyklu rocznym. Próby bootstrapowe powinny być loso-
wane z takich fragmentów zaobserwowanych hietogramów historycz-
nych, które mogą być traktowane jako quasi-stacjonarne w okresie obję-
tym prognozą.
Zaproponowano następujące rozstrzygnięcia:

Ad. 1.
Prowadzone badania doprowadziły do krytycznej oceny trafności ilościo-
wych prognoz opadu uzyskiwanych z eksploatowanych w Polsce modeli mezo-
skalowych. Przed rozważeniem sposobu wprowadzenia takich prognoz do gene-
ratora bootstrapowych realizacji procesu opadowego należało więc zdecydować,
czy ilościowe prognozy opadu zawierają istotną informację o przyszłych opa-
dach. Zadaliśmy więc pytanie:
O ile ilościowa prognoza opadu, uzyskiwana z modelu meteorologicznego, zmniej-
sza niepewność prognozy w stosunku do prognozy naiwnej polegającej na zało-
żeniu, że przyszły opad będzie równy klimatologicznej wartości średniej opadu
(w danej porze roku) ?
Przeprowadzono analizę wyników obserwacji oraz prognoz opadów zgro-
madzonych w ciągu kilku lat dla zlewni Pilicy zamkniętej zbiornikiem Sulejów.
Oceny średnich dla zlewni sum dobowych opadów uzyskano na podstawie gro-
madzonych operacyjnie danych opadowych z kilku posterunków opadowych
w zlewni Pilicy. Ilościowe prognozy opadu pochodziły z eksploatowanego
w IMGW w Warszawie modelu mezoskalowego COSMO-LM14. Przeanalizo-
wano blisko tysiąc ocen średniego dla zlewni opadu obserwowanego Oo i opadu
prognozowanego Op (ten ostatni dla pierwszej, drugiej i trzeciej doby wyprze-
dzenia prognozy). Obliczono współczynnik korelacji r między zmiennymi Oo
i Op. Dla pierwszej doby uzyskano r = 0,62, co oznacza statystycznie istotny
związek między obserwacją i prognozą. Powyższą ocenę uzyskano na podstawie
próby losowej o dużej liczebności, a zatem jest ona obarczona niewielkim błę-
dem. Błąd średni kwadratowy, S, prognozy naiwnej (klimatologicznej, tj. pole-
gającej na założeniu, że opad prognozowany jest równy średniej z obserwacji
wykonanej danego dnia roku) jest równy standardowemu odchyleniu opadu

30
obserwowanego. Wykorzystanie ilościowej prognozy opadu zmniejsza ten
błąd o:
[S – S(1 – 0,622)1/2/S] 100% = 22%
Jest to wynik „na granicy stosowalności”, w prognozach operacyjnych
przyjmuje się bowiem, że model prognostyczny jest zadowalający z punktu wi-
dzenia procesów decyzyjnych, jeśli pozwala zmniejszyć średni kwadratowy błąd
o 20% lub więcej w stosunku do prognozy naiwnej. Oznacza to w szczególności,
że współczynnik korelacji między prognozą i obserwacją powinien być większy
niż 0,6. Podkreślamy, że wynik ten dotyczy prognozy o okresie wyprzedzenia
równym jednej dobie. Dla drugiej i trzeciej doby współczynnik korelacji między
prognozą i obserwacją jest znacznie mniejszy.
Ad. 2
Badania prowadzone przy wykorzystaniu standardowych narzędzi statysty-
ki matematycznej wykazały niewielką autokorelację procesu opadowego (współ-
czynniki autokorelacji pierwszego rzędu na poziomie 0,2 przy analizie 30-letniej
serii obserwacyjnej dobowych sum opadu). Wobec tego dopuszczalne wydaje
się generowanie szeregu czasowego przyszłych opadów bez uwzględniania
opadów zaobserwowanych przed terminem stawiania prognozy. Doświadczenie
prowadzi jednak do wniosku, że opady, a zwłaszcza opady ulewne, są związane
z pewnymi typami cyrkulacji atmosferycznej, które to typy często utrzymują się
dłużej niż jedną dobę (odzwierciedleniem tego spostrzeżenia jest np. pojęcie
„trzydniówki”). Ponadto, analiza okresów suszy hydrologicznej wykazuje, że
typy cyrkulacji, z którymi w normalnych warunkach są związane opady, w okre-
sach głębokiej suszy atmosferycznej nie prowadzą do wystąpienia opadów.
Prawdopodobnie, jeśli nawet nastąpi kondensacja, to wskutek przesuszenia
gleby i mas powietrza na znacznych obszarach opady parują i nie docierają do
powierzchni ziemi. Podkreślamy, że obydwa wymienione spostrzeżenia
wynikają z doświadczeń i nie były przedmiotem obiektywnych analiz ilościo-
wych. Nie można jednak wykluczyć, że procesy opadowe nie są białym szumem
i mają strukturę autokorelacyjną trudną do wykrycia i opisania na gruncie stan-
dardowych metod statystycznych, takich jak analiza furierowska lub analiza
funkcji autokorelacyjnej. W tej sytuacji zaproponowano wykorzystywanie przy
tworzeniu bootstrapowych realizacji procesu opadowego zaobserwowanych,
wielodniowych sekwencji opadowych – „scenariuszy opadowych”. Takie podej-
ście pozwala zachować rzeczywiste następstwo okresów opadowych i bezopa-
dowych, czyli wykorzystywać pełną informację zawartą w obserwacjach, bez
konieczności przyjmowania arbitralnych założeń dotyczących struktury losowej
opadów – jest to zgodne z ideą podejścia bootstrapowego.
Ad. 3
W świetle powyższych dwóch ustaleń najprostszym sposobem tworzenia
scenariuszy opadowych byłby wybór z wieloletniej serii obserwacyjnej opadów
wszystkich scenariuszy opadowych, które zaczynały się w dniu stawiania pro-

31
gnozy. Takie postępowanie zapewnia wybór dokładnie wpisujący się w roczny
cykl zmienności procesu opadowego, czyli rozwiązanie trzeciego problemu –
uwzględnienia niestacjonarności tego procesu. Budzi jednak następujące wąt-
pliwości:
 Liczba możliwych scenariuszy nie może przekraczać liczby lat obserwa-
cji, którą dysponujemy. W przypadku zlewni Pilicy jest to 30-letni ciąg
obserwacyjny i można zakładać, że taka próba losowa reprezentuje do-
statecznie rozkład zbiorowości generalnej, czyli wszystkich możliwych
realizacji procesu opadowego. W przypadku krótszych ciągów założenie
to staje się bardzo wątpliwe.
 W momencie stawiania prognozy na drugą dobę następuje nieuniknione
zerwanie ciągłości sekwencji opadów: dotychczasowy (bieżący) ciąg
obserwacji zostaje połączony z innymi ciągami obserwacji. Z punktu
widzenia fizyki atmosfery w wielu przypadkach może to być połączenie
całkowicie nierealistyczne. Przykładowo, w dniu stawiania prognozy
i dniach poprzedzających może występować zarówno sytuacja, w której
przez obszar zlewni przemieszczają się fronty atmosferyczne związane
z opadami, jak i sytuacja, gdy nad Europą rozbudował się rozległy wyż
i pomiędzy Atlantykiem a Uralem brak jest opadów. Skokowe przejście
jednej opisanej sytuacji w drugą nie jest możliwe.
Drugie z zastrzeżeń jest oczywiście znacznie poważniejsze od pierwszego i wy-
klucza zaproponowane mechaniczne łączenie różnych sekwencji opadowych
(bieżącej i historycznych) oparte wyłącznie na dacie.
Z dotychczasowych rozważań wypływa wniosek, że połączenie bieżącej,
obserwowanej do momentu stawiania prognozy, sekwencji opadowej z pewną
liczbą możliwych kontynuacji, tj. sekwencji historycznych reprezentujących
niepewność prognozy opadu, musi spełniać następujące postulaty:
 Scenariusze reprezentujące niepewność prognozy opadu powinny być
wybrane z tego samego sezonu roku – w ten sposób można zapewnić
odwzorowanie zmienności opadów w cyklu rocznym. Zaproponowano
wybór z „okna czasowego” obejmującego 30 dni (15 dni poprzedzają-
cych i 15 dni następujących po dacie stawiania prognozy);
 Początkowa, tj. w dniu stawiania prognozy, sytuacja atmosferyczna po-
winna być podobna do sytuacji w dniu poprzedzającym scenariusze re-
prezentujące niepewność prognozy. Inaczej mówiąc wybierając przyszłe
scenariusze opadowe należy zapewnić, aby stan atmosfery w dniu po-
przedzającym rozpoczęcie scenariusza był możliwie podobny do stanu
atmosfery w dniu poprzedzającym moment stawiania prognozy.
Powstaje więc pytanie: Jak zachować podobieństwo stanów atmosfery?
Jak wspomniano, mechaniczne, oparte tylko na dacie, łączenie dotychcza-
sowego (tj. do momentu stawiania prognozy) przebiegu procesu opadowego
z historycznymi scenariuszami opadowymi oznacza założenie możliwości mo-
mentalnego przejścia ze stanu atmosfery istniejącego w momencie stawiania
prognozy do każdego ze stanów, które w następnym kalendarzowym dniu ist-

32
niały w kolejnych latach wykorzystywanych do budowania scenariuszy opado-
wych, a to uznano za sprzeczne z fizyką atmosfery. Mówiąc o stanie atmosfery,
mamy na myśli chwilowy stan licznych parametrów atmosfery, takich jak ciś-
nienie, temperatura, wilgotność, wiatr, stan skupienia zawartej w atmosferze
wilgoci, obecność jąder kondensacji, zachmurzenie i inne współdecydujące
o wystąpieniu i intensywności opadów. Chodzi przy tym o stan wymienionych
parametrów w każdym punkcie trójwymiarowej przestrzeni, w otoczeniu rozwa-
żanej zlewni. Postulowana znajomość stanu atmosfery jest nieosiągalna przy wy-
korzystaniu istniejących technik pomiarowo-obserwacyjnych. Wyniki pomiarów
ze stacji meteorologicznych i sondaży aerologicznych są punktowe, a sieć jest
rzadka. Teledetekcja (radary, obrazy satelitarne) pozwala na ogólną orientację
o rozkładzie przestrzennym takich parametrów, jak opady i zachmurzenie, lecz
na razie nie dostarcza precyzyjnych oszacowań ilościowych. Można przypusz-
czać, że najlepsze dostępne oszacowanie stanu atmosfery można osiągnąć
w ramach procedury asymilacji danych wykonywanej rutynowo w ramach
eksploatacji mezoskalowych modeli meteorologicznych. W procedurze asy-
milacji są wykorzystywane wszystkie dostępne dane pomiarowe, a posługiwanie
się modelem atmosfery opartym na równaniach fizyki zapewnia zgodność uzy-
skanego oszacowania stanu atmosfery z prawami fizyki. Kontynuując rozważa-
nia, można przyjąć, że stany atmosfery prognozowane modelem mezoskalowym
w kolejnych, dobowych lub krótszych krokach wyprzedzenia prognozy są:
 możliwe z punktu widzenia fizyki procesów atmosferycznych (wynika
to z wykorzystywania równań fizyki);
 a ponadto (to oczywiście hipoteza) są to stany „najbardziej prawdopo-
dobne.”
Mapy synoptyczne obrazujące m.in. izobary, izotermy, układ frontów i inne
informacje są wizualizacją tego, co nazywaliśmy stanem atmosfery. W klimato-
logii wielu badaczy dokonywało klasyfikacji tych obrazów zaliczając je do pew-
nej liczby klas, zwanych typami cyrkulacji atmosferycznej. Doświadczenie wy-
kazuje, że istnieją typy cyrkulacji, z którymi wiążą się intensywne opady, jak
również typy wykluczające występowanie istotnych opadów. Ważnym uzupeł-
nieniem informacji zawartej w mapach są wyniki sondaży aerologicznych oraz
obrazy satelitarne zachmurzenia. Doświadczeni synoptycy wykorzystują zarów-
no wiedzę klimatologiczną, jak i bieżące informacje i stawiają, często trafne,
prognozy opadu (Zawiślak 2005). Sformalizowanie opisanego podejścia i wyko-
rzystanie go do wyboru prognostycznych scenariuszy opadowych wymaga
udziału doświadczonego synoptyka meteorologa. Reasumując, prognozę z mo-
delu mezoskalowego można wykorzystać do dokonania klasyfikacji typu cyrku-
lacji i wyboru scenariuszy klimatologicznych. Sygnalizujemy tę możliwość jako
sposób uzyskania warunkowego rozkładu prognozowanych opadów (w postaci
wielowariantowej realizacji) poprzez łączne wykorzystanie danych klimatolo-
gicznych i wyników modelu mezoskalowego. Możliwość ta nie została zreali-
zowana w ramach niniejszej pracy

33
Inny sposób wykorzystania modelu mezoskalowego opisano w następnym
punkcie. Opracowany został mianowicie generator pól opadowych, który poz-
wala generować zbiory prognoz w układzie przestrzennym dla blisko 100 zlewni
rzecznych w Polsce.

6.4. Generowanie opadów


Najważniejszym zadaniem było stworzenie systemu dostępu i wstępnego
przetwarzania wyników prognoz opadu w modelu COSMO-LM14. Zbudowano
system, który pozwala na:
• prezentowanie prognoz modelu mezoskalowego w formie animowanej
z 1-godzinnym krokiem czasowym;
• archiwizowanie danych prognostycznych w formie graficznej (mapy)
oraz numerycznej (tabele w trybie ASCII);
• prezentowanie w dowolnym punkcie mapy pęku prognozowanych:
− hietogramów (przyrosty 1-3-godzinne opadu) oraz
− pluwiogramów (skumulowane sumy do wyprzedzenia 72 godzin).
Prognozy krótkoterminowe są pozyskiwane z mezoskalowego modelu CO-
SMO-LM14. Jest to model deterministyczny (z siatką 14×14 km) i wyjście, czyli
bezpośredni produkt, nie zawiera oceny niepewności prognoz. Z praktyki stoso-
wania modeli meteorologicznych wynika, że zjawiska mezoskalowe często nie
są poprawnie przewidywane zarówno w przestrzeni, jak i co do czasu ich wystą-
pienia. Dotyczy to m.in. prognoz opadu. Ten fakt w praktyce różnych zagranicz-
nych biur prognoz meteorologicznych (w USA, Francji czy Wielkiej Brytanii)
jest brany pod uwagę na dwa sposoby:
1) przez eksperymentalne ustanowienie prognoz w formie zbiorowej – pę-
ku próbnych przebiegów;
2) w formie postprocessingu – polegającego na przetwarzaniu pojedyncze-
go wyniku modelu metodami statystycznymi.
Oba podejścia mają na celu wytworzenie pęku próbnych przebiegów progno-
stycznych i probabilistyczne sformułowanie tekstu prognozy.
Pierwsze podejście jest stosowane w wielu ośrodkach zagranicznych (np.
w Wielkiej Brytanii czy Niemczech). Zespół prognoz powstaje w wyniku pew-
nych założonych zaburzeń o znaczeniu fizycznym, czy też przez generowanie
różnych warunków początkowych. Podejście takie wymaga jednak wielokrotne-
go uruchamiania modelu mezoskalowego, co w warunkach operacyjnych i przy
ograniczonych mocach obliczeniowych może być trudne.
Postprocessing ma charakter przede wszystkim geometryczny, polega na
tworzeniu zespołu prognoz opartych na sąsiednich punktach siatki i generowaniu
hietogramów według pewnych wzorców. To rozwiązanie wydaje się mieć więk-
sze znaczenie operacyjne.
W tym miejscu należy też wspomnieć o trzeciej możliwości wzbogacania
prognoz przez wykorzystanie w jednym momencie produktów z różnych cen-
trów prognostycznych, czyli o tzw. komparacji (ang. comparison).

34
Postprocessing – metoda sąsiedztwa
Podejście to zastosowano do prognozy opadu – zarówno w odniesieniu do
wystąpienia samego zdarzenia, jak i wysokości opadu w kolejnych krokach cza-
sowych i w poszczególnych punktach siatki.
W postprocessingu dąży się do tego, by w każdym oczku siatki (kwadracie
14×14 km, właściwym dla modelu COSMO-LM14) uzyskać próbę statystyczną
hietogramów (pluwiogramów). W metodzie sąsiedztwa (ang. neighbourhood
method) w każdym punkcie siatki obliczeniowej dobiera się dane prognostyczne
z sąsiedztwa. Liczba sąsiadujących punktów nie jest z góry zadana. Jest to
przedmiotem eksperymentu (Theis S. i in. 2002). Możliwa jest też wersja pozy-
skiwania wiązki hietogramów z sąsiednich kroków czasowych prognozy.
Uzasadnienie metody sąsiedztwa wynika z praktycznej oceny stosowania
modeli mezoskalowych w wielu ośrodkach prognoz. Stwierdzono mianowicie,
że błąd prognozy opadu polega w dużym stopniu na przesunięciu pola opadu
o pewną liczbę oczek siatki. Wynika to po części z samego zjawiska opadu.
Opad osiąga powierzchnię ziemi w czasie 15–30 min. Przy prędkość poziomej
5–10 m/s może to prowadzić do błędu rzędu kilku kroków siatki. Problem nabie-
ra ostrości wobec faktu, że dąży się do zmniejszenia oczka sieci w mezoskalo-
wych modelach lokalnych.
Wynikiem proponowanego podejścia jest system tworzenia zbioru hieto-
gramów i pluwiogramów prognostycznych dla wyprzedzenia 72 godziny, dla
każdego kwadratu siatki 14×14 km, wspomnianą "metodą sąsiedztwa”. Przykła-
dowy wynik działania systemu dla wybranego oczka siatki przedstawiono na
rys. 5.

Rys. 5. System postprocessingu – tworzenie pęku hietogramów


Fig. 5. The postprocessing system – the hyetogram ensemble creation

35
Jak wspomniano, dalszych badań wymaga natomiast generowanie pól opa-
dowych w układach cyrkulacyjnych. Skojarzenie przestrzennego postprocessin-
gu z charakterystyką typów cyrkulacji może być metodą wydobywania i przeka-
zywania niepewności prognoz opadu.

6.5. Podsumowanie
Opisane w rozdz. 6 sposoby uzyskiwania wielowariantowej ilościowej pro-
gnozy opadów na podstawie dostępnych w Polsce kategorycznych (jednowarian-
towych) prognoz z modeli mezoskalowych mają charakter wstępnych propozycji
i wymagają wszechstronnego testowania. Zdecydowano się na ich przedstawie-
nie, gdyż prognozy z modeli mezoskalowych są słabo związane z wynikami
obserwacji i obciążone błędem systematycznym – świadczą o tym wyniki przed-
stawione w rozdz. 5. Powstaje zatem wątpliwość, czy wykorzystując tylko mo-
dele mezoskalowe, można uzyskać prognozę wielowariantową, stanowiącą re-
prezentatywną i nieobciążoną próbę losową warunkowego rozkładu zmiennej
prognozowanej, hietogramu. W związku z tym można przypuszczać, że wyko-
rzystanie łączne modelu mezoskalowego oraz wieloletnich wyników obserwacji
(danych klimatologicznych) pozwoli uzyskać postulowaną reprezentację rozkła-
du zmiennej prognozowanej.

36
7. Przetwarzanie wielowariantowej prognozy
opadu w wielowariantową prognozę
hydrogramu odpływu
Wykorzystanie wielowariantowych ilościowych prognoz opadu jako wejścia
do modeli symulacyjnych odpływu ze zlewni prowadzi do wyników w postaci
wielowariantowej prognozy hydrogramu odpływu. Pęk taki, reprezentujący nie-
pewność prognozy hydrologicznej, będzie podstawą omówionych w dalszej
części pracy algorytmów wspomagania decyzji.
Pęk hydrogramów jest tworzony w modelu hydrologicznym opad-odpływ,
po przeliczeniu wprowadzonej na wejściu wielowariantowej prognozy hietogra-
mów. Konieczne jest więc zbudowanie lub zaadaptowanie modelu hydrologicz-
nego opad-odpływ, umożliwiającego obliczanie rzędnych hydrogramu przepły-
wu. W praktyce dysponujemy dużą liczbą modeli hydrologicznych, w większo-
ści opierających się na takich samych założeniach i dających podobne rezultaty.
Wybór modelu zależy od doświadczenia użytkownika, dostępności danych po-
trzebnych do jego identyfikacji, czy możliwości obliczeniowych. Ważne jest,
aby model był sprawny i dawał gwarancję szybkiego przeliczania dużej liczby
wejściowych scenariuszy opadowych.
Należy zdawać sobie również sprawę z tego, że oprócz błędów ilościowej
prognozy opadu na jakość prognoz hydrologicznych wpływają błędy symulacji
związane z samym modelem wykorzystywanym w prognozowaniu. Przyczyny
tego rodzaju błędów to: nieadekwatność modelu, błędy w ocenie opadu średnie-
go dla zlewni na podstawie punktowych obserwacji opadu, błędy w ocenie pa-
rametrów modelu hydrologicznego, błędy w ocenie odpływu. Wymienione
przyczyny są faktem i wpływają istotnie na zgodność wyników symulacji hy-
drogramu odpływu z wynikami obserwacji. Błędy symulacji mogą być skutecz-
nie ograniczane przez procedury bieżącej korekty prognoz, zwane często „upda-
tingiem” (Bobiński 1981, Mierkiewicz 2002). Badania wykazały, że w przypad-
ku poprawnej bieżącej korekty prognoz błędy modelu hydrologicznego mają
drugorzędne znacznie w stosunku do błędów wywoływanych błędnymi progno-
zami opadu. W związku z tym w dalszych badaniach zakładano, że jedynym
źródłem błędów prognozy hydrologicznej są błędy ilościowych prognoz opadu.

37
8. Wykorzystanie prognozy hydrologicznej
sformułowanej w postaci wiązki przyszłych
możliwych realizacji hydrogramu odpływu
w sterowaniu zbiornikami retencyjnymi
8.1. Uwagi wstępne

Jak już wspomniano, prognozy kategoryczne w postaci jednej realizacji nie


są przydatne w procesach decyzyjnych, jeśli niepewność prognoz jest znaczna.
Dotyczy to wszystkich prognoz hydrologicznych wykorzystujących ilościowe
prognozy opadu. Dla autorów są to sprawy oczywiste, natomiast prowadzone od
40 lat w Polsce próby rozpowszechniania prognoz sformułowanych w postaci
ujawniającej ich niepewność spotkały się ze zdecydowaną niechęcią decyden-
tów. Było to przyczyną zaniechania rozpowszechniania prognoz probabilistycz-
nych. Taki, naszym zdaniem, niekorzystny stan rzeczy wynika z kilku zasadni-
czych przyczyn:
 Przyczyna pierwsza jest natury psychologicznej – ludzie niechętnie wybiera-
ją między różnymi rodzajami ryzyka. Wolą wierzyć, często bezpodstawnie,
w jeden „najbardziej prawdopodobny” scenariusz wydarzeń i tylko ten
uwzględniać, podejmując decyzje. Szczególnie „czarne scenariusze” są chęt-
nie odrzucane przez decydentów preferujących tak zwane „pozytywne my-
ślenie”;
 Przyczyna druga to brak wiedzy – decydenci nie są przygotowani do posłu-
giwania się wiedzą niepewną, a więc praktycznie jedyną dostępną w odnie-
sieniu do dłuższych horyzontów czasowych. Jest to więc problem edukacyj-
ny;
 Trzecia, być może najważniejsza, przyczyna to zjawisko „transferu odpo-
wiedzialności” obserwowane zwłaszcza podczas, a w szczególności po po-
wodzi. Decydenci oczekują pewnej informacji na temat przyszłych wyda-
rzeń. Należy stwierdzić, że oczekiwania takie są całkowicie nierealistyczne.
Przykładowy dialog między decydentem i świadomym niepewności prognoz
synoptykiem-hydrologiem jest następujący.

38
Synoptyk: W ciągu następnych 12–36 godzin można w profilu X oczekiwać
maksymalnego stanu wody rzędu 700–800 cm.
Decydent: Rozumiem, ale ile centymetrów i kiedy będzie faktycznie.
Synoptyk: Dokładnie nie wiem, taka prognoza aktualnie nie jest możliwa.
Decydent: Potrzebuję tej informacji, jej dostarczenie to wasz obowiązek.
Synoptyk: Oczekujemy kulminacji 750 cm za 24 godziny.
Decydent traktuje ostatnią informację jako pewną, co często prowadzi do złej
decyzji, ale zdaniem decydenta odpowiedzialność za skutki ponosi synoptyk.
Często synoptyk-hydrolog obarcza odpowiedzialnością synoptyka-meteorologa
("gdybym dysponował dokładną prognozą opadu, dałbym dobrą prognozę ter-
minu i wysokości kulminacji"). Jest to nieporozumienie – przy pewnej progno-
zie decydent nie jest potrzebny, gdyż poprawna decyzja jest wtedy oczywista.
Decydent jest potrzebny wówczas, gdy informacja jest niepewna i trzeba podjąć
decyzję, uwzględniając ryzyko wynikające z niepewności (Shackle 1961). Jest to
konieczne i możliwe, ale wymaga zarówno wiedzy, jak i świadomości osobistej
odpowiedzialności za skutki podjętej decyzji bez próby "transferu” tej odpowie-
dzialności. Brak jest oznak poprawy w tej dziedzinie – nie są nam znane przy-
padki szkoleń i "gier decyzyjnych", podczas których decydenci mogliby dosko-
nalić swoje umiejętności w dziedzinie, która jest ich domeną, tj. działania w sy-
tuacji niepewności.
Celem dalszych rozważań jest próba pokazania użytkownikom prognoz, jak
można wykorzystywać niepewne prognozy w typowych sytuacjach decyzyjnych
gospodarki wodnej oraz przekonanie ich, że decyzje takie są lepsze od podej-
mowanych na podstawie prognozy sformułowanej kategorycznie. Zaczniemy od
dyskusji problemu kryteriów podejmowania decyzji w warunkach niepewności
i tzw. przeszkody wymiarowości. Na zakończenie pokazane zostaną możliwości
wykorzystania wielowariantowych prognoz hydrogramu odpływu w podejmo-
waniu decyzji związanych z gospodarką zbiornikową.

8.2. Kryteria w warunkach niepewności


Rozważmy prosty przykład sterowania standardowego pojedynczym zbior-
nikiem retencyjnym w okresie powodzi. Polega ono na dążeniu do minimalizacji
maksymalnego odpływu ze zbiornika, przy czym zakłada się zazwyczaj, że nie-
opłacalne jest odprowadzanie odpływu mniejszego niż dozwolony QD (tj. naj-
większy przepływ niewywołujący szkód powodziowych w dolinie rzeki poniżej
zbiornika). Przyjmijmy, co nie zawsze jest prawdą, że jest to kryterium właściwe
ze względu na minimalizację szkód powodziowych.
W sytuacji deterministycznej rozwiązanie jest trywialne – trzeba „ściąć”
szczyt fali powodziowej. Polega to na odprowadzaniu ze zbiornika stałego od-
pływu takiego, by sumaryczna objętość dopływu przekraczającego odpływ była
równa pojemności zbiornika, lub w przypadku małej fali – na odprowadzaniu
odpływu dozwolonego QD. Zauważmy, że zastosowanie opisanego sterowania

39
w przypadku największych fal wymaga całkowitego opróżnienia zbiornika przed
nadejściem szczytu fali.
W sytuacji operacyjnej, gdy dysponujemy tylko przybliżoną prognozą hy-
drogramu dopływającej fali realizacja opisanego sterowania jest niemożliwa,
a ponadto dążenie do takiego sterowania powoduje zazwyczaj następujące nie-
akceptowalne skutki:
 opróżnienie zbiornika, bez możliwości jego napełnienia, często przez wiele
miesięcy, gdy prognozowano falę większą niż faktycznie wystąpiła;
 całkowite napełnienie zbiornika przed wystąpieniem kulminacji, co skutkuje
brakiem możliwości redukcji przepływu maksymalnego wezbrania i jest na-
gminnym zjawiskiem w przypadku dużych fal, gdy prognozując niedosza-
cowano rozmiarów fali;
 zwiększenie przez zbiornik rozmiarów powodzi – przypadek spotykany
w praktyce krajowej i zagranicznej – gdy prognozowano falę znacznie więk-
szą niż wystąpiła, a dyspozytor, działając w dobrej wierze potraktował te
prognozę deterministycznie.
Widzimy więc, że przy niepewnej, a więc realnie dostępnej, prognozie sto-
sowanie naturalnego kryterium sterowania, minimalizacja maksymalnego od-
pływu, jest niedopuszczalne. W sytuacji niepewności, gdy wynik sterowania jest
zmienną losową, możemy jedynie dążyć do przekształcenia rozkładu tej zmien-
nej lub wybranych parametrów tego rozkładu. Osiągnięcie korzystnego prze-
kształcenia wymaga oczywiście probabilistycznego sformułowania prognozy
oraz podjęcia decyzji, które z możliwych przekształceń uznajemy za najlepsze
z punktu widzenia celu sterowania. Decyzje tę nazwiemy wyborem kryteriów.
W tym miejscu zajmiemy się kryteriami. W pracy Żelazińskiego (1987)
wykazano niedopuszczalność przyjmowania za jedyne kryterium wartości ocze-
kiwanej minimalnego odpływu ze zbiornika, z dwóch ważnych powodów:
 Kryterium to prowadzi do takich samych nieakceptowalnych wyników, jak
opisane kryterium deterministyczne (przy deterministycznym potraktowaniu
prognozy) – wykazują to wyniki obliczeń symulacyjnych;
 Kryterium to jest niejednoznaczne w tym sensie, że istnieje wiele różnych
sterowań, które prowadzą do identycznego minimum wartości oczekiwanej,
lecz jednocześnie do całkowicie odmiennych i często wysoce szkodliwych
wyników w przypadku konkretnych realizacji fal powodziowych.
Omówimy bliżej drugą z sygnalizowanych właściwości.
Jeżeli badamy skuteczność dowolnego algorytmu sterowania z dowolnym
kryterium jakości w warunkach stochastycznych, musimy badaniami objąć wiele
realizacji fal powodziowych. Wynikiem badań jest losowy zbiór maksymalnych
odpływów ze zbiornika, czyli zbiór realizacji zmiennej losowej. Jest rzeczą
oczywistą, że istnieje wiele różnych rozkładów o identycznej wartości średniej.
Dotyczy to zresztą dowolnych charakterystyk rozkładu – momentów, kwantyli
i in. A zatem pojedyncze kryterium (w warunkach stochastycznych jest to zaw-
sze wartość oczekiwana) nie może w sposób jednoznaczny wartościować uzy-

40
skanego wyniku. W cytowanej już pracy Żelazińskiego (1987) pokazano, jak
różne algorytmy sterowania prowadzą do identycznej wartości średniej maksy-
malnego odpływu ze zbiornika (badano 19 realizacji fal powodziowych) i jak
dramatycznie różnią się wyniki ze względu na inne ważne charakterystyki roz-
wiązania. Przykładowo, pewne algorytmy zwiększały kulminacyjne przepływy
większości wezbrań, rekompensując to istotną redukcją kilku najwyższych fal.
Inne algorytmy powodowały w wielu przypadkach opróżnienie zbiornika bez
możliwości jego szybkiego napełnienia. Oczywiście żaden decydent nie zaak-
ceptuje algorytmu prowadzącego do takich wyników w sytuacji, gdy operacyjne
wyniki gospodarki powodziowej są oceniane na podstawie pojedynczych reali-
zacji zjawiska występującego stosunkowo rzadko. Problem ten rozwiązano,
wprowadzając obok kryterium podstawowego (minimum oczekiwanej wartości
maksymalnego odpływu) kilka kryteriów dodatkowych zalecanych w pracy
Kaczmarka (1984). Zainteresowanych omawianym przykładem odsyłamy do
cytowanej literatury.
Spośród kryteriów dyskutowanych w pracy Kaczmarka (1984) warto nieco
uwagi poświęcić kryterium odporności. Sprowadza się ono do żądania, aby
proponowane rozwiązanie (strategia, polityka, inwestycja, algorytm sterowania)
pozostało przydatne nawet wówczas, gdy nastąpi istotna zmiana warunków dzia-
łania, tj. gdy zmienią się zasoby wodne, potrzeby, preferencje społeczne itp.
Realizacja przedsięwzięć gospodarki wodnej jest procesem długotrwałym,
a zatem należy się liczyć z dużymi i nieprognozowalnymi zmianami zasobów
wodnych, czy potrzeb wodnych, wywołanymi np. przez zmiany technologii,
zmiany polityczne, czy demograficzne, oraz zagrożeniami powodziami i suszą,
wywołanymi np. wpływem globalnych zmian klimatu. Praktyka gospodarki
wodnej dostarcza przykładów przedsięwzięć spełniających i niespełniających
kryterium odporności. Oczywiście nie było ono rozważane przez projektantów
i jest jedynie ilustracją znaczenia dyskutowanego kryterium. Przykładowo, sto-
pień wodny w Dębem na Narwi projektowano jako fragment kaskady energe-
tyczno-żeglugowej. Jego znaczenie energetyczne jest marginalne, a żeglugi na
Narwi nikt nie uprawia. Jezioro Zegrzyńskie pełni natomiast wielką rolę jako
zaplecze rekreacyjne aglomeracji warszawskiej. Bliskość tej aglomeracji spo-
wodowała, że inwestycja jest pożyteczna pomimo dezaktualizacji celów, dla
których powstała.
Świadomość niepewności scenariuszy zmian klimatu oraz scenariuszy roz-
woju społeczno-ekonomicznego spowodowała sformułowanie innych zaleceń
podobnych do kryterium odporności. Zasada zwana w anglojęzycznej literaturze
non regrets w istocie rzeczy ma sens podobny do zasady Hipokratesa powszech-
nie uznawanej w medycynie. Polega ona na tym, by powstrzymać się od działań,
które mogą w przyszłości okazać się szkodliwe i których będziemy żałować.
W gospodarce wodnej możemy żałować nie tylko pieniędzy wydanych na niepo-
trzebną inwestycję – do czego sprowadza się kryterium odporności, straty mogą
być znacznie poważniejsze. Inwestycje gospodarki wodnej są na ogół szkodliwe
dla środowiska przyrodniczego. Jeżeli przedsięwzięcia te były niezbędne dla

41
ludzi, ich skutki można akceptować jako nieuniknione koszty rozwoju. Niestety,
można sporządzić długą listę przedsięwzięć niepotrzebnych, które wykonano,
opierając się na błędnych przewidywaniach, a których jedynym efektem jest
degradacja środowiska. Innym przykładem fatalnych skutków ignorowania ry-
zyka i bezzasadnego przekonania, że możemy ryzyko wyeliminować przez
przedsięwzięcia techniczne, jest tak zwane błędne koło ochrony przeciwpowo-
dziowej (Bobiński, Żelaziński 1996).
Reasumując, w warunkach niepewności nawet proste problemy jednokryte-
rialne (rzadko występujące w gospodarce wodnej) stają się z konieczności pro-
blemami wielokryterialnymi. Tylko wprowadzając dodatkowe kryteria i ograni-
czenia, możemy zadowalająco kontrolować skutki podejmowanych działań.
Wynik naszych działań jest bowiem zmienną losową o nieznanym rozkładzie.
Dążąc do ograniczenia możliwości przyjmowania przez tę zmienną nieakcepto-
walnych wartości, jak również ograniczając możliwość wystąpienia nieakcepto-
walnych stanów systemu wodno-gospodarczego, musimy wprowadzać analizę
wielokryterialną. Istotnym wyróżnikiem sytuacji niepewności jest fakt, że funk-
cja kryterialna jest zmienną losową. Ponieważ rozwiązaniem problemów wie-
lokryterialnych jest kompromis, znalezienie właściwego wielowymiarowego
kryterium (oraz funkcji użyteczności) jest w gospodarce wodnej raczej proble-
mem z zakresu technik negocjacyjnych niż modelowania matematycznego.
Główne wnioski wypływające z powyższych rozważań są następujące:
 W sytuacji niepewności, jedynej w realnym operacyjnym zarządzaniu go-
spodarką wodną, wynik podejmowanej decyzji jest zmienną losową.
 Jeden parametr zmiennej losowej, np. wartość średnia, nie charakteryzuje
wyczerpująco rozkładu, a zatem w sytuacji niepewności zazwyczaj mamy
do czynienia z problemami wielokryterialnymi.

8.3. Przeszkoda (częściej zwana przekleństwem) wymiarowości


Dyskutując kryteria, zakładaliśmy, że w warunkach niepewności potrafimy
optymalizować, tj. wyznaczać działania prowadzące do osiągnięcia ekstremum
przyjętej funkcji celu (kryterium). Jest to założenie, którego na ogół dokładnie
nie można spełnić z dwóch powodów:
 Nie znamy rozkładów prawdopodobieństwa uwikłanych w problem optyma-
lizacyjny, lecz tylko zazwyczaj krótką próbę losową, co oczywiście wymaga
wnioskowań rozszerzających i powoduje związaną z nimi niepewność;
 Na ogół występuje zjawisko zwane przez Bellmana (Bellman i Dreyfus
1967) „przekleństwem wymiarowości”, co powoduje konieczność dodat-
kowych założeń i uproszczeń.
Poświęcimy nieco uwagi drugiemu wymienionemu zagadnieniu.
Zaczniemy od przykładu. Jeżeli podejmujemy decyzje, mając świadomość
niepewności i związanej z nią możliwości wystąpienia sytuacji i efektów szko-
dliwych, a często niebezpiecznych, rozsądne jest przewidywanie możliwości,
a właściwie konieczności korygowania decyzji oraz podejmowania innych nie-

42
zbędnych działań. Wykrywaniu niekorzystnych efektów służą systemy monito-
ringowe. Dla większości inwestycji gospodarki wodnej zakładanie i eksploato-
wanie takich systemów stanowi obowiązek inwestora, wynikający z przepisów
prawa. Częstotliwość badań monitoringowych i podejmowania stosownych dzia-
łań zależy od rodzaju problemu. Badanie erozji dna poniżej zapory może być
wykonywane raz do roku, a obserwacje dopływu i napełnienia zbiornika reten-
cyjnego w okresie powodzi służące do określenia sterowań odpływem powinny
być prowadzone raz na godzinę. Opisany mechanizm podejmowania decyzji,
zwany w automatyce sterowaniem z dyskretnym sprzężeniem zwrotnym lub ste-
rowaniem repetycyjnym, jest zazwyczaj rutynowo stosowany w gospodarce
wodnej.
Rozważmy przykład sterowania standardowego pojedynczym zbiornikiem
retencyjnym w okresie powodzi z założonym, jednogodzinnym krokiem czaso-
wym repetycji (korekty) sterowania. Załóżmy, że dostateczną reprezentacją nie-
pewności związanej z prognozą fali powodziowej, która może dopłynąć do
zbiornika retencyjnego w ciągu najbliższych 48 godzin jest zbiór („pęk”) 30
możliwych realizacji hydrogramu odpływu ze zlewni zamkniętej zbiornikiem.
Załóżmy następnie, że po 48 godzinach powódź się skończy. Dla obliczenia
jednej wartości funkcji kryterialnej musimy przeprowadzić symulację sterowa-
nia wszystkimi trzydziestoma falami w pełnym, 48-godzinnym horyzoncie cza-
sowym, maksymalny odpływ wykorzystywany do obliczenia wartości funkcji
kryterialnej może się bowiem pojawić również na końcu tego horyzontu. Dla
obliczenia ekstremum funkcji kryterialnej te obliczenia symulacyjne muszą być
wielokrotnie powtórzone. Mechanizm pojawiania się „przeszkody wymiarowo-
ści” jest następujący:
Po pierwszym, jednogodzinnym kroku symulacji sterowania uzyskujemy
30 różnych napełnień zbiornika. Zgodnie z założeniem, mówiącym, że niepew-
ność reprezentuje 30 realizacji hydrografu, w drugim kroku czasowym musimy
przeanalizować 900 różnych możliwości – dla każdego z 30 napełnień i 30 pro-
gnozowanych hydrogramów, oczywiście innych niż prognozowane w pierw-
szym kroku. Kontynuując rozumowanie dochodzimy do wniosku, że aby obli-
czyć jedną wartość funkcji kryterialnej, odpowiadającą jednej wartości sterowa-
nia na pierwszym jednogodzinnym kroku musimy przeanalizować 3048 różnych
możliwości rozwoju sytuacji. Jest to oczywiście nierealne i stanowi jeden
z głównych problemów optymalizacji stochastycznej.

W pracy Żelazińskiego (1987) zaproponowano dwa sposoby pokonania


opisanych trudności: przez zastosowanie algorytmu repetycyjnej korekty para-
metrów reguły decyzyjnej oraz algorytmu z przewidywaniem na jeden krok. Ten
drugi algorytm polega na założeniu, że w następnych krokach sterowania, poza
krokiem pierwszym, prognoza będzie dokładna. W pracy Malinowskiego i Żela-
zińskiego (1990) wykorzystano stochastyczne programowanie dynamiczne,
przyjmując uproszczoną strukturę losową opadów powodujących wezbranie.
Obliczenia symulacyjne wykazały, że opisane algorytmy prowadzą do podob-

43
nych wyników i że prawdopodobny postęp wymaga poprawy trafności prognoz,
a nie wyrafinowanych algorytmów optymalizacyjnych. Po prostu, finezje obli-
czeniowe nie zastąpią informacji. Można zatem postawić pytanie: na czym
polega przewaga nowych algorytmów sterowania nad tradycyjnymi instrukcjami
gospodarki wodnej stosowanymi dotychczas?
Otóż po pierwsze, nowe algorytmy wykorzystują dostępne prognozy w spo-
sób właściwy, tj. uwzględniający niepewność. Poprawia to efekty sterowania,
oczywiście w stopniu ograniczonym stosunkowo niewielkimi możliwościami
zmniejszenia niepewności przez obecnie dostępne modele prognostyczne.
Po drugie, w nowych algorytmach jest mniej arbitralnych założeń niż w in-
strukcjach tradycyjnych, gdzie przez wprowadzenie wielu optymalizowanych
parametrów następuje dopasowanie reguły decyzyjnej do hydrogramów kilku
dużych wezbrań historycznych. Zwiększa to ryzyko, że algorytmy zawiodą, gdy
pojawi się fala powodziowa o parametrach odmiennych od fal wykorzystywa-
nych do optymalizacji reguły decyzyjnej.
Po trzecie wreszcie, w nowych algorytmach, przewidując – zgodnie z zasa-
dą maksimum niepewności – możliwość pojawienia się nieakceptowalnych wy-
ników sterowania i stanów zbiornika, wprowadzono system „bezpieczników”
wykluczających lub ograniczających taką możliwość. Bezpiecznikami tymi są
dodatkowe kryteria (w postaci ograniczeń) wprowadzone do wielowymiarowej
funkcji kryterialnej. Zasada maksimum niepewności została sformułowana przed
kilkudziesięciu laty, lecz nie jest powszechnie znana i wykorzystywana w go-
spodarce wodnej. Upraszczając, zasada postuluje konieczność uwzględnienia
we wnioskowaniu statystycznym niepewności spowodowanej przyjętymi zało-
żeniami. Zasada wynika z drugiego prawa termodynamiki. Bliższe omówienie
zasady oraz negatywnych skutków jej ignorowania w ochronie przed powodzią
można znaleźć w pracy Żelazińskiego (2007)

8.4. Wykorzystanie wielowariantowej prognozy hydrologicznej


w sterowaniu zbiornikiem retencyjnym podczas powodzi – przykład
zbiornika Wióry na rzece Świślinie
W tej części pracy wykażemy, że w sposób bezinwestycyjny, poprzez za-
stąpienie prognoz sformułowanych kategorycznie prognozami wielowarianto-
wymi można istotnie zwiększyć efektywność decyzji podejmowany z wykorzy-
staniem takich prognoz. Zostanie to zilustrowane przykładem sterowania zbior-
nikiem Wióry na rzece Świślinie podczas powodzi. Przytaczane niżej analizy
wykorzystują istniejącą instrukcję gospodarki powodziowej – jedyna propono-
wana zmiana to zastąpienie prognozy kategorycznej prognozą wariantową.
W publikacji (Śliwa 2005) zaproponowano regułę decyzyjną (tzw. politykę
wg Hydroprojektu, Ciepielowski 1999) umożliwiającą sterowanie zbiornikiem
podczas przejścia fali powodziowej. Reguła dąży do realizacji celu zdefiniowa-
nego jako minimalizacja maksymalnego odpływu ze zbiornika.

44
Autorzy propozycji założyli, że interwencje dyspozytora zbiornika (zmiany
sterowania) podczas powodzi są dokonywane co trzy godziny na podstawie:
 prognozy sumarycznego dopływu do zbiornika dla kolejnych 24 godzin
PV(i) [m3], (w regule Hydroprojektu jest to prognoza kategoryczna);
 aktualnego stanu rezerwy powodziowej R(i) [m3];
 aktualnrgo dopływu do zbiornika Q(i) [m3/s];
(indeks i oznacza numer kolejnego kroku interwencji).
Założenia te są realistyczne, lecz system prognoz meteorologicznych powi-
nien umożliwiać aktualizację ilościowej prognozy opadu co trzy godziny. Moż-
na to osiągnąć przez opracowanie algorytmu bieżącej aktualizacji prognozy opa-
du wykonywanej standardowo co 12 godzin.
Dyspozycje o odpływie ze zbiornika są wydawane co trzy godziny na pod-
stawie wskaźnika:
Rpi

PVi − (0,9) ∗ Rpi


R(?)
WQi = [8]
86400
gdzie Rpi ustalona rezerwa powodziowa równa 19 mln m3.
Do algorytmu sterowania wprowadzono dodatkowe ograniczenia, m.in.
uniemożliwiające zwiększenie powodzi przez zbiornik oraz umożliwiające
opróżnianie rezerwy powodziowej przepływem nieszkodliwym QD = 30,0 m3/s.
Zastosowany algorytm sterowania ma postać:
qi = Qi jeśli Qi ≤ QD
qi = WQi jeśli Qi > QD ∧ qi −1 ≤ WQi
qi = qi −1 jeśli Qi > QD ∧ qi −1 > WQi
[9]
qi = Qi jeśli Qi > QD ∧ Qi ≤ qi −1
qi = QD jeśli Qi ≤ QD ∧ qi −1 ≥ QD
qi = Qi jeśli Qi > QD ∧ WQi > Qi
Wyniki przytoczone w cytowanej publikacji (Śliwa 2005) otrzymano przy
założeniu dostępności bezbłędnej prognozy dopływu do zbiornika. Uzyskanie ta-
kiej prognozy dla małej (ok. 360 km2) górskiej zlewni Świśliny nie jest możliwe.
Zbadano skutki zastosowania proponowanego algorytmu sterowania w przypad-
ku wykorzystania prognoz obarczonych błędami. Dla zlewni Świśliny zamknię-
tej zbiornikiem Wióry nie dysponowaliśmy prognozami sum dobowego dopły-
wu, nie była więc możliwa empiryczna ocena rozkładu błędów prognoz. Stwo-
rzono serię „prognoz” obarczonych różnymi błędami. Rozpoczęto od prognozy
inercyjnej, gdzie założono, że w ciągu następnej doby dopływ do zbiornika nie
zmieni się w stosunku do dopływu zaobserwowanego w chwili podejmowania
interwencji (prognoza taka jest zawsze dostępna, o ile obserwowany jest dopływ
do zbiornika). Sporządzono statystykę oraz empiryczną funkcję prawdopodo-
bieństwa przewyższenia błędów procentowych prognozy inercyjnej dla przy-
padku fali podanej w publikacji (Śliwa 2005).

45
3
Q [m /s]
350
dopływ
300 pr_dokł
P5
P4
250
P3
P2
200 P1

150

100

50

0
0
15
30
45
60
75
90
105
120
135
150
165
180
195
210
225
240
255
270
285
300
315
330
345
360
375
390
405
420
435
450
465
480
czas [15 min]
Rys. 6. Zbiornik Wióry na Świślinie. Wyniki symulacji sterowania wg pięciu scenariuszy loso-
wych błędów prognozy inercyjnej oraz wg prognozy dokładnej
Fig. 6. The Świślina River at the Wióry reservoir. The flood control performed based on ensemble
and categorical forecasts. The ensemble is creating by 5 scenarios of forecast errors

Następnie, w kolejnych 3-godzinnych krokach sterowania wylosowano po


5 błędów prognozy inercyjnej, wykorzystując generator liczb losowych o roz-
kładzie równomiernym z przedziału [0, 1] oraz interpretując wylosowane liczby
jako prawdopodobieństwa przewyższenia. Prawdopodobieństwom przypisano
błędy wykorzystując wcześniej określoną empiryczną funkcję rozkładu prawdo-
podobieństwa. Następnie skonstruowano pięć scenariuszy, wybierając sekwen-
cje wylosowanych błędów uporządkowanych w rosnące szeregi rozdzielcze.
I tak scenariusz P1 to sekwencja prognoz obarczonych największymi błędami
dodatnimi, scenariusz P2 jest sekwencją prognoz obarczonych błędami zajmują-
cymi drugą pozycję w szeregu rozdzielczym itd. aż do scenariusza P5 stanowią-
cego sekwencję prognoz o największych błędach ujemnych. W kolejnym kroku
przeprowadzono pięć symulacji sterowania zbiornikiem Wióry. Wyniki symula-
cji sterowania wg pięciu scenariuszy losowych błędów prognozy inercyjnej po-
kazano na rys. 6. Prezentowany wynik wymaga dwóch komentarzy:
(1) Przy kategorycznym sformułowaniu prognoz uzyskanie każdego z opi-
sanych pięciu scenariuszy jest mało realne. Kolejne prognozy katego-
ryczne są obarczone błędami, ale kolejne błędy mają różne prawdopo-
dobieństwa przewyższenia i wystąpienie sekwencji błędów o identycz-
nym prawdopodobieństwie przewyższenia jest mało prawdopodobne.
Natomiast symulacje wg scenariuszy P1 i P5 mają ważne znacznie prak-
tyczne, określają bowiem górną i dolną granicę wyników sterowań moż-
liwych do uzyskania przy wykorzystaniu prognozy kategorycznej.

46
(2) Scenariusze P2, P3 i P4, aczkolwiek ich wystąpienie jest również mało
realne, przy kategorycznym sformułowaniu prognozy wnoszą – poka-
żemy to dalej – istotną informację na temat strategii wykorzystania pro-
gnozy wielowariantowej.
Uwzględniając powyższe uwagi, dochodzimy do wniosku, że prognoza in-
ercyjna sformułowana kategorycznie może prowadzić do bardzo zróżnicowa-
nych wyników, w tym do wyników absolutnie nieakceptowalnych, gdy zbiornik
o dużej pojemności rezerwy powodziowej praktycznie nie redukuje kulminacji
fali (scenariusz P1). Istotną wadą takiego scenariusza jest ponadto fakt, iż nie
redukując przepływu maksymalnego, jednocześnie nie wykorzystujemy rezerwy
powodziowej! Dokumentuje to rys. 7. Widać, iż przy sterowaniu wg scenariusza
P1 (maksymalne błędy dodatnie) wykorzystujemy zaledwie 4 mln m3 rezerwy,
natomiast sterowanie wg scenariusza P5 (maksymalne błędy ujemne) pozwala
wykorzystać aż 16 mln m3 rezerwy powodziowej. Jednocześnie, w przypadku
sformułowania prognozy inercyjnej z uwzględnieniem rozkładu jej błędów moż-
liwe jest uzyskanie znacznej redukcji kulminacji (scenariusz P5), co oczywiście
wiąże się z wykorzystaniem rezerwy powodziowej.
3
Rp [mln m ]
20

18

16

14 Rp_dokł
Rp_P5
12 Rp_P4
Rp_P3
10
Rp_P2
8 Rp_P1

0
0
15
30
45
60
75
90
105
120
135
150
165
180
195
210
225
240
255
270
285
300
315
330
345
360
375
390
405
420
435
450
465
480

czas [15 min]


Rys. 7. Zbiornik Wióry na Świślinie. Zmiany rezerwy powodziowej w przypadku wykorzystania
prognozy inercyjnej dla pięciu scenariuszy błędów prognozy
Fig. 7. The Świślina River at the Wióry reservoir. The flood reserve changing for the ensemble
creating by 5 scenarios of forecast errors

Jak widać, nawet w przypadku „naiwnej” prognozy inercyjnej korzyści wy-


nikające z wykorzystania znajomości rozkładu jej błędów i wykorzystania tego
rozkładu do tworzenia prognozy zbiorowej są bardzo duże – zmniejsza się ryzy-
ko popełnienia znacznych błędów sterowania oraz poprawia efektywność reduk-
cji przepływu maksymalnego.

47
Eksploatowane hydrologiczne modele prognostyczne zazwyczaj produkują
prognozy obarczone błędami mniejszymi od błędów prognozy inercyjnej – tylko
takie modele warto eksploatować, jako dostarczające dodatkowej informacji
w stosunku do prognozy inercyjnej. Przyjętym wskaźnikiem efektywności mo-
delu, E, jest wyrażenie:
S
E= m [10]
Si

gdzie: Sm – średni kwadratowy błąd prognozy wg badanego modelu, Si – średni


kwadratowy błąd prognozy inercyjnej.
Wskaźnik E przyjmuje wartość 0 dla prognozy dokładnej, a wartość 1 dla pro-
gnozy inercyjnej.
Kolejnym krokiem pracy było zbadanie efektów zamiany prognozy katego-
rycznej na prognozę zbiorową w przypadku prognoz obarczonych błędami
mniejszymi od błędów prognozy inercyjnej. W tym celu przygotowano zbiór
prognoz stanowiących średnie ważone prognozy inercyjnej i prognozy dokład-
nej. Obliczano je wg następującej formuły:

PE = Pi ∗ E + Pd ∗ (1 − E ) [11]

gdzie: PE – prognoza o wskaźniku efektywności E, Pd – prognoza dokładna (ob-


serwacja), Pi – prognoza inercyjna, dla E = 0,1; 0,2; 0,3; ...; 0,9.
Wykorzystano fakt, iż wagi E przyjęte we wzorze [11] prowadzą do pro-
gnoz o efektywności E obliczanej wg wzoru [10]. Następnie powtórzono czyn-
ności opisane dla przypadku prognozy inercyjnej, uzyskując dla prognoz o zada-
nej efektywności E wyniki sterowania wug pięciu scenariuszy. Wyniki te zesta-
wiono w tab. 1.
Tab. 1. Zestawienie maksymalnych odpływów ze zbiornika Wióry przy sterowaniu falą powo-
dziową o prawdopodobieństwie przewyższenia 0,3% i wykorzystaniu prognoz o różnej efektyw-
ności E
Tab. 1 The maximum outflow from the Wióry reservoir based on the flood control for the flood
with 0,3% exceedance probability and different forecast efficiencies E
Efektywność prognozy E
Scenariusz 0* 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1.0
3
Maksymalny odpływ ze zbiornika, qmax [m /s]
P1 111 133 156 180 206 233 260 289 319 321
P2 107 125 144 163 184 205 226 247 270 293
P3 90,4 94,3 112 129 146 164 183 202 222 243 265
P4 94,2 98,2 107 115 123 130 138 145 152 159
P5 90,8 88,4 98,6 112 124 137 150 157 164 171
* przy wskaźniku efektywności 0 (prognoza dokładna) istnieje tylko jeden scenariusz

48
Q [m3/s]
335

P1
P2
285 P3
P4
P5

235

185

135

85
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
wskaźnik efektywności E

Rys. 8. Zbiornik Wióry na Świślinie. Wyniki symulacji sterowania wg scenariusz P1, P2, P3, P4,
P5 przy różnych wskaźnikach efektywności prognozy E
Fig. 8. The Świślina River at the Wióry reservoir. The flood control performed based on scenarios
P1, P2, P3, P4 and P5 with different forecast efficiency coefficients

Wyniki zamieszczone w tab. 1 posłużyły do sporządzenia rys. 8. Analiza


tych wyników prowadzi do kilku ważnych spostrzeżeń:
 Nawet przy bardzo dobrej prognozie, o wskaźniku efektywności 0,1 (prak-
tycznie nieosiągalnym w działaniach operacyjnych) możliwa i celowa jest
poprawa efektywności sterowania przez wykorzystanie pęku prognoz hy-
drologicznych.
 Sterowania najlepsze uzyskujemy wykorzystując prognozy obarczone zna-
cznymi błędami ujemnymi. Ten wynik może wydawać się paradoksalny
w przypadku tak wielkiej fali, jaka była przedmiotem symulacji. Podobny
wynik uzyskano w ramach pracy Żelazińskiego (1987). Pozornie niezrozu-
miała właściwość sterowania zbiornikiem retencyjnym w czasie powodzi
(gdzie celem jest minimalizacja maksymalnego odpływu ze zbiornika) wy-
nika z faktu, iż sterowanie szczytem fali można poprawić tylko przez
zwiększanie odpływu. Jeżeli w pewnym momencie, wykorzystując progno-
zę obarczoną błędem dodatnim, zwiększymy odpływ, to zmniejszanie tego
odpływu w następnym kroku sterowania nie poprawia wyniku, szkoda
związana z nadmiernym odpływem stała się bowiem nieodwracalnym fak-
tem. Opisana właściwość uzasadnia szczególną ostrożność przy zwiększa-
niu odpływu ze zbiornika.
 Sterowanie wg scenariusza P5 przy E = 0,2 doprowadziło do wyniku stero-
wania lepszego (qmax = 88,4 m3/s) niż przy prognozie dokładnej E = 0
(qmax = 90,4 m3/s). To kolejny, pozorny paradoks. Wynika on z faktu, iż

49
z założenia wykorzystujemy prognozy o ograniczonym do jednej doby ho-
ryzoncie czasowym prognozowania. Dokładna, ale ograniczona do 24 go-
dzin znajomość przyszłości, nie gwarantuje uzyskania najlepszego możli-
wego wyniku. Konieczna jest do tego znajomość dokładnego przebiegu hy-
drogramu dla całej fali powodziowej. Tak więc, wykorzystując błędną pro-
gnozę o ograniczonym horyzoncie czasowym, możemy przypadkowo uzy-
skać wynik lepszy niż wykorzystując prognozę dokładną.

8.5. Wykorzystanie wielowariantowej prognozy hydrologicznej


w sterowaniu zbiornikiem retencyjnym podczas powodzi – przykład
zbiornika Tresna na rzece Sole
8.5.1. Wprowadzenie
Korzyści z prognozy wielowariantowej mogą być znacznie większe od
uzyskanych w przykładzie omawianym w p. 8.4. Możliwa do uzyskania z aktu-
alnie eksploatowanego systemu IMGW prognoza hydrogramu odpływu z jedno-
godzinnym krokiem czasowym i 72-godzinnym horyzontem czasowym progno-
zowania zawiera znacznie większą ilość użytecznej informacji niż prognoza
sumarycznego dobowego dopływu do zbiornika, wykorzystywana w poprzed-
nim przykładzie. Wykorzystanie takiej pełnej informacji wymaga całkowitej
zmiany algorytmu sterowania w stosunku do algorytmu tradycyjnego.
Algorytm taki został opracowany i przetestowany symulacyjnie. Symulo-
wano sterowanie zbiornikiem Tresna na Sole, wykorzystując zaobserwowane
hydrogramy najwyższych fal powodziowych, jakie wystąpiły w tej zlewni
w roku 1958 (Qmax = 1650 m3/s) i 1970 (Qmax = 1197 m3/s). Zbadano również
działanie algorytmu w stosunku do fali niewielkiej (Qmax = 370 m3/s).
W latach objętych analizą nie wykonywano ilościowych prognoz opadów.
Niezbędne „prognozy” w postaci 25 wariantów realizacji prognozowanych hie-
togramów opadów stworzono symulacyjnie wykorzystując zaobserwowane hie-
togramy opadów średnich dla zlewni zamkniętej zaporą Tresna. Posłużono się
metodą podobną do zastosowanej w opisanym wyżej przypadku zbiornika Wió-
ry, tylko w odniesieniu do opadów. Hietogramy opadów przekształcano w hy-
drogramy odpływu posługując się prognostycznym modelem symulacyjnym.
Założono, że wiązka 25 wariantów prognozowanych hydrogramów stanowi
wystarczającą reprezentację niepewności. Zwiększanie liczebności wariantów
wydłuża czas obliczeń, bez istotnej zmiany wyników. Założono niewielką efek-
tywność prognoz (E = 0,8, tj. redukcję średniego kwadratowego błędu prognozy
o 22% w stosunku do naiwnej prognozy inercyjnej). W świetle przeprowadzo-
nych badań jest to efektywność możliwa do osiągnięcia poprzez wykorzystanie
meteorologicznych modeli mezoskalowych eksploatowanych w IMGW.
Założono, że korekta prognoz opadu w postaci pęku 25 hietogramów z ok-
resem wyprzedzenia 72 godziny oraz korekta prognoz przepływu w postaci pęku
hydrogramów z okresem wyprzedzenia 72 godziny będzie wykonywana co go-
dzinę i konsekwentnie, że korekta sterowania będzie wykonywana co godzinę.
50
8.5.2. Sterowanie w okresie tworzenia rezerwy dodatkowej

Okres tworzenia rezerwy dodatkowej to okres, w którym aktualny dopływ


do zbiornika Q0 spełnia warunek:
QU < Q0 ≤ QD [12]
gdzie: QU – suma potrzeb wodnych wszystkich użytkowników zbiornika, QD –
przepływ dozwolony, tj. maksymalny odpływ ze zbiornika nie wywołujący
szkód powodziowych poniżej zapory (w przypadku zbiornika Tresna przyjęto:
QU = 12,94 m3/s oraz QD = 335 m3/s).
Sens ograniczeń wyrażonych nierównością [12] jest następujący:
 Jeżeli Q0 jest mniejsze od QU, rezygnujemy z tworzenia dodatkowej re-
zerwy ze względu na duże ryzyko nadmiernego opróżnienia zbiornika.
 Jeżeli Q0 jest większe od QD, tworzenie dodatkowej rezerwy wymaga-
łoby odpływu większego od Q0, a zatem w wyniku sterowania mogliby-
śmy (wskutek niepewności prognozy) wywołać zwiększenie strat powo-
dziowych.
Celem sterowania w okresie tworzenia rezerwy dodatkowej jest maksyma-
lizacja rezerwy w chwili, gdy Q0 przekroczy QD, tj. w chwili początku szczytu
fali. Można postulowaną maksymalizację osiągnąć przez sterowanie (odpływ ze
zbiornika) równy QD. Większego odpływu nie można stosować ze względu na
możliwość zwiększenia strat powodziowych w sytuacji niepewnej prognozy.
Stosowanie odpływu QD może jednak doprowadzić do nadmiernego opróżnie-
nia zbiornika bez możliwości jego napełnienia, co spowoduje straty dla innych
użytkowników zbiornika. W przypadku zbiornika Tresna są to zaopatrzenie
w wodę i energetyka. Opisany niżej algorytm niweluje to zagrożenie przez ana-
lizę najmniejszego (spośród 25 scenariuszy) sumarycznego prognozowanego
dopływu do zbiornika. W kolejnym kroku czasowym sterowania nadajemy taki
odpływ, aby w następnych krokach możliwe było napełnienie zbiornika do po-
ziomu rezerwy ustalonej VU nadwyżką dopływu ponad Q0, tj. bez straty dla
innych użytkowników zbiornika. Procedurę tę realizuje następujący algorytm:
Algorytm sterowania
q 0 = q 0* jeśli QU < q 0* ≤ QD
q 0 = QU jeśli q 0* ≤ QU [13]
q 0 = QD jeśli q 0* > QDi

q 0* = (V0 + VPG − VU ) / 3600 [14]

VPG = {[Q0 + QP01 + QP02 +...+ QP72] – 73 QU} 3600 [15]


gdzie: q0 – sterowanie stosowane w pierwszym jednogodzinnym kroku sterowa-
nia, tj. od chwili t = 0 do chwili t = 1, V0 – napełnienie zbiornika w chwili t = 0
(chwili podejmowania decyzji o wielkości sterowania q0), VU – ustalona rezer-
wa powodziowa (w m3), QP01, QP02, ..., QP72 – kolejne rzędne prognozowane-
51
go hydrogramu, dla którego suma w nawiasie kwadratowym w równaniu [15]
jest najmniejsza spośród 25 scenariuszy prognostycznych; oznacza to koniecz-
ność obliczenia tej sumy dla każdego scenariusza, wybór minimalnej sumy
i wprowadzenie jej do wyrażenia [15]
Uwaga. Zakładamy, że w chwili rozpoczynania symulacji sterowania V0 = VU.
W następnych symulacjach za początkowe napełnienie przyjmujemy obli-
czone napełnienie w chwili t = 1:
V1 = 0 jeśli V1 < 0
V1 = V1* jeśli 0 < V1* ≤ VMAX [16]
V1 = VMAX jeśli V1* > VMAX

V1* = V0 + [(Q0 + Q1 ) / 2 − q 0 ] 3600 [17]


gdzie Q1 – obserwowana rzędna hydrogramu w chwili t = 1.
Po obliczeniu V1 zmieniamy indeks – nowe V0 (w następnej symulacji)
przyjmuje wartość V1.

8.5.3. Sterowanie w okresie szczytu fali


Algorytm jest stosowany wtedy, gdy Q0 > QD. Celem sterowania jest mi-
nimalizacja oczekiwanej wartości maksymalnego odpływu ze zbiornika. „Prze-
szkodę wymiarowości” (opisaną w p. 8.3) pokonano przez repetycyjną korektę
parametrów reguły decyzyjnej (Żelaziński 1987). Do algorytmu wprowadzono
dodatkowe ograniczenia zapobiegające:
 wywołaniu przez zbiornik powodzi o kulminacji wyższej od kulminacji
fali dopływającej do zbiornika;
 napełnieniu zbiornika przed kulminacją dopływu.
Algorytm sterowania
qs0* = QMAX − a ⋅ VS 00,5 jeśli VS 0 > 0 ∧ QMAX − a ⋅ VS 00,5 ≤ Q0
qs0* = Q0 jeśli VS 0 > 0 ∧ QMAX − q ⋅ VS 00,5 > Q0 [18]
qs0* = Q0 jeśli VS 0 = 0
qs 0** = QD jeśli qs 0* ≤ QD
[19]
qs 0** = qs 0* jeśli qs 0* 0 > QD

qs 0 = qs 0** jeśli qs 0** > qs −1


[20]
qs 0 = qs −1 jeśli qs 0** ≤ qs −1
gdzie: qs0 – sterowanie (w okresie szczytu fali) stosowane w jednogodzinnym
kroku czasowym sterowania od chwili t = 0 do chwili t = 1, qs 0* , qs 0** – zmienne
pomocnicze, QMAX – największy przepływ maksymalny z 25 analizowanych

52
hydrogramów, VS0 – pojemność rezerwy powodziowej w chwili t = 0, a – opty-
malizowany parametr reguły sterowania (opis optymalizacji dalej), qs–1 – stero-
wanie zastosowane w poprzednim kroku czasowym.
Sens ograniczeń wyrażonych nierównościami [18]–[20] jest następujący:
• Nie można stosować odpływu większego od dopływu, co zapobiega zwięk-
szeniu powodzi przez zbiornik.
• Jeśli zbiornik jest pełen, tj. brak rezerwy powodziowej odpływ staje się
równy dopływowi.
• W okresie szczytu fali nie zmniejszamy odpływu w stosunku do odpływu
w poprzednim kroku czasowym, ponieważ strata powodziowa związana
z poprzednim odpływem jest nieodwracalnym faktem.
• W okresie szczytu fali odpływ nie może być mniejszy od QD, nie ma bo-
wiem sensu wypełnianie rezerwy przepływem nie powodującym szkód po-
wodziowych.
Uwagi
(1) w chwili rozpoczynania symulacji sterowania szczytem fali VS0 = V–1
gdzie V–1 – napełnienie rezerwy powodziowej w końcowym momencie sy-
mulacji tworzenia dodatkowej rezerwy powodziowej,
(2) W następnych symulacjach jako początkowe napełnienie przyjmujemy obli-
czone napełnienie VS1 (tj. w chwili t = 1),
VS1 = 0 jeśli VS1* < 0
[21]
VS1 = VS1* jeśli 0 ≤ VS1* < VMAX
VS1 = VMAX jeśli VS1* > VMAX

VS1* = VS0 + [(Q0 + Q1 ) / 2 − qs0 ]3600 [22]


gdzie: Q1 – obserwowana rzędna hydrogramu w chwili t = 1.
Po obliczeniu VS1 zmieniamy indeks – nowe VS0 (w następnej symulacji)
przyjmuje wartość VS1.

8.5.4. Optymalizacja parametru a


Optymalizację parametru a prowadzimy co godzinę w okresie szczytu fali
(tj. gdy sterowania obliczamy wg wzorów [18]–[22].
Funkcja kryterialna ma postać:
25
MIN ∑ MAXqsi [23]
1

gdzie MAXqsi – maksymalna wartość odpływu sterowanego wg wzorów [18]–


[22] dla i-tego scenariusza (hydrogramu). Inaczej mówiąc, w każdym godzin-
nym kroku sterowania (w okresie szczytu) szukamy takiego oszacowania para-
metru a, przy którym suma maksymalnych odpływów (sterowań) uzyskanych
w wyniku zastosowania algorytmu sterowania do każdego z 25 scenariuszy jest
najmniejsza.

53
Zastosowano następujący algorytm poszukiwania optymalnego oszacowa-
nia parametru a:
(1) Startując ze stanu modelu hydrologicznego uzyskanego w poprzednim kro-
ku symulacji z wykorzystaniem obserwowanych opadów, wprowadzamy
kolejno na wejście modelu 25 scenariuszy opadowych i dla każdego scena-
riusza symulujemy hydrogram odpływu w pełnym horyzoncie 72 godzin.
(2) Zakładamy wartość początkową parametru a. W pierwszym kroku po prze-
kroczeniu Q = 335 m3/s można założyć np. a = 0,0001. Po wykonaniu pew-
nej liczby symulacji nabierzemy rozeznania co do wartości parametru a
w zależności od wartości VS i wówczas pierwsze oszacowanie może być
bliskie optimum. Stosując wzory [18]–[22], symulujemy sterowanie kolej-
nymi scenariuszami hydrologicznymi. Dla każdego scenariusza wybieramy
maksymalny odpływ i tworzymy sumę tych maksymalnych odpływów.
(3) Zmieniamy parametr a (np. z 0,0001 na 0,00011) i powtarzamy krok (2).
(4) Porównujemy sumy uzyskane w kroku (2) i (3). Pozwala to ustalić przyrost
funkcji kryterialnej. Po ustaleniu kierunku poprawy zwiększamy dwukrot-
nie korektę parametru a (tj. zmieniamy ten parametr o 0,00002) w kierunku
gradientu, w stosunku do wartości lepszej z dwóch poprzednio badanych
i powtarzamy symulacje.
(5) Powtarzamy działania opisane w kroku (4), zwiększając za każdym razem
dwukrotnie krok korekty, aż uzyskamy pogorszenie oszacowania kryterium.
(6) W tym momencie mamy dwa oszacowania parametru a, między którymi
znajduje się optimum. Dalsze poszukiwania prowadzimy metodą bisekcji,
nadając parametrowi a wartość średnią arytmetyczną z oszacowań, między
którymi znajduje się optimum, aż do sytuacji gdy kolejna iteracja daje war-
tość nie różniącą się od poprzedniej ze względu na trzecią cyfrę znaczącą.
(7) Sterowanie wg optymalnej wartości parametru a stosujemy tylko do pierw-
szego kroku hydrogramu obserwowanego (tj. hydrogramu uzyskanego
w wyniku symulacji z wykorzystaniem na wejściu do modelu hydrologicz-
nego opadu obserwowanego). Uzyskujemy w ten sposób nowe oszacowanie
VS, nowe oszacowanie qs–1, co umożliwia przesunięcie się o jeden krok go-
dzinny i powtórną optymalizację parametru a w stosunku do nowego pęku
25 hydrogramów.
Uwaga:
Opisany algorytm nie gwarantuje, iż nie nastąpi całkowite napełnienie zbio-
rnika przed kulminacją dopływu. W symulacjach zdarzenie takie nie wystąpiło.
Niemniej uzyskanie pełnej gwarancji można osiągnąć w procesie optymalizacji
parametru a. Jeżeli przy optymalnej wartości a, sterowanie w stosunku do jed-
nego lub kilku hydrogramów z rozważanej wiązki spowodowało napełnienie
zbiornika przed kulminacją, należy stopniowo zwiększać parametr a aż do uzy-
skania takiego oszacowania, przy którym przedwczesne napełnienie nie następu-
je. Oczywiście prowadzi to do rozwiązania gorszego w świetle kryterium [23],
ale z dużą gwarancją eliminuje przedwczesne napełnienie zbiornika. Gwarancja
ta jest tym większa, im więcej rozważanych scenariuszy (wariantów prognozy).

54
8.5.5. Symulacja sterowań i jej wyniki
Wykorzystując hietogramy opadów średnich dla zlewni Soły, które wywo-
łały katastrofalne powodzie z 1958 i 1970 roku, wygenerowano (zakładając
współczynnik efektywności prognozy E = 0,8) 25 wariantów prognozy opado-
wej dla każdego, jednogodzinnego kroku sterowania (każda prognoza obejmuje
72-godzinny okres wyprzedzenia). Stosując model prognostyczny hydrogramu
odpływu ze zlewni Soły zamkniętej zaporą Tresna, przetworzono wariantowe
prognozy hietogramu na wariantowe prognozy hydrogramu odpływu. Wytwo-
rzone wariantowe prognozy i wyniki obserwacji hydrogramu dopływu do zbior-
nika wykorzystano do symulacji sterowań zbiornikiem Tresna, przy założeniu,
że rezerwa ustalona VU = 24 mln m3. Faktycznie na zbiornikach Kaskady Soły
jest utrzymywana dwukrotnie większa rezerwa powodziowa. Symulacje dla
rzeczywistej objętości rezerwy nie były interesujące – przy tak znacznej rezer-
wie łatwo uzyskać pozytywne wyniki. Zmniejszenie VU o połowę stawia algo
rytm sterowania w bardzo trudnej sytuacji. W szczególności, w przypadku fali

1400

1200
Qdop qodp
1000
Dopływ/sterowanie [m /s]
3

800

600

400

200

0
1 6 11 16 21 26 31 36 41 46 51 56
czas [godz]

120,00

100,00
Napełnienie zbiornika [mln m ]
3

80,00

Rys. 9. Zbiornik
60,00 Tresna na Sole.
Wynik sterowania
40,00
dla fali z 1970 roku
Fig. 9. The Sola
River at the Tresna
20,00
reservoir. Results
of the flood control
0,00 for the flood in
1 6 11 16 21 26 31 36 41 46 51 56
1970
czas [godz]

55
1800

1600
Qdop
1400
Dopływ/sterowanie[m /s]

1200
3

1000

800

600
qodp
400

200

0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
czas [godz]
120,00

100,00
Napełnienie zbiornika [mln m ]
3

80,00

Rys. 10. Zbiornik


60,00
Tresna na Sole.
Wynik sterowania
40,00 dla fali z 1958 roku
Fig. 10. The Sola
20,00 River at the Tresna
reservoir. Results
of the flood control
0,00
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
for the flood in
czas [godz] 1958

z 1970 roku, powtarzane kilkakrotnie deterministyczne traktowanie prognoz


obarczonych błędem zawsze prowadziło do całkowitego napełnienia zbiornika
przed kulminacją dopływu, co wyklucza możliwość jakiejkolwiek redukcji
szkód powodziowych.
Wyniki symulacji wg zaproponowanego algorytmu w odniesieniu do fali
z 1970 roku przedstawiono na rys. 9, a w odniesieniu do fali z 1958 roku na
rys. 10. Dodatkowo przeprowadzono symulację dla małej fali (takie wezbrania
występują najczęściej) – wynik przedstawiono na rys. 11.
Nowy algorytm pozwala:
 Wypracować bezpośrednio przed nadejściem fali powodziowej dodatkową
rezerwę powodziową, dzięki czemu zwiększają się efekty sterowania szczy-
tem fali. Jednocześnie jest eliminowane niebezpieczeństwo nadmiernego
opróżnienia zbiornika wynikające z niepewnej prognozy. W rozważanych
przypadkach uzyskano ٛ k. 6 mln m3 dodatkowej rezerwy. Jest to bardzo
konkretna korzyść, którą można przeliczyć na złotówki, uwzględniając re-
alne koszty uzyskania 1 m3 wody w sztucznym zbiorniku retencyjnym.

56
400

350

qodp
300
Dopływ/sterowanie [m 3/s]

Qdop
250

200

150

100

50

0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46
czas [godz]

82,00

80,00

78,00
Napełnienie zbiornika [mln m 3]

76,00

74,00
Rys. 11. Zbiornik
72,00
Tresna na Sole. Wy-
nik sterowania dla
70,00 niewielkiej fali
Fig. 11. The Sola
68,00 River at the Tresna
66,00
reservoir. Results of
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 the flood control for
czas [godz] a small flood.

 Uzyskać największą możliwą oczekiwaną redukcję maksymalnego odpły-


wu ze zbiornika. W sytuacji niepewności można rozumieć optymalność ste-
rowania tylko jako wymóg minimalizacji wartości oczekiwanej, tj. wynik
jest optymalny w sensie statystycznym, a konkretne realizacje sterowań są
realizacjami zmiennej losowej.
 Eliminować bardzo poważne zagrożenia wynikające z niepewności pro-
gnoz, tj. zagrożenie zwiększeniem powodzi przez zbiornik oraz zagrożenie
całkowitym wypełnieniem zbiornika przed kulminacją dopływu.
 Uzyskiwać automatycznie poprawę sterowań w miarę poprawiania się ilo-
ściowych prognoz opadów, bez konieczności zmiany algorytmu. Granicą
tej poprawy jest prognoza bezbłędna. Przy takiej prognozie algorytm „ści-
na” szczyt fali, co jest sterowaniem najlepszym z możliwych, przy założo-
nym kryterium minimalizacji maksymalnego odpływu ze zbiornika. Jest to
ważna właściwość proponowanego algorytmu – jest on nie obciążony
w tym sensie, że gdy błąd prognozy dąży do zera sterowanie dąży do roz-
wiązania idealnego.

57
8.6. Sterowanie zbiornikiem Sulejów na Pilicy w okresie suszy
Zbiornik Sulejów zamyka zlewnię Pilicy o powierzchni 4926 km2. Pojem-
ność użyteczna zbiornika wynosi 47,79 mln m3. Główne zadania zbiornika to:
 zaopatrzenie w wodę użytkowników z Łodzi, Tomaszowa Mazowiec-
kiego, których łączne potrzeby wynoszą 5,45 m3/s;
 zachowanie przepływu biologicznego poniżej zbiornika (9,28 m3/s).
Sumaryczne potrzeby wynoszą więc w zaokrągleniu 14,7 m3/s. Przepływ
średni z wielolecia w profilu zapory wynosi 28,1 m3/s, a przepływ minimalny
obserwowany 3,9 m3/s. Ta ostatnia wartość jest niezwykle ważna. Świadczy
o ogromnej roli zbiornika. Gdyby został całkowicie opróżniony, w okresie
minimalnego dopływu groziłoby to następującymi skutkami:
 poborem całości wody z rzeki, przy czym pozostałby nadal deficyt potrzeb
ok. 1,55 m3/s. Tomaszów zostałby praktycznie bez wody (ujęcie dla Łodzi
jest bowiem wyżej), co oznaczałoby katastrofalne zagrożenie zdrowia ludzi
i ogromne perturbacje gospodarcze;
 zamianą Pilicy poniżej zapory w kolektor prowadzący skoncentrowane
ścieki (głównie z Tomaszowa), co wywołałoby zagładę ekosystemów zwią-
zanych z rzeką oraz fatalne skutki dla użytkowników wody dolnej Pilicy.
Ten krótki opis przesądza o zasadniczym ograniczeniu obszaru decyzji dozwo-
lonych dla gospodarki zbiornikowej: nie wolno dopuścić do opróżnienia
zbiornika w okresie, gdy dopływy do niego są szczególnie niskie.
Obowiązująca do 1995 roku instrukcja gospodarki wodnej była standardo-
wa: zbiornik powinien być zawsze, o ile to możliwe, napełniony, przy pełnym
zaspokojeniu potrzeb wodnych.
Praktyka eksploatacyjna wykazała, że konsekwentne przestrzeganie tej za-
sady gospodarowania w latach suchych grozi całkowitym opróżnieniem zbiorni-
ka i opisanymi katastrofalnymi skutkami. Zagrożenie to szczególnie ujawniło się
zimą 1985 i latem 1992, co spowodowało ingerencję władz, polegającą na ogra-
niczeniu odpływu ze zbiornika. Pozwoliło to „dotrwać” do okresu roztopów lub
opadów, oczywiście kosztem zagrożenia ekologicznego w dolnym biegu rzeki.
W roku 1995 Hydroprojekt Warszawa opracował nowelizację instrukcji go-
spodarki wodnej. Istotą tej nowelizacji było wprowadzenie mechanizmu mini-
malizującego główne zagrożenie, tj. możliwość opróżnienia zbiornika.
Główne założenie nowej instrukcji polegało na wprowadzeniu ograniczenia
odpływu biologicznego ze zbiornika, bez ograniczania poziomu zaspokojenia
pozostałych potrzeb. Nie będziemy dyskutować zasadności tego założenia, po-
przestając na uwadze, że ekolodzy prawdopodobnie byliby skłonni negocjować
możliwość przerzucenia części ograniczeń, np. na wodochłonny przemysł. Nie
zmienia to jednak istoty dalszych rozważań – należy uznać konieczność regla-
mentacji wody, a problem, kto ma ponosić tego skutki, pozostaje otwarty.
W nowej instrukcji „wyzwalaczem” sytuacji zagrożenia deficytem jest jed-
noczesne wystąpienie dwóch warunków:
 napełnienia zbiornika mniejszego niż 27,8 mln m3;
 dopływu do zbiornika mniejszego niż suma potrzeb, tj. 14,7 m3/s.
58
Warunek pierwszy ustalono metodą prób, symulując pracę zbiornika na materia-
le historycznym. Warunek drugi jest oczywisty.
Przy spełnieniu pewnych dodatkowych warunków (podanych w instrukcji)
dysponowany odpływ ze zbiornika jest mniejszy od 14,7 m3/s, co oznacza ogra-
niczenie przepływu biologicznego. Analiza instrukcji prowadzi do następują-
cych wniosków:
 Przyjęto, że niżówka skończy się 30 października. Wynika to z posiada-
nej serii obserwacyjnej, ale oczywiście nie jest wykluczone przedłużenie
się suszy na miesiące zimowe (tak było w roku 1985) i dlatego przyjęte
w instrukcji założenie budzi wątpliwości.
 Przyjęto, że do 30 października przepływ utrzyma się na aktualnym po-
ziomie (tj. założono prognozę inercyjną). Jest to założenie rozsądne, je-
śli dyspozycję wydajemy jesienią, lecz trudne do poważnego potrakto-
wania, np. w maju.
 Wielkość wskaźnika decydującego o odpływie zależy głównie od daty,
co budzi zasadnicze wątpliwości. Można bowiem przypuszczać, że do-
pasowano się do najgłębszej niżówki 1992 roku, zakładając, że głębsza
nigdy nie wystąpi.
Uwagi te nie są krytyką instrukcji. Jest ona znakomita w porównaniu z innymi
tego typu dokumentami. Po prostu instrukcję dostosowano do stanu aktual-
nego, tj. braku prognozy, która określałaby termin zakończenie niżówki
(przekroczenie przez dopływ progu 14,7 m3/s) oraz prognozowany średni
dopływ do zbiornika od momentu dyspozycji do końca niżówki.
Kolejną wartością progową w instrukcji jest odpływ wyrównany ze zbior-
nika, 10,7 m3/s, na który składają się potrzeby Tomaszowa i Łodzi oraz prze-
pływ biologiczny, pozostawiany w korycie rzek (3,75 m3/s). Postępowania takie
jest prowadzone do całkowitego opróżnienia zbiornika, kiedy w korycie pozo-
staje tylko różnica między dopływem a sumą potrzeb Łodzi i Tomaszowa, lub
nie pozostaje nic, jeśli dopływ do zbiornika jest mniejszy niż potrzeby obu
miast. Analiza ostatnich przytoczonych ustaleń instrukcji prowadzi do następu-
jących wniosków:
 Przyjęto, że minimalny przepływ, jaki możemy świadomie (tzn. do mo-
mentu, kiedy jeszcze mamy wodę w zbiorniku) odprowadzić do koryta
Pilicy jako przepływ biologiczny, wynosi 3,75 m3/s.
 Zaakceptowano możliwość całkowitego opróżnienia zbiornika, co jak
wykazano wyżej, może doprowadzić do klęski ekologicznej w zbiorniku
i w dolinie Pilicy poniżej zbiornika.
Symulacja wg zmodyfikowanej (obowiązującej) instrukcji wykazała, że
wielokrotnie następuje ograniczenie odpływu do 10,7 m3/s, lecz dzięki temu
w całym suchym okresie 1982-1994 zbiornik nigdy się nie opróżnił. Dwukrotnie
jednak napełnienie zbliżyło się niebezpiecznie do zera:
 1 lutego 1985 roku wyniosło 2,71 mln m3;
 22 października 1992 roku wyniosło 1,26 mln m3.

59
W obydwu przypadkach wzrost przepływów „uratował sytuację”. Prognozy wy-
konane przy założeniu braku zasilania, co jest wielce prawdopodobne zwłaszcza
zimą, wykazały, że:
 w pierwszym przypadku (zimą 1985) całkowite opróżnienie nastąpiłoby
po 10 dniach przy przepływie około 7,0 m3/s;
 w drugim przypadku (jesienią 1992) po 14 dniach przy przepływie około
8,0 m3/s.
Przedstawiona analiza wykazuje, jak bardzo prawdopodobne nadal jest cał-
kowite opróżnienie zbiornika pomimo trwających wiele miesięcy ograniczeń
przepływu biologicznego (zrzut 3,75 m3/s, zamiast wymaganego 7,75 m3/s).
Powstaje pytanie:
Czy wykorzystując rozwinięte przez autorów wielowariantowe progno-
zy hydrogramu, można uzyskać lepsze wyniki sterowania?
Oczywiście implikuje to natychmiast pytanie o kryteria i odpowiedź nie jest tu
łatwa.
Zbiornik ma zbyt małą pojemność, by z gwarancją zbliżoną do 100% wy-
równać odpływ do 14,7 m3/s, co w pełni zabezpieczałoby potrzeby. Symulacja
wykonana wg starej instrukcji ujawniła liczne przypadki całkowitego opróżnie-
nia zbiornika (w latach 1983-1985 siedmiokrotnie, a w latach 1990-1993 trzy-
krotnie). Deficyty w stosunku do potrzeb będą więc zawsze występować. Stero-
wanie wg zmodyfikowanej instrukcji, z wykorzystaniem prognozy lub bez, mo-
że zmienić tylko strukturę deficytów, np. zamienić krótsze głębokie deficyty na
dłuższe i płytsze. Wykorzystanie prognozy obarczonej błędami z całą pewnością
spowoduje „fałszywe alarmy”, tj. niepotrzebne ograniczenie odpływu wyrówna-
nego w przypadku, gdy wystąpiły opady, których nie przewidziano. Powstaje
wówczas pytanie, czy straty związane z fałszywymi alarmami zostaną zrekom-
pensowane redukcją strat w innych przypadkach? Jest to klasyczny problem
zaprojektowania optymalnego wyzwalacza (trygera) występujący zarówno bez
prognozy, jak i z prognozą.
Przy wszystkich wymienionych wątpliwościach pewne jest, iż mając pełną
wiedzę, tj. dokładną prognozę dopływu do zbiornika na okres co najmniej równy
okresowi ergodycznemu (tak nazywamy okres, po którego upływie stan począt-
kowy nie oddziałuje na stan końcowy zbiornika), możemy uzyskać najlepsze
możliwe sterowanie zbiornikiem (w automatyce zwane GOD SOLUTION).
Wiadomo również, że wykorzystanie prognoz zmniejszających niepewność
przybliża możliwe do uzyskania rozwiązanie do rozwiązania idealnego, z tym,
że prawidłowe rozwiązanie problemu stochastycznego może być niezwykle
trudne, m.in. ze względu na nie sprecyzowane oczekiwania dyspozytora zbiorni-
ka w warunkach niepewności. W szczególności musi być rozwiązany problem
preferencji rodzaju deficytów: czy lepsze krótko trwające, lecz głębokie, czy też
trwające dłużej i występujące częściej, lecz łagodniejsze? Nie jest jasny również
skutek całkowitego opróżnienia zbiornika, który z punktu widzenia deficytów
nie jest szkodliwy, jeśli nastąpi przy przepływie równym zapotrzebowaniu i nas-
tępnie trwale przekraczającym tę wartość. Być może jednak, takie całkowite

60
opróżnienie wywoła katastrofę ekologiczną w zbiorniku? Rozstrzygnięcie tych
dylematów, charakterystycznych dla wszystkich zbiorników, nie może być do-
konane w ramach niniejszej pracy. Można jednak pokazać, że wykorzystując
pęk hydrogramów w algorytmie sterowania repetycyjnego, możemy praktycznie
wykluczyć niebezpieczeństwo całkowitego opróżnienia zbiornika. Przy budowie
algorytmu decyzyjnego przyjęto następujące założenia:
 Celem sterowania jest eliminacja zagrożenia całkowitym opróżnieniem
zbiornika przed momentem gdy dopływ do zbiornika przekroczy 14,7 m3/s.
 Decyzje o odpływie ze zbiornika są podejmowane co 10 dni. Można je po-
dejmować codziennie, co pozwala elastyczniej dostosowywać się do ewolu-
cji niżówki. Założenie 10-dniowego cyklu repetycji skróciło obliczenia, nie
zmieniając prezentowanej zasady sterowania.
 Przy podejmowaniu decyzji są wykorzystywane prognozy hydrogramu do-
pływu do zbiornika o 30-dniowym okresie wyprzedzenia, przygotowywane
co 10 dni, sformułowane w postaci pęku 30 możliwych realizacji. Opraco-
wane algorytmy pozwalają na tworzenie prognoz o dowolnie długim okresie
wyprzedzenia i stosowanie ich w procesie sterowania. Założenie 30-dniowe-
go okresu wyprzedzenia prognozy skróciło obliczenia, nie zmieniając preze-
ntowanej zasady sterowania. Potrzebne prognozy długoterminowe (30-dnio-
we) były uzyskiwane metodą bootstrapową, przez wprowadzanie na wejście
modelu hydrologicznego 30 scenariuszy opadowych zaobserwowanych
w ciągu 30 lat obserwacji i rozpoczynających się w dniu stawiania progno-
zy. W sytuacji prognozy długoterminowej jest to założenie rozsądne.
 Jeżeli przy założeniu najbardziej niekorzystnego przebiegu hydrogramu
(najgłębszej prognozowanej niżówki) i uwzględnieniu aktualnego napełnie-
nia zbiornika, symulacja odpływu 14,7 m3/s w ciągu kolejnych 30 dni wyka-
że, że napełnienie zbiornika (rozumiane jako wypełnienie objętości użytecz-
nej) było zawsze większe od zera, w najbliższej dekadzie jest dysponowany
odpływ równy 14,7 m3/s.
 Jeżeli przy założeniu najbardziej niekorzystnego przebiegu hydrogramu
(najgłębszej prognozowanej niżówki) i uwzględnieniu aktualnego napełnie-
nia zbiornika, symulacja odpływu 14,7 m3/s w ciągu kolejnych 30 dni wyka-
że, że napełnienie zbiornika (rozumiane jako wypełnienie objętości użytecz-
nej) było mniejsze od zera, w najbliższej dekadzie jest dysponowany taki
odpływ, aby w końcu miesiąca napełnienie było zerowe, nie osiągając war-
tości zerowej wcześniej.
Na rysunku 12 pokazano przykład sterowania zbiornikiem Sulejów według
opisanego algorytmu w okresie najgłębszej dotychczas zaobserwowanej niżówki
letniej 1992 roku. Na rysunku pokazano również sterowanie oparte na miesięcz-
nej prognozie dokładnej, oczywiście nieosiągalnej. Porównanie tych dwóch
sterowań pokazuje, że wykorzystanie najbardziej niekorzystnego scenariusza
dopływu spowodowało przedłużenie okresu deficytu. Jest to cena, jaką płacimy
za brak dokładnej informacji. Trzeba dodać, że dążenie do poprawy struktury
deficytu, bez poprawy trafności prognozy może grozić opróżnieniem zbiornika.

61
Rys. 12. Symulacja gospodarowania wodą w zbiorniku Sulejów na Pilicy w okresie suszy 1992
roku w oparciu o pęk prognozowanych hydrogramów dopływu do zbiornika
Fig. 12. The flood control in the Sulejów reservoir (the Pilica River) for the drought in 1992 based
on a forecasted inflow ensemble

Wątpliwości może budzić przekonanie, że opisany algorytm eliminuje moż-


liwość opróżnienia zbiornika. Przekonanie to wynika z następujących faktów:
 Ponieważ orientujemy się zawsze na koniec miesiąca, przewidując jeszcze
dwie kolejne interwencje (po 10 i po 20 dniach) proponowany algorytm
z pewnością wyklucza osiągnięcie zerowego napełnienia zbiornika przy za-
łożeniu, że najgłębsza prognozowana niżówka reprezentuje rzeczywiście
„najgorszy możliwy przypadek”.
 Założenie to jest oparte na spostrzeżeniu, że w rozważanym wieloleciu
przynajmniej raz wystąpił 30-dniowy okres praktycznie bez opadów i doty-
czy to każdego wybranego okresu 30 kolejnych dni w roku. A zatem, jeśli
model prognozy hydrologicznej poprawnie odwzorowuje proces recesji od-
pływu, to wystąpienie scenariusza dopływu bardziej niekorzystnego niż
proponowany w opisanym algorytmie nie jest możliwe.
Na zakończenie warto zauważyć, że prognoza w postaci pęku hydrogra-
mów umożliwia rozwiązywanie problemów sterowania przy założeniu bardziej
złożonych celów. Przykładowo, nie rezygnując z celu głównego – eliminacji
opróżnienia zbiornika, można formułować kryteria dodatkowe dotyczące roz-
kładu prawdopodobieństwa parametrów deficytów, takich jak np. czas trwania,
maksymalny deficyt chwilowy. Te dodatkowe kryteria są domeną decydenta,
który określa je świadom ponoszonego ryzyka i jego skutków.

62
9. Podsumowanie i wnioski
1.
Wdrożony w ostatnich latach, zmodernizowany system prognoz IMGW, pozwa-
la m.in. uzyskiwać prognozy hydrogramu odpływu ze zlewni dla okresu wy-
przedzenia 72 godzin. Prognozy można formułować wykorzystując jednogo-
dzinny lub nawet krótszy krok czasowy. Prognozy takie są niezbędne w stero-
waniu górskimi zbiornikami retencyjnymi w okresie powodzi.
2.
Wszechstronne analizy wykazały jednak, że prognozy hydrogramu są obarczone
wielkimi błędami oraz, że główna przyczyną błędów prognozy hydrologicznej
są błędy kategorycznie sformułowanych ilościowych prognoz opadów. Stwier-
dzono również, że błędy ilościowych prognoz opadów wynikają z aktualnego
stanu wiedzy oraz, że w związku z tak zwanym chaosem deterministycznym nie
należy oczekiwać istotnej poprawy trafności tych prognoz w dającej się przewi-
dzieć przyszłości.
3.
Wykazano, że przy sterowaniu zbiornikami deterministyczne traktowanie kate-
gorycznie sformułowanych ilościowych prognoz opadów i wynikających z nich
kategorycznie sformułowanych prognoz hydrogramu odpływu prowadzi do nie-
akceptowalnych sterowań. W szczególności możliwe jest zwiększenie szkód
powodziowych przez zbiornik, jak również nadmierne opróżnienie zbiornika,
szkodliwe dla innych użytkowników (poza ochroną przeciwpowodziową).
4.
Stwierdzono, że realną poprawę wyników sterowań można uzyskać przez wyko-
rzystanie prognozy wielowariantowej, w postaci „wiązki” prognozowanych
hydrogramów, stanowiącej reprezentatywną i nieobciążoną próbę losową reali-
zacji warunkowego, wielowymiarowego rozkładu prawdopodobieństwa zmien-
nych prognozowanych. Próbę taką można uzyskać, wprowadzając na wejście
modelu prognozy hydrologicznej wielowariantową ilościową prognozę hieto-
gramu opadów.

63
5.
Postulowane w p. 4 wielowariantowe prognozy hietogramu w Polsce nie są jesz-
cze rutynowo wykonywane. Są one tworzone w wielu ośrodkach zagranicznych,
budzą jednak pewne zastrzeżenia. Mianowicie, sposób pozyskiwania prognozy
przez zaburzenie warunków początkowych w modelu meteorologicznym może
prowadzić do prognozy wielowariantowej, która niekoniecznie spełnia postulat
reprezentatywnej i nieobciążonej próby losowej realizacji warunkowego, wielo-
wymiarowego rozkładu prawdopodobieństwa zmiennych prognozowanych (hie-
togramów). Ponadto, prognozy takie są wykonywane ze zbyt długim krokiem
czasowym, biorąc po uwagę potrzeby prognoz hydrologicznych.
6.
W związku z tymi wątpliwościami sformułowano kilka propozycji uzyskiwania
wielowariantowych ilościowych prognoz opadów (z 1-godzinnym krokiem cza-
sowym i 72-godzinnym okresem wyprzedzenia) na podstawie dostępnych
w Polsce ilościowych prognoz opadów z eksploatowanych modeli mezoskalo-
wych. Ten wątek badań (uboczny w stosunku do głównego problemu, lecz nie-
zbędny) doprowadził do powstania użytecznych algorytmów. Nie są to jednak
wyniki stanowiące w pełni satysfakcjonujące rozwiązania problemu – konieczne
są dalsze badania z udziałem fizyków atmosfery, synoptyków meteorologów
i klimatologów.
7.
Stosując uzyskiwane różnymi metodami wielowariantowe prognozy hydrogra-
mu odpływu, wykonano badania symulacyjne sterowania w okresie powodzi
zbiornikami retencyjnymi Wióry na rzece Świślinie i Tresna na rzece Sole.
8.
W przypadku zbiornika Wióry wykorzystano istniejącą, tradycyjną instrukcję
gospodarki powodziowej. Stwierdzono, że samo zastąpienie prognozy sformu-
łowanej kategorycznie prognozą wielowariantową prowadzi do istotnej poprawy
efektów sterowania.
9.
W przypadku zbiornika Tresna został opracowany nowy algorytm decyzyjny
dostosowany do wykorzystywania wielowariantowej prognozy. Symulacja wy-
kazała, że nowy algorytm pozwala:
 Wypracować bezpośrednio przed nadejściem fali powodziowej dodatkową
rezerwę powodziową, co zwiększa efekty sterowania szczytem fali i jedno-
cześnie eliminuje niebezpieczeństwo nadmiernego opróżnienia zbiornika,
wynikające z niepewnej prognozy. W rozważanych przypadkach uzyskano
około 6 mln m3 dodatkowej rezerwy. Jest to bardzo konkretna korzyść, któ-
rą można przeliczyć na złotówki uwzględniając realne koszty uzyskania
1 m3 wody w sztucznym zbiorniku retencyjnym.
 Uzyskać największą możliwą oczekiwaną redukcję maksymalnego odpły-
wu ze zbiornika. W sytuacji niepewności można rozumieć optymalność ste-

64
rowania tylko jako wymóg minimalizacji wartości oczekiwanej, tj. wynik
jest optymalny w sensie statystycznym, a konkretne realizacje sterowań są
realizacjami zmiennej losowej.
 Eliminować bardzo poważne zagrożenia wynikające z niepewności pro-
gnoz, tj. zagrożenie zwiększeniem powodzi przez zbiornik oraz zagrożenie
całkowitym wypełnieniem zbiornika przed kulminacją dopływu.
Badania symulacyjne wykazały istotną i bezinwestycyjną (!) poprawę wyników
gospodarki powodziowej na zbiornikach, gdy prognozy kategoryczne zastąpimy
prognozami w postaci wiązki oraz wykorzystamy proponowany algorytm stero-
wania.
10.
Badano również wykorzystanie długoterminowej (miesięcznej) prognozy hydro-
gramu dopływu do zbiornika Sulejów na Pilicy w sterowaniu pracą zbiornika
w okresie suszy. Stwierdzono, że podejście takie eliminuje poważne zagrożenie,
jakim jest całkowite opróżnienie zbiornika.
11.
Konkretnym końcowym efektem badań nadającym się do bezpośredniego wyko-
rzystania jest nowa metodyka opracowywania instrukcji sterowania zbiornikami
retencyjnymi w okresie powodzi i suszy, pozwalająca znacznie poprawić efekty
sterowania, w stosunku do instrukcji dotychczas wykorzystywanych. Podkreślić
należy, że poprawę tę można uzyskać bezinwestycyjnie. Nowa metodyka po-
zwala wykorzystać w pełni możliwości, jakie stworzyła modernizacja systemu
prognoz IMGW. Wydaje się celowe podjęcie działań zmierzających do wdroże-
nia zaprezentowanej metodyki sterowania gospodarką powodziową na istnieją-
cych i projektowanych zbiornikach retencyjnych, pełniących funkcję ochrony
przed powodzią. Prace należałoby rozpocząć od wdrożenia pilotowego, np. dla
zbiorników Kaskady Soły. Należy jednak pamiętać, że wdrożenie instrukcji
gospodarki wodnej wykorzystującej wielowariantową ilościową prognozę opa-
dów wymaga równoległego uruchomienia w IMGW operacyjnego systemu wy-
konywania takiej prognozy.
Badania pokazały, że możliwe jest uzyskania znacznych efektów przez za-
stąpienie w procesach decyzyjnych prognozy kategorycznej prognozą warianto-
wą. W literaturze fachowej oraz w praktyce operacyjnej coraz większej liczby
służb hydrologiczno-meteorologicznych podejście takie staje się rutyną. W Pol-
sce natomiast prowadzone od 40 lat próby rozpowszechniania prognoz sformu-
łowanych w postaci ujawniającej ich niepewność spotkały się ze zdecydowaną
niechęcią decydentów. Było to przyczyną zaniechania rozpowszechniania przez
IMGW prognoz sformułowanych probabilistycznie (np. prognoz tygodniowego
dopływu do zbiorników retencyjnych). Taki, naszym zdaniem, niekorzystny stan
rzeczy wynika z kilku przyczyn omówionych szerzej w p. 6.1. Przełamanie nie-
chęci użytkowników jest ważnym zadaniem, które można zrealizować jedynie
na bazie precyzyjne przygotowanego szerokiego programu szkoleń dla właści-
cieli i operatorów zbiorników, decydentów oraz projektantów.

65
10. Literatura

Bellman R.E., Dreyfus S.E., 1967: Programowanie dynamiczne. PWE, Warszawa


Bobiński E., 1981: Current procedures for updating hydrological forecasts. Raport techniczny
Komisji Hydrologii WMO, Genewa
Bobiński E., Żelaziński J., 1996: Czy można przerwać błędne koło ochrony przeciwpowodziowej?
Gospodarka Wodna nr 3
Bobiński E., Kadłubowski A., Żelaziński J., 1998: Ocena roli zbiorników wodnych w Czorsztynie
– Niedzicy w ochronie przeciwpowodziowej w lipcu 1997. W: Ekologiczne metody zapo-
biegania powodzi
Box G., Jenkins G., 1983: Analiza szeregów czasowych. Prognozowanie i sterowanie. PWN,
Warszawa
Ciepielowski A., 1999: Podstawy gospodarowania wodą. Wyd. SGGW, Warszawa
Dokumentacja Modelu Mezoskalowego COSMO-DWD. Part I Scientific Documentation, Part II
Implementation Documentation, Part III User guide
Efron B., Tibshirani R., 1993: An Introduction to the Bootstrap. Chapman & Hall
Findeisen W., 1979: Studies in control methodology for water resources systems. Institute of
Automatic Control, Technical University of Warsaw
Grasseberger P., 1991: Information and complexity measures in dynamical systems. Information
Dynamics. Proceedings of NATO Advanced Study Institute on Information Dynamics, Ple-
num Press, New York.
Kaczmarek Z., 1960: O prognozowaniu zjawisk losowych. Prz. Geofiz., V, 3
Kaczmarek Z., 1970: Metody statystyczne w hydrologii i meteorologii. WKiŁ, Warszawa
Karczmarek Z., 1984: Kryteria sterowania systemami wodnogospodarczymi. Prz. Geofiz.
Klemeš V. 2000: Tall tales about tails of hydrological distributions. J. of Hydr. Eng. Asc., Cz. I
5(3) 227–231, m cz. II – 5(3) 232–239
Klir G. J., 1991: Measures and Principles of Uncertainty and Information. Information Dynamics.
Proceedings of NATO Advanced Study Institute on Information Dynamics, Plenum Press,
New York
Malinowski K., Żelaziński J.: 1990: Reservoir Systems: Operational Flood Control. (Systems &
Control Encyklopedia supplementary volume 1) Pergamon Press
Mierkiewicz M., 2002: Porozmawiajmy o ... updatingu. Gazeta Obserwatora IMGW. Nr 6
Popper K.R., 1996: Wszechświat otwarty, argumenty na rzecz indeterminizmu. Wyd. Znak, Kra-
ków. Wydanie polskie
Shackle G.L.S., 1961: Decision, Order, and Time in Human Affairs. Cambridge University Press,
Cambridge
Śliwa A., 2005: Zbiornik Wióry – gospodarka przeciwpowodziowa. Gospodarka Wodna 5

66
Theis S., 2003: Deriving Probabilistic Precipitation Forecasts from LM Simulation. Contribution
to the COSMO Newsletter No.3
Zawiślak T., 2005: Warunki synoptyczne występowania intensywnych opadów deszczu w Polsce
południowo-zachodniej na przykładzie lat 2001–2003. [W] Ekstremalne zjawiska hydrolo-
giczne i meteorologiczne. Warszawa PTGeof., IMGW. S. Monografie IMGW
Żelaziński J., 1987: Prognoza hydrogramu odpływu jako podstawa sterowania zbiornikiem reten-
cyjnym w czasie powodzi. Niepublikowana rozprawa doktorska
Żelaziński J., 1995: Sterowanie systemem zbiorników retencyjnych podczas powodzi z uwzględ-
nieniem niepewności. Sprawozdanie końcowe z realizacji projektu badawczego Nr 8 5505
020 04, finansowanego przez KBN realizowanego w latach 1993-1995 przez zespoły Insty-
tutu Automatyki i Informatyki Stosowanej Politechniki Warszawskiej oraz Instytutu Mete-
orologii i Gospodarki Wodnej (maszynopis)
Żelaziński J., 1999: Catastrophic flood in the Odra river basin: experience gained during and after
the flood. La Houille Blanche, Revue Internationale de l’Eau. No 3/4 – 2000/ s.103–109
Żelaziński J., 2000: Niepewność w gospodarce wodnej. [W] Ryzyko w gospodarce wodnej. Praca
zb. pod red. M. Maciejewskiego. Monografie KGW PAN. Z. 17, s.7-44
Żelaziński J, Mierkiewicz M., 2002: The stochastic precipitation model as a base of alarm system.
„Advances in Hydro-Science and Engineering”, conference ICHE, Warsaw 2002.
Żelaziński J., 2007: Skutki ignorowania zasady maksymalnej niepewności w ochronie przeciwpo-
wodziowej. [W] Cywilizacja i żywioły, Warszawa, PTGeof., IMGW. S. Monografie IMGW
Żelaziński J., Mierkiewicz M., 2008: Ensemble predictions in hydrology: necessity, preparation
and using in water management decision processes. Colloque SHF-191e CST – „Prévisions
hydrométéorologiques”, Lyon, 18-19 novembre 2008)

67
Hydrological ensemble predictions
in water management decision processes
Abstract
Thousand telemetric hydro-meteorological posts, network of meteorological radars,
a supercomputer, set of hydrological models, mesoscale meteorological models and
many other tools were implemented to operation. However, quality of the most impor-
tant hydrological forecasts, i.e. hydrograph forecasts for small and medium mountain
catchments are still far from decision maker’s expectations. During the flood in a small
mountain catchment the decision maker, who decides about water outflow from the
reservoir, wants exact hydrograph forecasts for next several hours. During the drought,
the decision maker needs exact forecasts for next 2–3 months. Different studies have
revealed that above expectations are absolutely unrealistic, first of all because of lack of
precise quantitative precipitation forecasts.
In the close future the important progress in quantitative precipitation forecasts qual-
ity is practically impossible, is unrealistic because of chaotic nature of the atmosphere
and difficulties of precise estimating initial conditions.
Precipitation forecasts biased by substantial errors are used as an input to the hydro-
logical model. It causes large errors in hydrograph forecasts. Many simulations show
that uncorrected hydrographs in a categorical form (only one possible realization of the
future hydrograph) can cause inadmissible losses in decision processes.
The more rational solution is an eensemble hydrological forecast, but one should be
aware that special decision rules are needed in this decision making process. A simple
way to achieve a hydrological ensemble is to introduce the precipitation ensemble into
the hydrological model. Unfortunately, up to this day in Poland the meteorological fore-
cast is formulated in a categorical form. Some part of researches has been devoted to
prepare algorithms that enable to transform one categorical precipitation forecast into a
set of hyetograms, i.e. the precipitation ensemble. These are: a stochastic precipitation
model, a bootstrap method and a postprocessing procedure.
The very important problem is to develop decision algorithms that could transform
ensemble hydrological forecasts into an optimal decision. Authors concentrate on the
operational control of reservoirs during the flood or drought period. A detailed descrip-
tion of those complicated algorithms is presented in the full text. A concept of a repeti-
tive control of parameters is used in decision. It is showed that in the case of the sto-
chastic control outflow from the reservoir during the flood we can obtain many different
control results using the criteria prepared based on the expected value.
The most important result of the studies can be formulated as follows: using the en-
semble hydrological predictions and the proper decision algorithm the important pro-
gress in the reservoir control can be achieved even based on the imperfect forecast sys-
tem. This effect can be achieved without additional costs.

68

You might also like