Professional Documents
Culture Documents
Materiały Badawcze IMGW 24 - Gospodarka Wodna I Ochrona Wód PDF
Materiały Badawcze IMGW 24 - Gospodarka Wodna I Ochrona Wód PDF
ISSN 0239-6238
Janusz Żelaziński
Małgorzata Mierkiewicz
Wykorzystanie wielowariantowej
prognozy hydrologicznej w sterowaniu
zbiornikami retencyjnymi
________________________________________________________________________________________________________________________________________________________________
Recenzent:
prof. dr hab. inż. Jarosław Napiórkowski
2
Spis treści
1. Konieczność decydowania jako skutek niepewności ........................................ 5
2. Niepewność jako jedno z „praw przyrody” ...................................................... 8
3. Cel pracy .............................................................................................................. 12
4. Ocena możliwości zaspokojenia potrzeb użytkowników prognoz hydrologicz-
nych ....................................................................................................................... 14
4.1. Ogólne wymagania ....................................................................................... 14
4.2. Czas wyprzedzenia prognozy hydrologicznej opartej na wynikach obserwacji
opadu – konieczność wykorzystywania ilościowych prognoz opadu .......... 14
4.3. Krok czasowy dostępnych ilościowych prognoz opadu ............................... 15
4.4. Zróżnicowanie przestrzenne wyników ilościowych prognoz opadów ......... 16
4.5. Potrzeba uwzględnienia niepewności prognoz opadu .................................. 17
5. Niepewność prognoz opadu ................................................................................ 19
5.1. Miary niepewności ........................................................................................ 19
5.2. Wyniki analizy niepewności ilościowych prognoz opadu ............................ 21
6 Wielowariantowe ilościowe prognozy opadów ................................................. 24
6.1. Uwagi wstępne .............................................................................................. 24
6.2. Stochastyczny model prognozy opadów (1) – model Boxa-Jenkinsa .......... 24
6.3. Stochastyczny model opadów (2) – podejście bootstrapowe ....................... 29
6.4. Generowanie opadów ................................................................................... 34
6.5. Podsumowanie .............................................................................................. 36
7. Przetwarzanie wielowariantowej prognozy opadu w wielowariantową
prognozę hydrogramu odpływu .................................................................. 37
8. Wykorzystanie prognozy hydrologicznej sformułowanej w postaci wiązki
przyszłych możliwych realizacji hydrogramu odpływu w sterowaniu
zbiornikami retencyjnymi .................................................................................. 38
8.1. Uwagi wstępne .............................................................................................. 38
8.2. Kryteria w warunkach niepewności .............................................................. 39
8.3. Przeszkoda wymiarowości ............................................................................ 42
8.4. Wykorzystanie wielowariantowej prognozy hydrologicznej w sterowaniu
zbiornikiem retencyjnym podczas powodzi – przykład zbiornika Wióry
na rzece Świślinie ......................................................................................... 44
8.5. Wykorzystanie wielowariantowej prognozy hydrologicznej w sterowaniu
zbiornikiem retencyjnym podczas powodzi – przykład zbiornika Tresna
na rzece Sole ................................................................................................. 50
8.5.1. Wprowadzenie .................................................................................... 50
8.5.2. Sterowanie w okresie tworzenia rezerwy dodatkowej ........................ 51
8.5.3. Sterowanie w okresie szczytu fali ....................................................... 52
8.5.4. Optymalizacja parametru a ................................................................. 53
8.5.5. Symulacja sterowań i jej wyniki ......................................................... 55
8.6. Sterowanie zbiornikiem Sulejów na Pilicy w okresie suszy ........................ 58
9. Podsumowanie i wnioski ............................................................................. 63
10. Literatura ................................................................................................. 66
Abstract ...................................................................................................................... 68
4
„Jedyną rzeczą pewną jest niepewność”
(Jerzy Kołodziejski)
5
W sytuacji braku reguł (anarchii) najlepiej zabić przeciwnika, co wyklu-
cza przegraną.
W gospodarowaniu wodą niepewność jest szczególnie duża i znane są przy-
padki fatalnych skutków nadmiernej wiary w poprawność przyjmowanych zało-
żeń, scenariuszy rozwoju społeczno-ekonomicznego oraz wszelkich prognoz.
Oto niektóre przykłady.
W latach siedemdziesiątych przewidywano, że w roku 2000 zapotrzebowa-
nie na wodę w Polsce będzie ok. 40 mld m3 rocznie. Istotnym elementem
w tym zapotrzebowaniu było zapotrzebowanie rolnictwa – wynikało to
z tezy, iż „każdy kłos na wagę złota”, co oznacza nieograniczone zapotrze-
bowanie na żywność. Faktyczne zapotrzebowanie na wodę w roku 2000
wyniosło ok. 7 mld m3 i w 90% były to pobory otwartych systemów chłod-
niczych elektrowni, z których to poborów 90% wody wracało do rzek. Nie
były to tylko „błędy i wypaczenia” socjalizmu, podobne scenariusze trak-
towano bowiem poważnie na całym świecie. Powstawały programy budo-
wy gigantycznych zbiorników retencyjnych, przerzutów wody regulacji
rzek, melioracji rolnych. Systemy melioracji, ukierunkowane na odwodnie-
nia, w znacznym stopniu w Polsce zrealizowano. Skutkiem były ogromne
wydatki, finansowane przez budżet oraz głównie dewastacja środowiska.
Korzyści, o ile w ogóle wystąpiły, okazały się nieistotne – mamy nadpro-
dukcję żywności, a rolnictwo tworzy ok. 2% produktu narodowego brutto
i funkcjonuje dzięki różnym dotacjom. Na znacznych obszarach kraju brak
małych rzek, istnieją tylko rowy melioracyjne pozbawione jakichkolwiek
walorów przyrodniczych. Zniszczenie retencji osuszonych mokradeł skut-
kuje zwiększeniem zagrożeń powodziami i suszą. Tylko mizeria finansowa
uratowała polskiego podatnika przed jeszcze większymi bezsensownymi
wydatkami, a polskie rzeki przed kompletną dewastacją w wyniku realizacji
wszystkich proponowanych inwestycji. Niemniej jednak stworzona wów-
czas presja trwa do dziś. Przykładem może tu być „Program dla Odry
2006”, walka o budowę stopnia Nieszawa na Wiśle oraz „lista indykatyw-
na” inwestycji proponowanych do realizacji przy współfinansowaniu przez
Unię Europejska. Poglądy na cele i środki działania gospodarki wodnej
zmieniły się diametralnie i obecnie najbardziej prawdopodobny scenariusz
to eskalacja wydatków na renaturyzację rzek zniszczonych przez hydro-
techników i meliorantów. Jest to przykład skutków wykorzystania sformu-
łowanej kategorycznie, traktowanej jako pewna prognozy rozwoju społecz-
no-gospodarczego.
Podczas powodzi w roku 1960, zbiornik Rożnowski na Dunajcu spowodo-
wał zwiększenie maksymalnego przepływu poniżej zbiornika w wyniku de-
terministycznego, tj. nieuwzględniającego niepewności, potraktowania pro-
gnozy dopływu do zbiornika. Historia hydrotechniki notuje więcej takich
przypadków, będących skutkiem potraktowania jako pewnej kategorycznie
sformułowanej, krótkoterminowej prognozy hydrologicznej.
6
Powódź w dorzeczu Odry w 1997 roku zaskoczyła swoimi rozmiarami.
Prawdopodobieństwo wystąpienia tak wielkiego przepływu w górnej Odrze
oceniono bezpośrednio po tym wydarzeniu na 0,01% (średnia powtarzal-
ność rzędu 10 000 lat). Jest to oczywisty absurd wynikający z nieuzasad-
nionej wiary w stosunkowo niewielkie błędy oszacowań maksymalnych
przepływów o określonym prawdopodobieństwie przewyższenia. Problem
ten był szerzej dyskutowany w pracy Żelazińskiego (2007). Rozmiary po-
wodzi spowodowały m.in., że instrukcje eksploatacyjne zbiorników reten-
cyjnych stały się nieprzydatne, podczas opracowywania tych instrukcji nie
uwzględniono bowiem możliwości pojawienia się tak wielkich fal. W przy-
padku zbiornika Nysa na Nysie Kłodzkiej spowodowało to nieznaczne
zwiększenie przepływów Odry poniżej ujścia Nysy Kłodzkiej w stosunku
do sytuacji bez zbiornika. Szczegółowe dochodzenie wykazało, że nie było
to zaniedbanie ze strony decydentów, lecz wynik stanu wiedzy sprzed po-
wodzi.
7
2. Niepewność jako jedno z „praw przyrody”
Pojęcie niepewności traktujemy intuicyjnie, jako niedostatek informacji po-
trzebnej do rozwiązania problemu. Informacja może być niekompletna, niepre-
cyzyjna, fragmentaryczna, niecałkowicie pewna, niejasna, sprzeczna lub w jaki-
kolwiek inny sposób niedostateczna.
Historia nauki to historia pozyskiwania nowej, pełniejszej i coraz lepiej
opisującej rzeczywistość informacji o otaczającym świecie, a zatem może być
traktowana jako proces ograniczania niepewności. Poglądy na temat możliwości
eliminacji niepewności w wyniku postępu nauki uległy w mijającym stuleciu
istotnej ewolucji. Wywodzące się z osiemnastowiecznych koncepcji mechani-
stycznych przekonania deterministyczne, zgodnie z którymi niepewność jest
wyłącznie wynikiem naszej ignorancji, zostały podważone. Mechanika kwanto-
wa wskazała na chaotyczne i nieprzewidywalne zachowanie się cząstek elemen-
tarnych. Przekonanie, iż chaos jest jedną z właściwości świata mikrocząstek,
z trudem torowało sobie drogę – znane jest powiedzenie Einsteina, iż „Bóg nie
gra w kości”. Eksperymentalne potwierdzenie tez mechaniki kwantowej wyka-
zało, iż Einstein nie miał racji.
Przez wiele lat panowało przekonanie, iż w skali makro świat jest przewi-
dywalny. Powszechnie sądzono, że jeżeli zbudujemy adekwatny model matema-
tyczny oraz określimy warunki początkowe i brzegowe to problem prognozy
stanie się tylko problemem obliczeniowym, który można rozwiązać doskonaląc
metody numeryczne i komputery. Pojawienie się teorii deterministycznego cha-
osu zachwiało tym przekonaniem, aczkolwiek wśród wielu polskich meteorolo-
gów wydaje się ono nadal powszechne... Istotę zjawiska, o którym mówimy,
można określić następująco: złożone, nieliniowe systemy dynamiczne są wpra-
wdzie deterministyczne (tj. mogą być opisane układem deterministycznych rów-
nań różniczkowych zwyczajnych), lecz nieprzewidywalne, co oznacza, iż nie-
możliwe jest dokładne prognozowanie zachowania się takiego systemu w przy-
szłości. Modele globalnego klimatu, modele rozwoju społeczno-ekonomicznego
oraz modele prognoz meteorologicznych są złożone i nieliniowe.
W naukach humanistycznych również pojawiły się poglądy o nieprogno-
zowalności świata. Najdobitniej wyraził to filozof Karl Popper (1996) uzasad-
8
niając swoje indeterministyczne przekonania. Interesujący jest fakt, iż do po-
dobnych poglądów doszli badacze różnych specjalności, wychodząc z odmien-
nych przesłanek i posługując się odmienną metodologią.
Ponieważ skutki bieżących decyzji podejmowanych w gospodarce wodnej
zależą istotnie od przyszłego przebiegu zjawisk hydrometeorologicznych oraz
od przyszłego rozwoju społeczno-ekonomicznego, poprawa jakości dostępnej
aktualnie informacji na temat przyszłości może poprawiać jakość decyzji. Po-
trzeba prognozy jest więc oczywista, czy jednak w świetle przytoczonych wyżej
poglądów, traktujących niepewność jako jedną z podstawowych właściwości
świata, oczekiwanie „dobrej prognozy” jest zasadne?
Tezy o nieprognozowalności nie mogą być traktowane fundamentalistycz-
nie, jako przekonanie o całkowitym chaosie panującym we wszechświecie. Jest
to raczej pragmatyczna konstatacja, iż niepewności, pomimo osiągnięć nauki,
nigdy nie da się całkowicie wyeliminować, a podejmowanie decyzji przy wyko-
rzystaniu najdoskonalszych dostępnych aktualnie i w przyszłości prognoz zaw-
sze będzie związane z ryzykiem błędu. Jednocześnie jednym z paradygmatów
nauki jest konieczność powtarzalnych wyników eksperymentów potwierdzają-
cych naukowe hipotezy, co w oczywisty sposób zakłada możliwość prognozo-
wania ich wyników. Właściwe jest zatem mówienie o ograniczonej prognozo-
walności, nie zaś o jej całkowitym braku. Bezdyskusyjna jest więc konieczność
doskonalenia istniejących i poszukiwania nowych modeli prognostycznych,
mając jednak zawsze świadomość istnienia obecnie i w przyszłości granic pro-
gnozowalności.
Wydaje się, że jedną z podstawowych przyczyn rozczarowania decydentów
i techników efektami wdrażania wyników badań w dziedzinie hydrologii i go-
spodarki wodnej, w tym wyników doskonalenia modeli i procedur prognostycz-
nych, jest niewłaściwe rozumienie niepewności. Ludziom trudno zaakceptować
fakt, iż niepewność jest jedną z podstawowych właściwości świata, podobnie jak
np. zasada zachowania energii, i kontynuując tę analogię, że nadzieja na elimi-
nację niepewności jest podobnie złudna jak nadzieja na zbudowanie perpetuum
mobile. Ponieważ nawet Einstein nie akceptował niepewności jako jednej z za-
sad fizyki, przyczyną oporów nie jest nieuctwo, lecz głęboko zakorzenione
przekonania, zwłaszcza w kręgu cywilizacji europejskiej, gdzie powstał mecha-
nistyczny i deterministyczny model świata. Teza o ograniczonej prognozowal-
ności może stanowić atrakcyjne alibi dla osób i zespołów zajmujących się róż-
nego rodzaju prognozami, w przypadku gdy prognozy okazują się nietrafne, lecz
jest wysoce deprymująca dla menedżerów i polityków usiłujących podejmować
racjonalne decyzje przy wykorzystaniu różnych ekspertyz i prognoz. Powinni
oni jednak zawsze pamiętać, że niepewność istnieje, prognozy ją tylko ograni-
czają, a nie likwidują, że ograniczenie niepewności może poprawić decyzje, lecz
zazwyczaj nie da się tej poprawy osiągnąć traktując prognozy deterministycznie.
W opisanej sytuacji podstawowym błędem jest ocenianie jakości decyzji
a posteriori, gdy wydarzenie (np. powódź) się skończyło, i dostępna jest cała
wiedza o jego przebiegu i skutkach. Oczywiście oceny takie były i będą wyko-
9
nywane, a często prowadzą one do pożytecznych wniosków, jeżeli np. ujawniają
zawodność systemów obiegu informacji lub inne niesprawności techniczne
i organizacyjne. Błąd polega natomiast na porównywaniu rzeczywistych efektów
osiągniętych w warunkach operacyjnych z efektami maksymalnymi możliwymi
do uzyskania przy pełnej wiedzy (tj. idealnej prognozie). Niestety często oceny
pracy służb powodziowych (w tym służby prognoz) wykonywane po zakończe-
niu powodzi prowadzą do stawiania zarzutów podobnie bezsensownych jak za-
rzut niewłaściwego typowania liczb w totolotku.
Historia prowadzonych w Polsce prac nad doskonaleniem prognoz powodzi
dobrze ilustruje praktyczne skutki ograniczonej prognozowalności w dziedzinie
gospodarki wodnej. W wyniku tych prac powstały modele prognostyczne i mo-
dele wspomagania decyzji istotnie poprawiające efektywność sterowania zbior-
nikami retencyjnymi w okresie powodzi w porównaniu ze stosowanymi obecnie
metodami tradycyjnymi. Nowe metody nie zostały wdrożone, gdyż nie spełniają
oczekiwań, tj. nie prowadzą do decyzji idealnych, możliwych do uzyskania
w wyniku bezbłędnej prognozy.
Główną przyczyną niepewności prognoz hydrologicznych okazał się brak
dobrych ilościowych prognoz opadu. Szybki rozwój komputerów i związanych
z tym możliwości obliczeniowych pozwalał sądzić, że wspomniana bariera zo-
stanie wkrótce przełamana. Oczekiwania te nie sprawdziły się. Trafne, ilościowe
prognozy hietogramu dla zlewni średniej wielkości z okresem wyprzedzenia
ok. 2-3 dni są nadal nieosiągalne, zarówno w kraju jak i zagranicą, tak jak przed
25 laty. Nadzieja na pokonanie tej bariery przez zagęszczanie siatki obliczenio-
wej w hydrodynamicznych modelach atmosfery oraz wykorzystywanie technik
telemetrycznych do oceny warunków początkowych okazała się jak dotychczas
iluzją. Wydaje się, że prognozy hydrogramu odpływu ze zlewni o czasie wy-
przedzenia pozwalającym na skuteczne decyzje oraz o trafności umożliwiającej
deterministyczne traktowanie prognoz w algorytmach decyzyjnych zawsze będą
nieosiągalne. Do takich pesymistycznych wniosków skłaniają wyniki badań
deterministycznego chaosu (Grasseberger 1991). Tylko właściwe, tj. uwzględ-
niające niepewność, potraktowanie dostępnych aktualnie prognoz hydrologicz-
no-meteorologicznych może w istotny sposób poprawić jakość decyzji w sto-
sunku do decyzji podejmowanych bez wykorzystywania tych prognoz, lub też
przy ich deterministycznym potraktowaniu. Wyniki badań, które od lat w tej
dziedzinie prowadzili autorzy niniejszej pracy upoważniają do powyższego
stwierdzenia (Żelaziński 1987, Żelaziński i in. 1995).
W pracy koncentrujemy się na przykładach dotyczących ochrony przed
zjawiskami ekstremalnymi – powodzią i suszą. Wynika to z zainteresowań auto-
rów, lecz dyskutowane problemy występują w całym obszarze szeroko rozumia-
nej gospodarki wodnej.
Podczas dyskusji na temat niepewności często jest zadawane pytanie: jak
można podjąć działanie (które musi być jednoznaczne, tak jak konkretny ruch na
szachownicy), gdy mamy świadomość, że skutki tego działania mogą być bar-
dzo różne? Proponowana odpowiedź jest następująca: musimy rozważyć różne
10
możliwe działania (również zaniechanie działań!), zbadać ich różne możliwe
skutki i wybrać takie działanie, które uznamy za najlepsze, mając świadomość
jego różnych możliwych skutków. Proponowana odpowiedź prowadzi do ko-
nieczności przeprowadzenia następującej procedury:
1. Trzeba przeanalizować wiele wariantów działań. Wybór liczby i rodzaju
wariantów jest decyzją. Ograniczenie rodzaju i liczby wariantów wyni-
kające z wyobraźni, wiedzy lub przekonań, decydenta, jak również
z możliwości technicznych, ograniczeń finansowych, czasowych i praw-
nych rzutuje na jakość rozwiązania, tworzy ryzyko błędnego wyboru
i odpowiedzialności za ten wybór, co jest niezbywalną cechą procesu
decyzyjnego.
2. Trzeba dokonać prognozy skutków wybranych wariantów działań.
W gospodarce wodnej mogą to być bardzo różne skutki: społeczno-eko-
nomiczne, ekologiczne i kulturowe. Wybór zakresu prognozy, a także
narzędzi wykorzystywanych w prognozowaniu jest również decyzją,
która oczywiście stwarza ryzyko błędu.
3. Trzeba ustalić zbiór kryteriów pozwalających ocenić prognozowane
skutki rozważanych wariantów działań. Ponieważ każde działanie po-
woduje wiele różnych skutków mówimy o systemie kryteriów, trudno
bowiem jedną miarą oceniać np. skutki ekonomiczne, społeczne i śro-
dowiskowe. Niemniej jednak ten system kryteriów powinien umożli-
wiać wybór preferowanego wariantu działania. Wybór systemu kryte-
riów jest decyzją najważniejszą i najtrudniejszą.
Oczywiście w sytuacji operacyjnej, gdy przykładowo trzeba podjąć decyzję
o ewakuacji z terenu zagrożonego powodzią, brakuje czasu na wykonanie trzech
opisanych wyżej kroków. Muszą być one wykonane w fazie przygotowania de-
cydentowi, osobie podejmującej operacyjną decyzję o ewakuacji lub jej zanie-
chaniu, narzędzi wspomagających podejmowanie decyzji. Jednym z takich
narzędzi jest instrukcja gospodarki dla zbiornika retencyjnego i głównie tym
narzędziem, będziemy się zajmowali w dalszej części pracy. W naszych rozwa-
żaniach pomijamy procedury, które doprowadzają do budowy zbiornika oraz
przypisaniu temu zbiornikowi określonych funkcji. Zajmujemy się zbiornikami
istniejącymi, które powinny być eksploatowane możliwie efektywnie. Podkre-
ślamy jednak fakt, iż cele, dla których buduje się zbiorniki, można zazwyczaj
osiągnąć bardzo różnymi metodami (wariantami działań) i decyzja o wyborze
wariantu powinna być podejmowana w wyniku zaproponowanej wyżej procedu-
ry z uwzględnieniem niepewności prognoz rozwoju społeczno ekonomicznego
i niepewności prognoz hydrologicznych.
11
3. Cel pracy
Po powodzi 1997 roku Bank Światowy udzielił Polsce pożyczki na naprawę
szkód powodziowych oraz realizację programu ograniczenia ryzyka powodzi.
Istotnym komponentem programu finansowanego z tej pożyczki oraz innych
źródeł krajowych i zagranicznych była modernizacja systemu prognoz hydrolo-
gicznych i meteorologicznych Instytutu Meteorologii i Gospodarki Wodnej
(IMGW). Komponent ten został zrealizowany, co uczyniło polską służbę hydro-
logiczno-meteorologiczną jedną z najbardziej zaawansowanych służb w skali
światowej pod względem wyposażenia w nowoczesną zautomatyzowaną sieć
pomiarową oraz systemy gromadzenia, przetwarzania i rozpowszechniania in-
formacji. Oczekiwania użytkowników tej informacji, a w szczególności użyt-
kowników prognoz niestety zdecydowanie przekraczają aktualne możliwości
nauki i techniki. Użytkownik prognoz oczekuje dokładnej (bezbłędnej) prognozy
o okresie wyprzedzenia umożliwiającym podjęcie najlepszej decyzji. W przy-
padku decyzji podejmowanych w związku z zapobieganiem skutkom suszy po-
żądany okres wyprzedzenia to miesiąc, a nawet sezon. W operacyjnej ochronie
przeciwpowodziowej użytkownicy oczekują dokładnej prognozy hydrogramu
odpływu ze zlewni górskiej o okresie wyprzedzenia rzędu kilkudziesięciu go-
dzin. Są to oczekiwania, których spełnienie aktualnie i najprawdopodobniej kie-
dykolwiek jest nierealne.
Celem niniejszej pracy jest zaproponowanie algorytmów podejmowania de-
cyzji w operacyjnej ochronie przed skutkami powodzi i suszy przy realnie do-
stępnej, czyli obarczonej znacznymi błędami prognozie hydrologicznej. Jest to
cel ważny, bowiem jego osiągnięcie umożliwia pełne wykorzystanie informacji
prognostycznej wytwarzanej przez nowoczesny system, którego realizacja i eks-
ploatacja jest związana ze znacznymi nakładami. Inaczej mówiąc dążeniem na-
szym było bezinwestycyjne zwiększenie efektywności nowego systemu prognoz
eksploatowanego w IMGW.
Znaczna część pracy poświęcona jest sformułowaniu propozycji uzyskiwa-
nia ilościowych prognoz opadu w postaci prognozy wielowariantowej reprezen-
tującej niepewność prognozy. Określenie „prognoza wielowariantowa” jest pro-
pozycją polskiego odpowiednika angielskiego terminu „ensemble prediction”.
12
Konieczność uwzględnienia w pracy problemu ilościowych prognoz opadów
wynika z następujących przyczyn:
(1) Ilościowa prognoza opadu w postaci reprezentującej niepewność jest
niezbędna ze względu na potrzeby procesów decyzyjnych. Kategorycz-
ne prognozy hydrologiczne uzyskane na podstawie kategorycznie sfor-
mułowanych prognoz meteorologicznych nie budzą zastrzeżeń dopóty,
dopóki błędy prognoz hydrologicznych są zaniedbywalne z punktu wi-
dzenia efektywności decyzji podejmowanych na podstawie takich pro-
gnoz. Niestety jakość prognoz opadowych uzyskiwanych z dostępnych
modeli mezoskalowych i wynikająca z tego jakość prognoz hydrolo-
gicznych nie jest zadowalająca.
(2) Wielowariantowe prognozy meteorologiczne nie są w Polsce wykony-
wane. Tak więc autorzy pracy w sytuacji konieczności wykorzystywa-
nia prognoz wielowariantowych i nie wykonywania takich prognoz
przez polska służbę musieli zająć się problemem należącym w istocie
do obowiązków służby meteorologicznej.
13
4. Ocena możliwości zaspokojenia potrzeb
użytkowników prognoz hydrologicznych
4.1. Ogólne wymagania
W działaniach operacyjnych zapobiegających skutkom powodzi oczekuje
się, aby:
• prognoza była sformułowana w postaci hydrogramu przepływu/stanu wody;
• czas wyprzedzenia prognozy hydrogramu odpływu/stanu był dostatecznie
długi dla podjęcia optymalnej decyzji, a krok czasowy kolejnych rzędnych
hydrogramu był odpowiednio krótki, tak by błąd w ocenie kulminacji wez-
brania był zaniedbywany;
• prognozy były bezbłędne.
Zasadność tych oczekiwań oraz możliwość ich zaspokojenia przedstawiono
poniżej, analizując problem sterowania falą powodziową przy wykorzystaniu
zbiorników retencyjnych (problem ten należy do najtrudniejszych). Należy pod-
kreślić, że podobne uwarunkowania występują w każdym przypadku, gdy pro-
gnozy hydrologiczne są wykorzystywane do wspomagania decyzji ograniczają-
cych szkody powodziowe. W przypadku decyzji ograniczających skutki suszy
dodatkowo jest wymagany szczególnie długi okres wyprzedzenia prognozy.
14
prognozy hydrogramu dopływu do zbiornika dla całego okresu trwania fali
powodziowej. Wyniki wieloletnich badań problemu sterowania zbiornikami re-
tencyjnymi w okresie powodzi (Żelaziński i in. 1995, Żelaziński 1999) wykaza-
ły, że nie można oczekiwać istotnej poprawy wyników sterowania repetycyjnego
z wykorzystaniem trafnych prognoz o krótkim, kilkugodzinnym okresie wyprze-
dzenia. Skutków błędnego sterowania, polegającego na zbyt szybkim lub zbyt
powolnym napełnianiu zbiornika, nie można bowiem naprawić przez zmiany
sterowania w kolejnych krokach sterowania repetycyjnego. Czas trwania prze-
pływów powodziowych podczas wysokich wezbrań rzek górskich to 40-70 go-
dzin. Z przytoczonych oszacowań wynika, że prognozę hydrogramu odpływu
pozwalającą na skuteczne sterowanie zbiornikiem retencyjnym w okresie powo-
dzi można uzyskać wykorzystując prognozę hydrogramu odpływu opartą na
prognozie hietogramu z dwu- lub trzydobowym wyprzedzeniem. Inaczej
mówiąc, niezbędnym ze względu na użyteczność wyników końcowych wej-
ściem do modelu prognozy hydrogramu odpływu deszczowego (obok wyników
pomiarów opadu poprzedzających moment stawiania prognozy) jest prognozo-
wany na kilkadziesiąt godzin hietogram opadu średniego dla zlewni (potrze-
ba uśrednienia opadu wynika z posługiwania się w prognozach hydrologicznych
przeważnie modelami o parametrach skupionych lub dyskretnie rozłożonych).
Podobna sytuacja występuje w przypadku zbiorników nizinnych. Najgroź-
niejsze wezbrania opadowe występują w zlewniach nizinnych średniej wielkości
(Pilica, Bzura, Wkra, Prosna i in.). Czas dobiegu w takich zlewniach jest wpraw-
dzie dłuższy niż w zlewniach górskich (rzędu kilkudziesięciu godzin), lecz od-
powiednio dłużej trwają też wezbrania. Zatem skuteczne sterowanie wymaga,
podobnie jak w górach, prognozy hietogramu o czasie wyprzedzenia ok. 3 dni.
W przypadku sterowania, którego celem jest minimalizacja skutków suszy, wy-
magania związane z czasem wyprzedzenia prognozy są znacznie większe. Pro-
gnoza powinna obejmować okres trwania zjawiska, często wiele miesięcy.
Obecnie ilościowe prognozy opadu z modeli mezoskalowych eksploatowa-
nych w Polsce (w Krakowie ALADIN – Aire Limitée Adaptation dynamique
Développement InterNational, w Warszawie COSMO-LM14 – Consortium for
Small Scale Modelling) są wykonywane dla wyprzedzenia od 48 do 72 godzin.
Ze względu na wymogi ochrony przed powodzią warunek czasu wyprzedzenia
jest więc spełniony, problem stanowi niedostateczna jakość prognoz opadu.
4.3. Krok czasowy dostępnych ilościowych prognoz opadu
Krok czasowy zarówno obserwacji, jak i prognoz hydrogramu odpływu
powinien być dostatecznie krótki, aby błędy w ocenie czasu wystąpienia i wyso-
kości maksymalnego natężenia przepływu, wynikające z dyskretnego systemu
rejestracji, nie miały istotnego znaczenia dla skuteczności działań w ochronie
przeciwpowodziowej. Upraszczając, można przyjąć, że maksymalne natężenie
przepływu (kulminacja fali powodziowej) zależy od terminu wystąpienia i wy-
sokości maksymalnego natężenia opadu. Miarą natężenia opadu jest iloraz
OΔt/Δt, gdzie OΔt – suma opadu w interwale Δt. Zlewnia działa jak filtr tłumiący
15
chwilowe wahania natężenia opadu. Tłumienie zależy od wielkości i charakteru
zlewni. W małych zlewniach górskich (o powierzchni ok. 1000 km2) tłumienie
jest niewielkie, a zatem natężenie przepływu maksymalnego zależy od natężenia
opadu w krótkim interwale Δt, od kwadransa do 2-3 godz. W średniej wielkości
zlewniach nizinnych, o powierzchni ok. 5000 km2, tłumienie jest silniejsze
i natężenie przepływu maksymalnego zależy od natężenia opadu w interwale Δt
od 3 do 6 godz. W największych zlewniach nizinnych, takich jak zlewnia Bugu,
Narwi i Warty, silne tłumienie powoduje, że natężenie przepływu maksymalne-
go zależy od natężenia opadu w interwale Δt rzędu doby. Opierając się na wielo-
letnich doświadczeniach zebranych podczas wykorzystywania w operacyjnych
prognozach symulacyjnych modeli typu opad-odpływ, można przyjąć, że pro-
gnoza hietogramu powinna być sformułowana z wykorzystaniem kroku czaso-
wego 1-3 godz. dla zlewni górskiej i 6-24 godz. dla zlewni nizinnej. Aktualnie
dostępne w Polsce ilościowe prognozy opadu odpowiadają tym formalnym wy-
mogom. Przykładowo, model mezoskalowy COSMO-LM14 (Dokumentacja
Modelu Mezoskalowego COSMO-DWD…) oblicza prognozy elementów mete-
orologicznych z krokiem od Δt = 15 min (dla pierwszych 18 godz. wyprzedze-
nia), przez Δt = 1 godz., do Δt = 3 godz. (dla ostatnich 30 godz.).
16
4.5. Potrzeba uwzględnienia niepewności prognoz opadu
Decydenci żądają prognoz sformułowanych kategorycznie, tj. w postaci ty-
lu liczb ile elementów obejmuje prognoza, np. ocen przepływu w kolejnych
krokach czasowych prognozy hydrogramu. W procesach decyzyjnych taka pro-
gnoza jest traktowana deterministycznie, to znaczy jako jedyny możliwy i pew-
ny opis przyszłości. Przyczyny tej preferencji są oczywiste – dokładna znajo-
mość przyszłości pozwala łatwo zaproponować sterowanie, które w przypadku
trafnej prognozy będzie sterowaniem najlepszym. Jeżeli natomiast prognoza
okaże się nietrafna, tj. obarczona błędem na tyle istotnym, że zastosowane ste-
rowanie będzie również nietrafne, to odpowiedzialność za szkody związane
z tym sterowaniem można przypisać autorom prognozy – zjawisko to można
nazwać „transferem odpowiedzialności”. Niestety większość prognoz meteoro-
logicznych i hydrologicznych jest obarczona błędami tak znacznymi, że katego-
ryczne potraktowanie tych prognoz w procesach decyzyjnych prowadzi do efek-
tów dalekich od oczekiwań decydentów.
Sterowania podejmowane na podstawie prognozy kategorycznej są zazwy-
czaj dalekie od optymalnych. Nawet jeśli jest to wartość oczekiwana zmiennej
prognozowanej, gdyż w przypadku prognozy wielokrokowej wątpliwa jest moż-
liwość sensownego zdefiniowania wartości oczekiwanej wielowymiarowej
zmiennej losowej. Wynika to z faktu, że w warunkach niepewności oczekiwana
wartość korzyści czy strat wynikających z realizacji sterowania nie jest
dostatecznym kryterium. Konieczne jest korzystanie z kryteriów dodatkowych
pozwalających w szczególności minimalizować prawdopodobieństwo wystąpie-
nia nieakceptowalnych sytuacji, takich jak np. zwiększenie szkód powodzio-
wych w wyniku zastosowanego sterowania przejściem fali powodziowej przez
zbiornik retencyjny lub całkowite opróżnienie zbiornika służącego zaopatrzeniu
w wodę.
W gospodarce wodnej stosuje się zazwyczaj repetycyjny schemat podej-
mowania decyzji. Decyzja jest realizowana tylko do momentu otrzymania kolej-
nej prognozy. Jeżeli nowa prognoza jest różna od poprzedniej, decyzja ulega
zmianie. Takie postępowanie jest poprawne tylko w przypadku, gdy są spełnione
pewne warunki (normalny rozkład błędów prognozy, liniowa symetryczna
i addytywna funkcja kryterialna). W gospodarce wodnej warunki te nie są speł-
nione. Zwrócił na to uwagę m.in. Findeisen (1979). Tylko sformułowanie pro-
babilistyczne prognozy pozwala na podjęcie decyzji optymalnej w schemacie
sterowania repetycyjnego.
Tak więc, potrzeby decydentów można zaspokoić przez sformułowanie
prognoz w postaci probabilistycznej, zakładając, że decydent akceptuje i po-
trafi wykorzystać takie sformułowania.
Prognozy hydrogramu fali powodziowej są wykorzystywane nie tylko przy
sterowaniu zbiornikami, ale skutki ignorowania niepewności prognoz zawsze są
szkodliwe. Warto podkreślić, że w ostatnich dekadach praktycznie wszystkie
poważne publikacje zarówno naukowe, jak i o charakterze podręcznikowym,
17
tak zwaną analizę ryzyka jako właściwe podejście do problemu. Ilustrują to ma-
teriały z seminarium w Lyonie poświęconego prognozom hydrometeorologicz-
nym (Colloque SHF-191e CST – „Prévisions hydrométéorologiques”, Lyon, 18-
19 novembre 2008). Większość referatów, w tym referat autorów niniejszej pra-
cy (Żelaziński, Mierkiewicz 2008), dotyczyła problematyki niepewności pro-
gnoz i konieczności uwzględnienia tej niepewności w podejmowaniu decyzji.
Aktualną sytuację w tej dziedzinie dobrze charakteryzuje tytuł jednego z refera-
tów: „Od niepewnej prognozy do prognozy niepewności” („From forecast uncer-
tainty to forecasting uncertainty”, Joly Alain, GAME-CNRM, Météo-France et
CNRM). Tytuł ten można potraktować jako nową definicję prognozy. Otóż za-
daniem prognozy nie jest stwierdzenie, jak będzie „naprawdę”, w większości
przypadków jest to bowiem niemożliwe. Pozostawmy „dokładne prognozowa-
nie” szarlatanom, wróżbitom i prezenterom telewizyjnym. Skoncentrujmy się na
działaniach realnych i użytecznych. Zadaniem prognozy jest określenie niepew-
ności związanej z przyszłością, oczywiście przy wykorzystaniu dostępnej wie-
dzy dla minimalizacji tej niepewności. Używając określenia „nowa definicja
prognozy”, mamy świadomość, że w Polsce, od 50 lat, tj. od czasu publikacji
pierwszej pracy Kaczmarka poświęconej prognozowaniu (Kaczmarek 1960),
wiele prac badawczych i wdrożeniowych poświęcono prognozom sformułowa-
nym w postaci warunkowego rozkładu prawdopodobieństwa. Prognozy te
w sposób oczywisty uwzględniały niepewność. Wyniki tych prac wdrożono
w służbie prognoz w latach sześćdziesiątych ubiegłego wieku, ale nigdy nie były
właściwie wykorzystywane przez decydentów. Tak więc określenie „nowa defi-
nicja” należy rozumieć jako jedyną sensowna definicję wynikającą z aktualnego
stanu wiedzy i wieloletnich doświadczeń.
Warunkiem możliwości zastosowania tego podejścia jest uwzględnienie
niepewności w procesach decyzyjnych.
Na zakończenie tej części przytoczmy przetłumaczoną wypowiedź wybit-
nego hydrologa czeskiego Vita Klemeša (2000): „Tworzy to iluzję wiedzy, która
nie istnieje, a iluzoryczna wiedza może powodować większe szkody niż świado-
mość ignorancji” Wypowiedź dotyczy analizy częstotliwości powodzi, ale kon-
kluzja jest słuszna w przypadkach wykorzystywania w procesach decyzyjnych
każdej iluzorycznej wiedzy. Prognoza obarczona znacznym błędem, ale sformu-
łowana kategorycznie (bez ujawnienia niepewności) stanowi „iluzję wiedzy”
i wykorzystanie tej pozornej wiedzy w procesach decyzyjnych powoduje w wie-
lu przypadkach większe szkody niż te spowodowane decyzją podejmowaną ze
świadomością ograniczeń posiadanej wiedzy. W ochronie przed powodzią taka
iluzoryczna wiedza może powodować zagrożenie życia ludzi. Uwagi powyższe
nie podważają potrzeby wykorzystywania prognoz, nawet mało dokładnych
w procesach decyzyjnych. Chodzi o podkreślenie konieczności formułowania
prognoz w sposób opisujący ich niepewność oraz konieczności uwzględniania
tej niepewności w procesach decyzyjnych.
18
5. Niepewność prognoz opadu
19
pływu w strefie wód wysokich, co skutkuje wielkimi błędami krzywych natęże-
nia przepływu. Często również brak ciągłej rejestracji stanów wody, wskutek
czego hydrogram jest obarczony istotnymi błędami. Najważniejsze przyczyny
błędów w oszacowaniu opadów to niedostateczna gęstość sieci opadowej, brak
ciągłych (z dostatecznie krótkim krokiem czasowym) obserwacji opadu oraz
trudne do wyjaśnienia błędy pomiarowe – zazwyczaj sumy opadów zarejestro-
wane przez samopisy różnią się bardzo od sum opadów zarejestrowanych przez
deszczomierz. Mamy nadzieję, że w wyniku eksploatacji zmodernizowanego
systemu pomiarowo-obserwacyjnego opisane niedociągnięcia będą sukcesywnie
eliminowane. Wniosek z powyższych rozważań o zasadniczym znaczeniu dla
niniejszej pracy jest następujący:
Głównym źródłem błędów prognoz hydrologicznych są błędy (niepew-
ność) ilościowych prognoz opadu.
Podstawowym, zastosowanym w niniejszej pracy sposobem oceny niepew-
ności prognoz jest porównywanie:
a. rozkładu prawdopodobieństwa opadów obserwowanych, a ściślej osza-
cowań obszarowych uzyskanych na podstawie wyników punktowych
obserwacji, z rozkładem prawdopodobieństwa bezwzględnych wartości
błędów prognoz opadów;
b. rozkładu prawdopodobieństwa błędów prognoz opadów z modeli mezo-
skalowych z rozkładem prawdopodobieństwa błędów prognoz inercyj-
nych (szczegóły dalej).
Jako prognozę bezbłędną, która w procesach decyzyjnych może być trak-
towana deterministycznie, traktujemy prognozę, dla której wszystkie błędy są
zerowe. Uzyskanie takiej prognozy nie jest możliwe. Rozkłady prawdopodo-
bieństwa mogą być porównywane różnymi sposobami. Dotychczas najczęściej
wykorzystywano porównywanie statystyk rozkładów – wartości średnich i śred-
nich kwadratowych odchyleń. Wymienione dwie statystyki opisują wyczerpują-
co tylko rozkłady dwuparametryczne, pod warunkiem, że typ rozkładu jest zna-
ny. Nie jest to sposób dobry w przypadku zmiennych hydrologiczno-meteorolo-
gicznych. „Prawdziwe” rozkłady tych zmiennych nie są znane, natomiast dopa-
sowywanie rozkładów empirycznych do różnych rozkładów teoretycznych pro-
wadzi zazwyczaj do wyboru rozkładów opisywanych przez trzy parametry
(np. rozkładu Pearsona III typu w przypadku przepływów maksymalnych lub
dyskretno-ciągłego rozkładu gamma w przypadku opadów).
Uwzględniając powyższe zastrzeżenia, zastosowano metodę wizualnego
porównywania rozkładów, a ściślej empirycznych funkcji prawdopodobieństwa
przewyższenia, przedstawionych w postaci graficznej na podziałkach prawdo-
podobieństwa. Takie wizualne porównanie, aczkolwiek subiektywne, umożliwia
wszechstronną analizę właściwości badanych modeli. Zbiory danych, na których
podstawie są wykonane odpowiednie rysunki pozwalają obliczyć dowolne cha-
rakterystyki statystyczne.
Do badań włączono tak zwane inercyjne prognozy opadów. Prognoza iner-
cyjna polegała na założeniu, że w kolejnych krokach czasowych prognozy
20
w okresie jej wyprzedzenia opad będzie identyczny z opadem zaobserwowa-
nym w ostatnim kroku poprzedzającym moment stawiania prognozy. Badano
zarówno niepewność ww. inercyjnych prognoz opadu, jak i prognoz hydrogramu
odpływu wynikających z wprowadzenia na wejście modelu symulacyjnego hy-
drogramu odpływu inercyjnych prognoz opadu. Prognozy inercyjne włączono do
badań kierując się następującymi przesłankami:
• W latach 70. XX wieku badano efektywność prognoz hydrogramu odpływu
wykonywanych eksploatowanymi wtedy modelami dla zlewni Soły po Ży-
wiec i w zlewni Dunajca po Kowaniec. Stwierdzono wówczas, że inercyjne
prognozy opadów oraz prognozy zakładające brak opadu są obarczone błę-
dami istotnie mniejszymi niż prognozy wykonywane wówczas przez synop-
tyków meteorologów dla potrzeb wspomnianych modeli.
• W przypadku awarii sytemu dostarczającego ośrodkom prognoz hydrologi-
cznych ilościowych prognoz opadu powstaje problem, co wprowadzić na
wejście modelu prognozy hydrologicznej? Założenie, że opad o dotychcza-
sowej intensywności przedłuży się, jest w takiej sytuacji często stosowane.
0
0,68
-1 0,55
-0,5 0,35
0 0,18
0,5 0,07
1 0,01
1,5
prawdopodobienstwo p
21
8
|Pobs-Piner|
7
|Pobs-Pprog|
6
błąd prognozy opadu [mm]
0
0,68
-1 0,55
-0,5 0,35
0 0,18
0,5 0,07
1 0,01
1,5
prawdopodobieństwo p
Pprog
25
|Pobs-Pprog|
|Pobs-Piner|
20
15
10
0
-3 -2,5 0,87
-2 -1,5 0,69
-1 -0,5 0,37
0 0,5 0,065
1 1,5 0,002
2
prawdopodobieństwo p
Rys. 3. Zlewnia zbiornika Sulejów, model COSMO-LM14, prognoza opadu a pierwszą dobę.
Funkcje prawdopodobieństwa przewyższenia opadu obserwowanego, opadu prognozowanego oraz
błędów bezwzględnych opadu prognozowanego z modelu i wg inercji
Fig. 3. The Pilica River catchment at cross section Sulejów, the COSMO-LM14 model, the 1-day
ahead forecast. The empirical exceedance probability of observed rainfall, forecasted rainfall,
absolute errors of forecasts and errors of inertial forecast
22
Analiza wykresów prowadzi do następujących wniosków:
• Rozkłady prawdopodobieństwa opadów obserwowanych są podobne do
rozkładów prawdopodobieństwa wartości bezwzględnej błędów prognoz.
Inaczej mówiąc błędy prognoz mają ten sam rząd wielkości, co opady ob-
serwowane;
• W większości badanych przypadków stwierdzono brak istotnych różnic
między rozkładami błędów prognoz uzyskiwanych z modelu mezoskalowe-
go i błędów prognoz inercyjnych. A zatem prognozy mezoskalowe zazwy-
czaj nie wnoszą istotnej informacji o hietogramie opadów średnich dla
zlewni w porównaniu z informacją zawartą w prognozach inercyjnych, czy-
li podobne oszacowanie hietogramu (biorąc pod uwagę niepewność wyni-
ków) można uzyskiwać bez wykorzystywania modelu meteorologicznego,
a stosując jedynie prognozę inercyjną;
• Niemniej jednak w przypadku zlewni Pilicy i prognoz opadu średniego dla
zlewni z modelu mezoskalowego stwierdzono pewną przewagę prognoz
z modelu mezoskalowego nad prognozami inercyjnymi. Warto więc jako
wejście do modelu prognozy hydrologicznej wykorzystywać prognozy
z modelu mezoskalowego. Po pierwsze pozwala to już obecnie poprawić
jakość prognoz hydrologicznych, a po drugie każda poprawa prognoz me-
zoskalowych uzyskiwana w miarę postępu badań pozwoli automatycznie
poprawić jakość prognoz hydrologicznych;
• Znaczna niepewność ilościowych prognoz opadu i wynikająca z tego faktu
niepewność prognoz hydrologicznych wyklucza deterministyczne trakto-
wanie prognoz w procesach decyzyjnych. Zostanie to wykazane w dalszych
częściach pracy.
Biorąc powyższe pod uwagę, wydaje się, że jedną z możliwych dróg roz-
wiązania problemu uwzględnienia niepewności prognoz opadu w procesach
decyzyjnych gospodarki wodnej jest zbudowanie modelu wielowariantowej
prognozy hietogramu opadu średniego dla zlewni, gdzie predyktorami będą ka-
tegoryczne, ilościowe prognozy opadu z modelu mezoskalowego. Temu pro-
blemowi poświęcono rozdział 6.
23
6. Wielowariantowe ilościowe prognozy
opadów
6.1 Uwagi wstępne
24
zerowe, natomiast ciągła część rozkładu należy do rodziny skrajnie asymetrycz-
nych (z dodatnią asymetrią) rozkładów prawdopodobieństwa, dla których mode-
lem może być np. rozkład gamma. Ponadto jest to proces niestacjonarny ze
względu na sezonową zmienność opadów. Jednakże, model operacyjny, po-
wszechnie stosowany nie powinien wykorzystywać wyrafinowanych metod
matematycznych. Dlatego postanowiliśmy wykorzystać powszechnie znany
model Boxa-Jenkinsa. Warunkiem stosowalności tego podejścia jest przekształ-
cenie szeregu czasowego obserwowanych sum opadowych w proces w przybli-
żeniu normalny i stacjonarny. Zaproponowano następujący algorytm transfor-
macji:
(1) Obliczenie następujących dwóch statystyk dla każdego dnia w roku:
nt
Pot = [1]
N
1 nt 0.28
Zt = ∑ Rt [2]
nt 1
gdzie: t – numer kolejny dnia w roku (t = 1, 2, ..., 365), Pot – prawdopodobień-
stwo, że w dniu o numerze t opad Rt > 0, Rt – suma dobowa opadu zaobserwo-
wana w dniu o numerze t, nt – liczba dni, w których (Rt > 0) w ogólnej liczbie
dni o numerze t w okresie N lat, N – liczba lat obserwacji, Z t – cząstkowa śred-
nia (średnia wartość zmiennej losowej Z = R0,28 ze zbioru 0 < R).
Przyjęto założenie, że wyrażenie Z = R0,28 przekształca rozkład prawdopo-
dobieństwa dobowych sum opadów w rozkład normalny (Kaczmarek 1970).
Dopuszczalność takiego założenia testowano wykorzystując test χ2.
Rys. 4. Zlewnia Pilicy – parametr R0,28 przed zastosowaniem i po zastosowaniu procedury wygła-
dzającej
Fig. 4. The Pilica River catchment – the R0,28 parameter before and after a smoothing procedure
25
(2) "Wygładzenie" zmienności parametrów Pot i Z t w czasie. Można przyjąć
płynną zmienność w czasie tych parametrów odzwierciedlającą sezonową zmie-
nność opadów. Założenie to wydaje się rozsądne, nie ma bowiem przesłanek
uzasadniających skokową z dnia na dzień zmianę oceny średniego opadu w wie-
loleciu. Parametry estymowane z wykorzystaniem równań [1] i [2] na podstawie
względnie małej próby losowej (rzędu 30 lat obserwacji) są jednak obarczone
znacznymi błędami. Możemy wyeliminować ten efekt (nie oznacza to eliminacji
błędów, a jedynie wygładzenie zmienności parametrów w czasie), stosując filtr
średniej ruchomej. Zmienność w czasie zmiennej Z t przed zastosowaniem i po
zastosowaniu procedury wygładzania pokazano na rys. 4. Tablice wygładzonych
wartości zmiennych Pot i Z t wykorzystywano w dalszych obliczeniach.
26
Teraz można już wykorzystywać standardowe narzędzia statystyczne. Po-
trzebne wydają się dwie dodatkowe uwagi:
Obliczenia wykazały, że autokorelacja procesu opadowego nie zależy od
czasu (pory roku). Tak więc można analizować pełną próbę, pomijając
sezonowe zmiany autokorelacji;
Proces opadowy zawiera zjawiska (opady) o różnej genezie, np. opady
termiczne i frontalne. Ich struktura losowa prawdopodobnie jest różna,
lecz brak informacji o genezie opadów zaobserwowanych w wieloleciu
zmusza do uproszczeń.
Z p (t + Δt ) = a1 Z t −1 + a 2 Z t + δT p [6]
27
ność prognozy. Jest to najdogodniejsza reprezentacja niepewności, decyzje są
bowiem podejmowane zazwyczaj przy wykorzystaniu technik symulacyjnych.
Opracowany stochastyczny model opadu w połączeniu z ilościowymi pro-
gnozami opadu uzyskiwanymi z modelu mezoskalowego i wykorzystaniem
twierdzenia Bayesa rozwiązuje problem generowania pęku przyszłych możli-
wych hietogramów. Zaproponowane podejście ma w naszym przekonaniu istot-
ne zalety:
Pozwala uzyskać nieobciążone oszacowania parametrów warunkowego
rozkładu prawdopodobieństwa prognozowanych opadów (pod warun-
kiem usunięcia silnego obciążenia błędem systematycznym, co wykaza-
ły badania prognoz z modelu mezoskalowego);
Wykorzystuje dane klimatologiczne, co eliminuje uzyskanie oszacowań
mało realistycznych, uzyskiwanych niekiedy z modelu mezoskalowego.
Opisany model był prezentowany na Międzynarodowej Konferencji IAHR
–AIRH i Politechniki Warszawskiej “Advances in Hydro-Science and Engineer-
ing. ICHE 2002” (Żelaziński i Mierkiewicz 2002).
Zaproponowany model opadów jest oparty na licznych założeniach typo-
wych w sytuacji, gdy klasyczny aparat statystyki matematycznej jest wykorzy-
stywany do budowania modeli procesów hydrologiczno-meteorologicznych.
Zgodnie z przyjętą praktyką niesprzeczność założeń z wynikami obserwacji
badano testami statystycznymi. Problem w tym, że postępowanie testowe może
jedynie wykazać, że z zadanym małym prawdopodobieństwem założony model
nie jest sprzeczny z obserwacjami. Natomiast stwierdzenie niesprzeczności nie
przesądza, czy przyjęty model losowy jest adekwatny.
Konieczne jest założenie typu rozkładu prawdopodobieństwa i jest to tylko
założenie, nawet jeśli wykorzystujemy testy zgodności i statystyczne kryteria
dopasowania. Należy bowiem pamiętać, że:
(a) Testowaliśmy tylko posiadaną próbę losową i możliwość ekstrapolacji wg
wybranego rozkładu jest założeniem arbitralnym;
(b) Wynik dowolnego postępowania testowego jest też niepewny (niepewność
tego wyniku reprezentuje arbitralnie przyjęty poziom istotności testu), na-
wet w stosunku do badanej serii, bez jej ekstrapolacji w czasie;
(c) Nie badaliśmy wszystkich rozkładów teoretycznych niesprzecznych z roz-
kładem empirycznym, a ograniczenie obszaru badań do kilku typów roz-
kładów jest również arbitralne.
28
6.3. Stochastyczny model opadów (2) – podejście bootstrapowe
Bootstrap jest metodą oceny dokładności oszacowań statystycznych opartą
na wykorzystaniu komputerów. Ważną cechą podejścia bootstrapowego jest
brak założeń odnośnie do typu rozkładu, jakiemu podlegają analizowane zmien-
ne. Zakłada się zazwyczaj tylko, że istnieje zbiorowość generalna, z której wylo-
sowano posiadaną próbę oraz, że elementy próby są niezależne. Opis metody
bootstrap można znaleźć w monografii Efrona i Tibshirani (1993). Metoda ta
rozwija się szybko – w cytowanej monografii przywołano kilkadziesiąt publika-
cji poświęconych bootstrapowi i jego wykorzystaniu we wszystkich działach
klasycznej statystyki. Odsyłając zainteresowanych do tej monografii, postaramy
się zilustrować ideę bootstrapu prostym przykładem.
Załóżmy, że mamy n-elementową próbę losową dowolnej, jednowymiaro-
wej zmiennej losowej i chcemy określić rozkład prawdopodobieństwa wartości
średniej tej zmiennej, obliczonej na podstawie posiadanej próby losowej. W po-
dręcznikach statystyki można znaleźć dowód, że średnia z próby ma rozkład
normalny o wartości oczekiwanej równej średniej arytmetycznej z próby i wa-
riancji równej wariancji z próby podzielonej przez pierwiastek kwadratowy
z liczebności próby. Relacja taka wynika z założeń przyjmowanych w wypro-
wadzeniu centralnego twierdzenia granicznego. Pokażemy, jak bootstrap po-
zwala rozwiązać ten problem w sposób elementarny bez dodatkowych założeń.
Wykorzystując komputer, z posiadanej próby losujemy zadaną liczbę B
zbiorów n-elementowych, stosując schemat losowania ze zwracaniem. Oznacza
to, że poszczególne elementy pierwotnej próby losowej mogą się w poszczegól-
nych wylosowanych zbiorach powtarzać wielokrotnie. Może nawet powstać
zbiór zawierający n ekstremalnych elementów z próby, aczkolwiek prawdopo-
dobieństwo takiego zdarzenia jest niewielkie. Następnie obliczamy średnią
z każdego wylosowanego zbioru, uzyskując zbiór B różnych oszacowań śred-
niej, który reprezentuje rozkład prawdopodobieństwa oszacowania badanej
średniej na podstawie n-elementowej próby. Możemy następnie wyznaczyć róż-
ne charakterystyki tego rozkładu (kwantyle, momenty i in.), a w szczególności
obliczyć średni kwadratowy błąd oszacowania średniej. W cytowanej już mono-
grafii można znaleźć dowody wskazujące na poprawność podejścia bootstrapo-
wego. W szczególności wykazano, że wraz ze wzrostem liczby wylosowanych
zbiorów B, wzrasta dokładność oszacowania bootsrapowego. Oczywiście mak-
symalna możliwa liczba różnych n-elementowych zbiorów Bmax, jest ograniczo-
na liczebnością próby n. Estymatory bootstrapowe wykorzystujące zbiory
o liczebności Bmax nazywamy idealnymi estymatorami bootsrapowymi. Stosun-
kowo nieduża liczebność próby (n) sprawia, że Bmax przyjmuje bardzo wielkie
wartości, co utrudnia wykorzystywanie estymatorów idealnych. W praktycznych
zastosowaniach losuje się od 25 do 200 zbiorów.
W przypadku stwierdzenia, że zdarzenia takie jak sekwencje opadowe po-
wodujące powodzie nie mogą być traktowane jako zdarzenia niezależne, można
zastosować tak zwany bootstrap ruchomych bloków (moving blocks bootstrap),
29
gdzie próbą losową jest realizacja procesu losowego podzielona na bloki, mię-
dzy którymi korelacja jest zaniedbywalna. Bootstrap oferuje narzędzia pozwala-
jące badać strukturę autokorelacyjną i szacować dokładność parametrów opisu-
jących tę strukturę.
Tworzenie bootstrapowego modelu opadu wymaga rozstrzygnięcia następu-
jących problemów:
1. Sposobu uwzględnienia ilościowych prognoz opadu z modelu mezoska-
lowego w generowaniu realizacji bootstrapowych procesu opadowego;
2. Sposobu uwzględnienia nieznanej struktury autokorelacyjnej opadów;
3. Sposobu wyboru ze zbioru historycznych hietogramów podzbiorów, co
do których można przyjąć hipotezę stacjonarności. Opad jest procesem
cyklicznie niestacjonarnym, gdyż jego charakterystyki stochastyczne
zmieniają się w cyklu rocznym. Próby bootstrapowe powinny być loso-
wane z takich fragmentów zaobserwowanych hietogramów historycz-
nych, które mogą być traktowane jako quasi-stacjonarne w okresie obję-
tym prognozą.
Zaproponowano następujące rozstrzygnięcia:
Ad. 1.
Prowadzone badania doprowadziły do krytycznej oceny trafności ilościo-
wych prognoz opadu uzyskiwanych z eksploatowanych w Polsce modeli mezo-
skalowych. Przed rozważeniem sposobu wprowadzenia takich prognoz do gene-
ratora bootstrapowych realizacji procesu opadowego należało więc zdecydować,
czy ilościowe prognozy opadu zawierają istotną informację o przyszłych opa-
dach. Zadaliśmy więc pytanie:
O ile ilościowa prognoza opadu, uzyskiwana z modelu meteorologicznego, zmniej-
sza niepewność prognozy w stosunku do prognozy naiwnej polegającej na zało-
żeniu, że przyszły opad będzie równy klimatologicznej wartości średniej opadu
(w danej porze roku) ?
Przeprowadzono analizę wyników obserwacji oraz prognoz opadów zgro-
madzonych w ciągu kilku lat dla zlewni Pilicy zamkniętej zbiornikiem Sulejów.
Oceny średnich dla zlewni sum dobowych opadów uzyskano na podstawie gro-
madzonych operacyjnie danych opadowych z kilku posterunków opadowych
w zlewni Pilicy. Ilościowe prognozy opadu pochodziły z eksploatowanego
w IMGW w Warszawie modelu mezoskalowego COSMO-LM14. Przeanalizo-
wano blisko tysiąc ocen średniego dla zlewni opadu obserwowanego Oo i opadu
prognozowanego Op (ten ostatni dla pierwszej, drugiej i trzeciej doby wyprze-
dzenia prognozy). Obliczono współczynnik korelacji r między zmiennymi Oo
i Op. Dla pierwszej doby uzyskano r = 0,62, co oznacza statystycznie istotny
związek między obserwacją i prognozą. Powyższą ocenę uzyskano na podstawie
próby losowej o dużej liczebności, a zatem jest ona obarczona niewielkim błę-
dem. Błąd średni kwadratowy, S, prognozy naiwnej (klimatologicznej, tj. pole-
gającej na założeniu, że opad prognozowany jest równy średniej z obserwacji
wykonanej danego dnia roku) jest równy standardowemu odchyleniu opadu
30
obserwowanego. Wykorzystanie ilościowej prognozy opadu zmniejsza ten
błąd o:
[S – S(1 – 0,622)1/2/S] 100% = 22%
Jest to wynik „na granicy stosowalności”, w prognozach operacyjnych
przyjmuje się bowiem, że model prognostyczny jest zadowalający z punktu wi-
dzenia procesów decyzyjnych, jeśli pozwala zmniejszyć średni kwadratowy błąd
o 20% lub więcej w stosunku do prognozy naiwnej. Oznacza to w szczególności,
że współczynnik korelacji między prognozą i obserwacją powinien być większy
niż 0,6. Podkreślamy, że wynik ten dotyczy prognozy o okresie wyprzedzenia
równym jednej dobie. Dla drugiej i trzeciej doby współczynnik korelacji między
prognozą i obserwacją jest znacznie mniejszy.
Ad. 2
Badania prowadzone przy wykorzystaniu standardowych narzędzi statysty-
ki matematycznej wykazały niewielką autokorelację procesu opadowego (współ-
czynniki autokorelacji pierwszego rzędu na poziomie 0,2 przy analizie 30-letniej
serii obserwacyjnej dobowych sum opadu). Wobec tego dopuszczalne wydaje
się generowanie szeregu czasowego przyszłych opadów bez uwzględniania
opadów zaobserwowanych przed terminem stawiania prognozy. Doświadczenie
prowadzi jednak do wniosku, że opady, a zwłaszcza opady ulewne, są związane
z pewnymi typami cyrkulacji atmosferycznej, które to typy często utrzymują się
dłużej niż jedną dobę (odzwierciedleniem tego spostrzeżenia jest np. pojęcie
„trzydniówki”). Ponadto, analiza okresów suszy hydrologicznej wykazuje, że
typy cyrkulacji, z którymi w normalnych warunkach są związane opady, w okre-
sach głębokiej suszy atmosferycznej nie prowadzą do wystąpienia opadów.
Prawdopodobnie, jeśli nawet nastąpi kondensacja, to wskutek przesuszenia
gleby i mas powietrza na znacznych obszarach opady parują i nie docierają do
powierzchni ziemi. Podkreślamy, że obydwa wymienione spostrzeżenia
wynikają z doświadczeń i nie były przedmiotem obiektywnych analiz ilościo-
wych. Nie można jednak wykluczyć, że procesy opadowe nie są białym szumem
i mają strukturę autokorelacyjną trudną do wykrycia i opisania na gruncie stan-
dardowych metod statystycznych, takich jak analiza furierowska lub analiza
funkcji autokorelacyjnej. W tej sytuacji zaproponowano wykorzystywanie przy
tworzeniu bootstrapowych realizacji procesu opadowego zaobserwowanych,
wielodniowych sekwencji opadowych – „scenariuszy opadowych”. Takie podej-
ście pozwala zachować rzeczywiste następstwo okresów opadowych i bezopa-
dowych, czyli wykorzystywać pełną informację zawartą w obserwacjach, bez
konieczności przyjmowania arbitralnych założeń dotyczących struktury losowej
opadów – jest to zgodne z ideą podejścia bootstrapowego.
Ad. 3
W świetle powyższych dwóch ustaleń najprostszym sposobem tworzenia
scenariuszy opadowych byłby wybór z wieloletniej serii obserwacyjnej opadów
wszystkich scenariuszy opadowych, które zaczynały się w dniu stawiania pro-
31
gnozy. Takie postępowanie zapewnia wybór dokładnie wpisujący się w roczny
cykl zmienności procesu opadowego, czyli rozwiązanie trzeciego problemu –
uwzględnienia niestacjonarności tego procesu. Budzi jednak następujące wąt-
pliwości:
Liczba możliwych scenariuszy nie może przekraczać liczby lat obserwa-
cji, którą dysponujemy. W przypadku zlewni Pilicy jest to 30-letni ciąg
obserwacyjny i można zakładać, że taka próba losowa reprezentuje do-
statecznie rozkład zbiorowości generalnej, czyli wszystkich możliwych
realizacji procesu opadowego. W przypadku krótszych ciągów założenie
to staje się bardzo wątpliwe.
W momencie stawiania prognozy na drugą dobę następuje nieuniknione
zerwanie ciągłości sekwencji opadów: dotychczasowy (bieżący) ciąg
obserwacji zostaje połączony z innymi ciągami obserwacji. Z punktu
widzenia fizyki atmosfery w wielu przypadkach może to być połączenie
całkowicie nierealistyczne. Przykładowo, w dniu stawiania prognozy
i dniach poprzedzających może występować zarówno sytuacja, w której
przez obszar zlewni przemieszczają się fronty atmosferyczne związane
z opadami, jak i sytuacja, gdy nad Europą rozbudował się rozległy wyż
i pomiędzy Atlantykiem a Uralem brak jest opadów. Skokowe przejście
jednej opisanej sytuacji w drugą nie jest możliwe.
Drugie z zastrzeżeń jest oczywiście znacznie poważniejsze od pierwszego i wy-
klucza zaproponowane mechaniczne łączenie różnych sekwencji opadowych
(bieżącej i historycznych) oparte wyłącznie na dacie.
Z dotychczasowych rozważań wypływa wniosek, że połączenie bieżącej,
obserwowanej do momentu stawiania prognozy, sekwencji opadowej z pewną
liczbą możliwych kontynuacji, tj. sekwencji historycznych reprezentujących
niepewność prognozy opadu, musi spełniać następujące postulaty:
Scenariusze reprezentujące niepewność prognozy opadu powinny być
wybrane z tego samego sezonu roku – w ten sposób można zapewnić
odwzorowanie zmienności opadów w cyklu rocznym. Zaproponowano
wybór z „okna czasowego” obejmującego 30 dni (15 dni poprzedzają-
cych i 15 dni następujących po dacie stawiania prognozy);
Początkowa, tj. w dniu stawiania prognozy, sytuacja atmosferyczna po-
winna być podobna do sytuacji w dniu poprzedzającym scenariusze re-
prezentujące niepewność prognozy. Inaczej mówiąc wybierając przyszłe
scenariusze opadowe należy zapewnić, aby stan atmosfery w dniu po-
przedzającym rozpoczęcie scenariusza był możliwie podobny do stanu
atmosfery w dniu poprzedzającym moment stawiania prognozy.
Powstaje więc pytanie: Jak zachować podobieństwo stanów atmosfery?
Jak wspomniano, mechaniczne, oparte tylko na dacie, łączenie dotychcza-
sowego (tj. do momentu stawiania prognozy) przebiegu procesu opadowego
z historycznymi scenariuszami opadowymi oznacza założenie możliwości mo-
mentalnego przejścia ze stanu atmosfery istniejącego w momencie stawiania
prognozy do każdego ze stanów, które w następnym kalendarzowym dniu ist-
32
niały w kolejnych latach wykorzystywanych do budowania scenariuszy opado-
wych, a to uznano za sprzeczne z fizyką atmosfery. Mówiąc o stanie atmosfery,
mamy na myśli chwilowy stan licznych parametrów atmosfery, takich jak ciś-
nienie, temperatura, wilgotność, wiatr, stan skupienia zawartej w atmosferze
wilgoci, obecność jąder kondensacji, zachmurzenie i inne współdecydujące
o wystąpieniu i intensywności opadów. Chodzi przy tym o stan wymienionych
parametrów w każdym punkcie trójwymiarowej przestrzeni, w otoczeniu rozwa-
żanej zlewni. Postulowana znajomość stanu atmosfery jest nieosiągalna przy wy-
korzystaniu istniejących technik pomiarowo-obserwacyjnych. Wyniki pomiarów
ze stacji meteorologicznych i sondaży aerologicznych są punktowe, a sieć jest
rzadka. Teledetekcja (radary, obrazy satelitarne) pozwala na ogólną orientację
o rozkładzie przestrzennym takich parametrów, jak opady i zachmurzenie, lecz
na razie nie dostarcza precyzyjnych oszacowań ilościowych. Można przypusz-
czać, że najlepsze dostępne oszacowanie stanu atmosfery można osiągnąć
w ramach procedury asymilacji danych wykonywanej rutynowo w ramach
eksploatacji mezoskalowych modeli meteorologicznych. W procedurze asy-
milacji są wykorzystywane wszystkie dostępne dane pomiarowe, a posługiwanie
się modelem atmosfery opartym na równaniach fizyki zapewnia zgodność uzy-
skanego oszacowania stanu atmosfery z prawami fizyki. Kontynuując rozważa-
nia, można przyjąć, że stany atmosfery prognozowane modelem mezoskalowym
w kolejnych, dobowych lub krótszych krokach wyprzedzenia prognozy są:
możliwe z punktu widzenia fizyki procesów atmosferycznych (wynika
to z wykorzystywania równań fizyki);
a ponadto (to oczywiście hipoteza) są to stany „najbardziej prawdopo-
dobne.”
Mapy synoptyczne obrazujące m.in. izobary, izotermy, układ frontów i inne
informacje są wizualizacją tego, co nazywaliśmy stanem atmosfery. W klimato-
logii wielu badaczy dokonywało klasyfikacji tych obrazów zaliczając je do pew-
nej liczby klas, zwanych typami cyrkulacji atmosferycznej. Doświadczenie wy-
kazuje, że istnieją typy cyrkulacji, z którymi wiążą się intensywne opady, jak
również typy wykluczające występowanie istotnych opadów. Ważnym uzupeł-
nieniem informacji zawartej w mapach są wyniki sondaży aerologicznych oraz
obrazy satelitarne zachmurzenia. Doświadczeni synoptycy wykorzystują zarów-
no wiedzę klimatologiczną, jak i bieżące informacje i stawiają, często trafne,
prognozy opadu (Zawiślak 2005). Sformalizowanie opisanego podejścia i wyko-
rzystanie go do wyboru prognostycznych scenariuszy opadowych wymaga
udziału doświadczonego synoptyka meteorologa. Reasumując, prognozę z mo-
delu mezoskalowego można wykorzystać do dokonania klasyfikacji typu cyrku-
lacji i wyboru scenariuszy klimatologicznych. Sygnalizujemy tę możliwość jako
sposób uzyskania warunkowego rozkładu prognozowanych opadów (w postaci
wielowariantowej realizacji) poprzez łączne wykorzystanie danych klimatolo-
gicznych i wyników modelu mezoskalowego. Możliwość ta nie została zreali-
zowana w ramach niniejszej pracy
33
Inny sposób wykorzystania modelu mezoskalowego opisano w następnym
punkcie. Opracowany został mianowicie generator pól opadowych, który poz-
wala generować zbiory prognoz w układzie przestrzennym dla blisko 100 zlewni
rzecznych w Polsce.
34
Postprocessing – metoda sąsiedztwa
Podejście to zastosowano do prognozy opadu – zarówno w odniesieniu do
wystąpienia samego zdarzenia, jak i wysokości opadu w kolejnych krokach cza-
sowych i w poszczególnych punktach siatki.
W postprocessingu dąży się do tego, by w każdym oczku siatki (kwadracie
14×14 km, właściwym dla modelu COSMO-LM14) uzyskać próbę statystyczną
hietogramów (pluwiogramów). W metodzie sąsiedztwa (ang. neighbourhood
method) w każdym punkcie siatki obliczeniowej dobiera się dane prognostyczne
z sąsiedztwa. Liczba sąsiadujących punktów nie jest z góry zadana. Jest to
przedmiotem eksperymentu (Theis S. i in. 2002). Możliwa jest też wersja pozy-
skiwania wiązki hietogramów z sąsiednich kroków czasowych prognozy.
Uzasadnienie metody sąsiedztwa wynika z praktycznej oceny stosowania
modeli mezoskalowych w wielu ośrodkach prognoz. Stwierdzono mianowicie,
że błąd prognozy opadu polega w dużym stopniu na przesunięciu pola opadu
o pewną liczbę oczek siatki. Wynika to po części z samego zjawiska opadu.
Opad osiąga powierzchnię ziemi w czasie 15–30 min. Przy prędkość poziomej
5–10 m/s może to prowadzić do błędu rzędu kilku kroków siatki. Problem nabie-
ra ostrości wobec faktu, że dąży się do zmniejszenia oczka sieci w mezoskalo-
wych modelach lokalnych.
Wynikiem proponowanego podejścia jest system tworzenia zbioru hieto-
gramów i pluwiogramów prognostycznych dla wyprzedzenia 72 godziny, dla
każdego kwadratu siatki 14×14 km, wspomnianą "metodą sąsiedztwa”. Przykła-
dowy wynik działania systemu dla wybranego oczka siatki przedstawiono na
rys. 5.
35
Jak wspomniano, dalszych badań wymaga natomiast generowanie pól opa-
dowych w układach cyrkulacyjnych. Skojarzenie przestrzennego postprocessin-
gu z charakterystyką typów cyrkulacji może być metodą wydobywania i przeka-
zywania niepewności prognoz opadu.
6.5. Podsumowanie
Opisane w rozdz. 6 sposoby uzyskiwania wielowariantowej ilościowej pro-
gnozy opadów na podstawie dostępnych w Polsce kategorycznych (jednowarian-
towych) prognoz z modeli mezoskalowych mają charakter wstępnych propozycji
i wymagają wszechstronnego testowania. Zdecydowano się na ich przedstawie-
nie, gdyż prognozy z modeli mezoskalowych są słabo związane z wynikami
obserwacji i obciążone błędem systematycznym – świadczą o tym wyniki przed-
stawione w rozdz. 5. Powstaje zatem wątpliwość, czy wykorzystując tylko mo-
dele mezoskalowe, można uzyskać prognozę wielowariantową, stanowiącą re-
prezentatywną i nieobciążoną próbę losową warunkowego rozkładu zmiennej
prognozowanej, hietogramu. W związku z tym można przypuszczać, że wyko-
rzystanie łączne modelu mezoskalowego oraz wieloletnich wyników obserwacji
(danych klimatologicznych) pozwoli uzyskać postulowaną reprezentację rozkła-
du zmiennej prognozowanej.
36
7. Przetwarzanie wielowariantowej prognozy
opadu w wielowariantową prognozę
hydrogramu odpływu
Wykorzystanie wielowariantowych ilościowych prognoz opadu jako wejścia
do modeli symulacyjnych odpływu ze zlewni prowadzi do wyników w postaci
wielowariantowej prognozy hydrogramu odpływu. Pęk taki, reprezentujący nie-
pewność prognozy hydrologicznej, będzie podstawą omówionych w dalszej
części pracy algorytmów wspomagania decyzji.
Pęk hydrogramów jest tworzony w modelu hydrologicznym opad-odpływ,
po przeliczeniu wprowadzonej na wejściu wielowariantowej prognozy hietogra-
mów. Konieczne jest więc zbudowanie lub zaadaptowanie modelu hydrologicz-
nego opad-odpływ, umożliwiającego obliczanie rzędnych hydrogramu przepły-
wu. W praktyce dysponujemy dużą liczbą modeli hydrologicznych, w większo-
ści opierających się na takich samych założeniach i dających podobne rezultaty.
Wybór modelu zależy od doświadczenia użytkownika, dostępności danych po-
trzebnych do jego identyfikacji, czy możliwości obliczeniowych. Ważne jest,
aby model był sprawny i dawał gwarancję szybkiego przeliczania dużej liczby
wejściowych scenariuszy opadowych.
Należy zdawać sobie również sprawę z tego, że oprócz błędów ilościowej
prognozy opadu na jakość prognoz hydrologicznych wpływają błędy symulacji
związane z samym modelem wykorzystywanym w prognozowaniu. Przyczyny
tego rodzaju błędów to: nieadekwatność modelu, błędy w ocenie opadu średnie-
go dla zlewni na podstawie punktowych obserwacji opadu, błędy w ocenie pa-
rametrów modelu hydrologicznego, błędy w ocenie odpływu. Wymienione
przyczyny są faktem i wpływają istotnie na zgodność wyników symulacji hy-
drogramu odpływu z wynikami obserwacji. Błędy symulacji mogą być skutecz-
nie ograniczane przez procedury bieżącej korekty prognoz, zwane często „upda-
tingiem” (Bobiński 1981, Mierkiewicz 2002). Badania wykazały, że w przypad-
ku poprawnej bieżącej korekty prognoz błędy modelu hydrologicznego mają
drugorzędne znacznie w stosunku do błędów wywoływanych błędnymi progno-
zami opadu. W związku z tym w dalszych badaniach zakładano, że jedynym
źródłem błędów prognozy hydrologicznej są błędy ilościowych prognoz opadu.
37
8. Wykorzystanie prognozy hydrologicznej
sformułowanej w postaci wiązki przyszłych
możliwych realizacji hydrogramu odpływu
w sterowaniu zbiornikami retencyjnymi
8.1. Uwagi wstępne
38
Synoptyk: W ciągu następnych 12–36 godzin można w profilu X oczekiwać
maksymalnego stanu wody rzędu 700–800 cm.
Decydent: Rozumiem, ale ile centymetrów i kiedy będzie faktycznie.
Synoptyk: Dokładnie nie wiem, taka prognoza aktualnie nie jest możliwa.
Decydent: Potrzebuję tej informacji, jej dostarczenie to wasz obowiązek.
Synoptyk: Oczekujemy kulminacji 750 cm za 24 godziny.
Decydent traktuje ostatnią informację jako pewną, co często prowadzi do złej
decyzji, ale zdaniem decydenta odpowiedzialność za skutki ponosi synoptyk.
Często synoptyk-hydrolog obarcza odpowiedzialnością synoptyka-meteorologa
("gdybym dysponował dokładną prognozą opadu, dałbym dobrą prognozę ter-
minu i wysokości kulminacji"). Jest to nieporozumienie – przy pewnej progno-
zie decydent nie jest potrzebny, gdyż poprawna decyzja jest wtedy oczywista.
Decydent jest potrzebny wówczas, gdy informacja jest niepewna i trzeba podjąć
decyzję, uwzględniając ryzyko wynikające z niepewności (Shackle 1961). Jest to
konieczne i możliwe, ale wymaga zarówno wiedzy, jak i świadomości osobistej
odpowiedzialności za skutki podjętej decyzji bez próby "transferu” tej odpowie-
dzialności. Brak jest oznak poprawy w tej dziedzinie – nie są nam znane przy-
padki szkoleń i "gier decyzyjnych", podczas których decydenci mogliby dosko-
nalić swoje umiejętności w dziedzinie, która jest ich domeną, tj. działania w sy-
tuacji niepewności.
Celem dalszych rozważań jest próba pokazania użytkownikom prognoz, jak
można wykorzystywać niepewne prognozy w typowych sytuacjach decyzyjnych
gospodarki wodnej oraz przekonanie ich, że decyzje takie są lepsze od podej-
mowanych na podstawie prognozy sformułowanej kategorycznie. Zaczniemy od
dyskusji problemu kryteriów podejmowania decyzji w warunkach niepewności
i tzw. przeszkody wymiarowości. Na zakończenie pokazane zostaną możliwości
wykorzystania wielowariantowych prognoz hydrogramu odpływu w podejmo-
waniu decyzji związanych z gospodarką zbiornikową.
39
w przypadku największych fal wymaga całkowitego opróżnienia zbiornika przed
nadejściem szczytu fali.
W sytuacji operacyjnej, gdy dysponujemy tylko przybliżoną prognozą hy-
drogramu dopływającej fali realizacja opisanego sterowania jest niemożliwa,
a ponadto dążenie do takiego sterowania powoduje zazwyczaj następujące nie-
akceptowalne skutki:
opróżnienie zbiornika, bez możliwości jego napełnienia, często przez wiele
miesięcy, gdy prognozowano falę większą niż faktycznie wystąpiła;
całkowite napełnienie zbiornika przed wystąpieniem kulminacji, co skutkuje
brakiem możliwości redukcji przepływu maksymalnego wezbrania i jest na-
gminnym zjawiskiem w przypadku dużych fal, gdy prognozując niedosza-
cowano rozmiarów fali;
zwiększenie przez zbiornik rozmiarów powodzi – przypadek spotykany
w praktyce krajowej i zagranicznej – gdy prognozowano falę znacznie więk-
szą niż wystąpiła, a dyspozytor, działając w dobrej wierze potraktował te
prognozę deterministycznie.
Widzimy więc, że przy niepewnej, a więc realnie dostępnej, prognozie sto-
sowanie naturalnego kryterium sterowania, minimalizacja maksymalnego od-
pływu, jest niedopuszczalne. W sytuacji niepewności, gdy wynik sterowania jest
zmienną losową, możemy jedynie dążyć do przekształcenia rozkładu tej zmien-
nej lub wybranych parametrów tego rozkładu. Osiągnięcie korzystnego prze-
kształcenia wymaga oczywiście probabilistycznego sformułowania prognozy
oraz podjęcia decyzji, które z możliwych przekształceń uznajemy za najlepsze
z punktu widzenia celu sterowania. Decyzje tę nazwiemy wyborem kryteriów.
W tym miejscu zajmiemy się kryteriami. W pracy Żelazińskiego (1987)
wykazano niedopuszczalność przyjmowania za jedyne kryterium wartości ocze-
kiwanej minimalnego odpływu ze zbiornika, z dwóch ważnych powodów:
Kryterium to prowadzi do takich samych nieakceptowalnych wyników, jak
opisane kryterium deterministyczne (przy deterministycznym potraktowaniu
prognozy) – wykazują to wyniki obliczeń symulacyjnych;
Kryterium to jest niejednoznaczne w tym sensie, że istnieje wiele różnych
sterowań, które prowadzą do identycznego minimum wartości oczekiwanej,
lecz jednocześnie do całkowicie odmiennych i często wysoce szkodliwych
wyników w przypadku konkretnych realizacji fal powodziowych.
Omówimy bliżej drugą z sygnalizowanych właściwości.
Jeżeli badamy skuteczność dowolnego algorytmu sterowania z dowolnym
kryterium jakości w warunkach stochastycznych, musimy badaniami objąć wiele
realizacji fal powodziowych. Wynikiem badań jest losowy zbiór maksymalnych
odpływów ze zbiornika, czyli zbiór realizacji zmiennej losowej. Jest rzeczą
oczywistą, że istnieje wiele różnych rozkładów o identycznej wartości średniej.
Dotyczy to zresztą dowolnych charakterystyk rozkładu – momentów, kwantyli
i in. A zatem pojedyncze kryterium (w warunkach stochastycznych jest to zaw-
sze wartość oczekiwana) nie może w sposób jednoznaczny wartościować uzy-
40
skanego wyniku. W cytowanej już pracy Żelazińskiego (1987) pokazano, jak
różne algorytmy sterowania prowadzą do identycznej wartości średniej maksy-
malnego odpływu ze zbiornika (badano 19 realizacji fal powodziowych) i jak
dramatycznie różnią się wyniki ze względu na inne ważne charakterystyki roz-
wiązania. Przykładowo, pewne algorytmy zwiększały kulminacyjne przepływy
większości wezbrań, rekompensując to istotną redukcją kilku najwyższych fal.
Inne algorytmy powodowały w wielu przypadkach opróżnienie zbiornika bez
możliwości jego szybkiego napełnienia. Oczywiście żaden decydent nie zaak-
ceptuje algorytmu prowadzącego do takich wyników w sytuacji, gdy operacyjne
wyniki gospodarki powodziowej są oceniane na podstawie pojedynczych reali-
zacji zjawiska występującego stosunkowo rzadko. Problem ten rozwiązano,
wprowadzając obok kryterium podstawowego (minimum oczekiwanej wartości
maksymalnego odpływu) kilka kryteriów dodatkowych zalecanych w pracy
Kaczmarka (1984). Zainteresowanych omawianym przykładem odsyłamy do
cytowanej literatury.
Spośród kryteriów dyskutowanych w pracy Kaczmarka (1984) warto nieco
uwagi poświęcić kryterium odporności. Sprowadza się ono do żądania, aby
proponowane rozwiązanie (strategia, polityka, inwestycja, algorytm sterowania)
pozostało przydatne nawet wówczas, gdy nastąpi istotna zmiana warunków dzia-
łania, tj. gdy zmienią się zasoby wodne, potrzeby, preferencje społeczne itp.
Realizacja przedsięwzięć gospodarki wodnej jest procesem długotrwałym,
a zatem należy się liczyć z dużymi i nieprognozowalnymi zmianami zasobów
wodnych, czy potrzeb wodnych, wywołanymi np. przez zmiany technologii,
zmiany polityczne, czy demograficzne, oraz zagrożeniami powodziami i suszą,
wywołanymi np. wpływem globalnych zmian klimatu. Praktyka gospodarki
wodnej dostarcza przykładów przedsięwzięć spełniających i niespełniających
kryterium odporności. Oczywiście nie było ono rozważane przez projektantów
i jest jedynie ilustracją znaczenia dyskutowanego kryterium. Przykładowo, sto-
pień wodny w Dębem na Narwi projektowano jako fragment kaskady energe-
tyczno-żeglugowej. Jego znaczenie energetyczne jest marginalne, a żeglugi na
Narwi nikt nie uprawia. Jezioro Zegrzyńskie pełni natomiast wielką rolę jako
zaplecze rekreacyjne aglomeracji warszawskiej. Bliskość tej aglomeracji spo-
wodowała, że inwestycja jest pożyteczna pomimo dezaktualizacji celów, dla
których powstała.
Świadomość niepewności scenariuszy zmian klimatu oraz scenariuszy roz-
woju społeczno-ekonomicznego spowodowała sformułowanie innych zaleceń
podobnych do kryterium odporności. Zasada zwana w anglojęzycznej literaturze
non regrets w istocie rzeczy ma sens podobny do zasady Hipokratesa powszech-
nie uznawanej w medycynie. Polega ona na tym, by powstrzymać się od działań,
które mogą w przyszłości okazać się szkodliwe i których będziemy żałować.
W gospodarce wodnej możemy żałować nie tylko pieniędzy wydanych na niepo-
trzebną inwestycję – do czego sprowadza się kryterium odporności, straty mogą
być znacznie poważniejsze. Inwestycje gospodarki wodnej są na ogół szkodliwe
dla środowiska przyrodniczego. Jeżeli przedsięwzięcia te były niezbędne dla
41
ludzi, ich skutki można akceptować jako nieuniknione koszty rozwoju. Niestety,
można sporządzić długą listę przedsięwzięć niepotrzebnych, które wykonano,
opierając się na błędnych przewidywaniach, a których jedynym efektem jest
degradacja środowiska. Innym przykładem fatalnych skutków ignorowania ry-
zyka i bezzasadnego przekonania, że możemy ryzyko wyeliminować przez
przedsięwzięcia techniczne, jest tak zwane błędne koło ochrony przeciwpowo-
dziowej (Bobiński, Żelaziński 1996).
Reasumując, w warunkach niepewności nawet proste problemy jednokryte-
rialne (rzadko występujące w gospodarce wodnej) stają się z konieczności pro-
blemami wielokryterialnymi. Tylko wprowadzając dodatkowe kryteria i ograni-
czenia, możemy zadowalająco kontrolować skutki podejmowanych działań.
Wynik naszych działań jest bowiem zmienną losową o nieznanym rozkładzie.
Dążąc do ograniczenia możliwości przyjmowania przez tę zmienną nieakcepto-
walnych wartości, jak również ograniczając możliwość wystąpienia nieakcepto-
walnych stanów systemu wodno-gospodarczego, musimy wprowadzać analizę
wielokryterialną. Istotnym wyróżnikiem sytuacji niepewności jest fakt, że funk-
cja kryterialna jest zmienną losową. Ponieważ rozwiązaniem problemów wie-
lokryterialnych jest kompromis, znalezienie właściwego wielowymiarowego
kryterium (oraz funkcji użyteczności) jest w gospodarce wodnej raczej proble-
mem z zakresu technik negocjacyjnych niż modelowania matematycznego.
Główne wnioski wypływające z powyższych rozważań są następujące:
W sytuacji niepewności, jedynej w realnym operacyjnym zarządzaniu go-
spodarką wodną, wynik podejmowanej decyzji jest zmienną losową.
Jeden parametr zmiennej losowej, np. wartość średnia, nie charakteryzuje
wyczerpująco rozkładu, a zatem w sytuacji niepewności zazwyczaj mamy
do czynienia z problemami wielokryterialnymi.
42
zbędnych działań. Wykrywaniu niekorzystnych efektów służą systemy monito-
ringowe. Dla większości inwestycji gospodarki wodnej zakładanie i eksploato-
wanie takich systemów stanowi obowiązek inwestora, wynikający z przepisów
prawa. Częstotliwość badań monitoringowych i podejmowania stosownych dzia-
łań zależy od rodzaju problemu. Badanie erozji dna poniżej zapory może być
wykonywane raz do roku, a obserwacje dopływu i napełnienia zbiornika reten-
cyjnego w okresie powodzi służące do określenia sterowań odpływem powinny
być prowadzone raz na godzinę. Opisany mechanizm podejmowania decyzji,
zwany w automatyce sterowaniem z dyskretnym sprzężeniem zwrotnym lub ste-
rowaniem repetycyjnym, jest zazwyczaj rutynowo stosowany w gospodarce
wodnej.
Rozważmy przykład sterowania standardowego pojedynczym zbiornikiem
retencyjnym w okresie powodzi z założonym, jednogodzinnym krokiem czaso-
wym repetycji (korekty) sterowania. Załóżmy, że dostateczną reprezentacją nie-
pewności związanej z prognozą fali powodziowej, która może dopłynąć do
zbiornika retencyjnego w ciągu najbliższych 48 godzin jest zbiór („pęk”) 30
możliwych realizacji hydrogramu odpływu ze zlewni zamkniętej zbiornikiem.
Załóżmy następnie, że po 48 godzinach powódź się skończy. Dla obliczenia
jednej wartości funkcji kryterialnej musimy przeprowadzić symulację sterowa-
nia wszystkimi trzydziestoma falami w pełnym, 48-godzinnym horyzoncie cza-
sowym, maksymalny odpływ wykorzystywany do obliczenia wartości funkcji
kryterialnej może się bowiem pojawić również na końcu tego horyzontu. Dla
obliczenia ekstremum funkcji kryterialnej te obliczenia symulacyjne muszą być
wielokrotnie powtórzone. Mechanizm pojawiania się „przeszkody wymiarowo-
ści” jest następujący:
Po pierwszym, jednogodzinnym kroku symulacji sterowania uzyskujemy
30 różnych napełnień zbiornika. Zgodnie z założeniem, mówiącym, że niepew-
ność reprezentuje 30 realizacji hydrografu, w drugim kroku czasowym musimy
przeanalizować 900 różnych możliwości – dla każdego z 30 napełnień i 30 pro-
gnozowanych hydrogramów, oczywiście innych niż prognozowane w pierw-
szym kroku. Kontynuując rozumowanie dochodzimy do wniosku, że aby obli-
czyć jedną wartość funkcji kryterialnej, odpowiadającą jednej wartości sterowa-
nia na pierwszym jednogodzinnym kroku musimy przeanalizować 3048 różnych
możliwości rozwoju sytuacji. Jest to oczywiście nierealne i stanowi jeden
z głównych problemów optymalizacji stochastycznej.
43
nych wyników i że prawdopodobny postęp wymaga poprawy trafności prognoz,
a nie wyrafinowanych algorytmów optymalizacyjnych. Po prostu, finezje obli-
czeniowe nie zastąpią informacji. Można zatem postawić pytanie: na czym
polega przewaga nowych algorytmów sterowania nad tradycyjnymi instrukcjami
gospodarki wodnej stosowanymi dotychczas?
Otóż po pierwsze, nowe algorytmy wykorzystują dostępne prognozy w spo-
sób właściwy, tj. uwzględniający niepewność. Poprawia to efekty sterowania,
oczywiście w stopniu ograniczonym stosunkowo niewielkimi możliwościami
zmniejszenia niepewności przez obecnie dostępne modele prognostyczne.
Po drugie, w nowych algorytmach jest mniej arbitralnych założeń niż w in-
strukcjach tradycyjnych, gdzie przez wprowadzenie wielu optymalizowanych
parametrów następuje dopasowanie reguły decyzyjnej do hydrogramów kilku
dużych wezbrań historycznych. Zwiększa to ryzyko, że algorytmy zawiodą, gdy
pojawi się fala powodziowa o parametrach odmiennych od fal wykorzystywa-
nych do optymalizacji reguły decyzyjnej.
Po trzecie wreszcie, w nowych algorytmach, przewidując – zgodnie z zasa-
dą maksimum niepewności – możliwość pojawienia się nieakceptowalnych wy-
ników sterowania i stanów zbiornika, wprowadzono system „bezpieczników”
wykluczających lub ograniczających taką możliwość. Bezpiecznikami tymi są
dodatkowe kryteria (w postaci ograniczeń) wprowadzone do wielowymiarowej
funkcji kryterialnej. Zasada maksimum niepewności została sformułowana przed
kilkudziesięciu laty, lecz nie jest powszechnie znana i wykorzystywana w go-
spodarce wodnej. Upraszczając, zasada postuluje konieczność uwzględnienia
we wnioskowaniu statystycznym niepewności spowodowanej przyjętymi zało-
żeniami. Zasada wynika z drugiego prawa termodynamiki. Bliższe omówienie
zasady oraz negatywnych skutków jej ignorowania w ochronie przed powodzią
można znaleźć w pracy Żelazińskiego (2007)
44
Autorzy propozycji założyli, że interwencje dyspozytora zbiornika (zmiany
sterowania) podczas powodzi są dokonywane co trzy godziny na podstawie:
prognozy sumarycznego dopływu do zbiornika dla kolejnych 24 godzin
PV(i) [m3], (w regule Hydroprojektu jest to prognoza kategoryczna);
aktualnego stanu rezerwy powodziowej R(i) [m3];
aktualnrgo dopływu do zbiornika Q(i) [m3/s];
(indeks i oznacza numer kolejnego kroku interwencji).
Założenia te są realistyczne, lecz system prognoz meteorologicznych powi-
nien umożliwiać aktualizację ilościowej prognozy opadu co trzy godziny. Moż-
na to osiągnąć przez opracowanie algorytmu bieżącej aktualizacji prognozy opa-
du wykonywanej standardowo co 12 godzin.
Dyspozycje o odpływie ze zbiornika są wydawane co trzy godziny na pod-
stawie wskaźnika:
Rpi
45
3
Q [m /s]
350
dopływ
300 pr_dokł
P5
P4
250
P3
P2
200 P1
150
100
50
0
0
15
30
45
60
75
90
105
120
135
150
165
180
195
210
225
240
255
270
285
300
315
330
345
360
375
390
405
420
435
450
465
480
czas [15 min]
Rys. 6. Zbiornik Wióry na Świślinie. Wyniki symulacji sterowania wg pięciu scenariuszy loso-
wych błędów prognozy inercyjnej oraz wg prognozy dokładnej
Fig. 6. The Świślina River at the Wióry reservoir. The flood control performed based on ensemble
and categorical forecasts. The ensemble is creating by 5 scenarios of forecast errors
46
(2) Scenariusze P2, P3 i P4, aczkolwiek ich wystąpienie jest również mało
realne, przy kategorycznym sformułowaniu prognozy wnoszą – poka-
żemy to dalej – istotną informację na temat strategii wykorzystania pro-
gnozy wielowariantowej.
Uwzględniając powyższe uwagi, dochodzimy do wniosku, że prognoza in-
ercyjna sformułowana kategorycznie może prowadzić do bardzo zróżnicowa-
nych wyników, w tym do wyników absolutnie nieakceptowalnych, gdy zbiornik
o dużej pojemności rezerwy powodziowej praktycznie nie redukuje kulminacji
fali (scenariusz P1). Istotną wadą takiego scenariusza jest ponadto fakt, iż nie
redukując przepływu maksymalnego, jednocześnie nie wykorzystujemy rezerwy
powodziowej! Dokumentuje to rys. 7. Widać, iż przy sterowaniu wg scenariusza
P1 (maksymalne błędy dodatnie) wykorzystujemy zaledwie 4 mln m3 rezerwy,
natomiast sterowanie wg scenariusza P5 (maksymalne błędy ujemne) pozwala
wykorzystać aż 16 mln m3 rezerwy powodziowej. Jednocześnie, w przypadku
sformułowania prognozy inercyjnej z uwzględnieniem rozkładu jej błędów moż-
liwe jest uzyskanie znacznej redukcji kulminacji (scenariusz P5), co oczywiście
wiąże się z wykorzystaniem rezerwy powodziowej.
3
Rp [mln m ]
20
18
16
14 Rp_dokł
Rp_P5
12 Rp_P4
Rp_P3
10
Rp_P2
8 Rp_P1
0
0
15
30
45
60
75
90
105
120
135
150
165
180
195
210
225
240
255
270
285
300
315
330
345
360
375
390
405
420
435
450
465
480
47
Eksploatowane hydrologiczne modele prognostyczne zazwyczaj produkują
prognozy obarczone błędami mniejszymi od błędów prognozy inercyjnej – tylko
takie modele warto eksploatować, jako dostarczające dodatkowej informacji
w stosunku do prognozy inercyjnej. Przyjętym wskaźnikiem efektywności mo-
delu, E, jest wyrażenie:
S
E= m [10]
Si
PE = Pi ∗ E + Pd ∗ (1 − E ) [11]
48
Q [m3/s]
335
P1
P2
285 P3
P4
P5
235
185
135
85
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
wskaźnik efektywności E
Rys. 8. Zbiornik Wióry na Świślinie. Wyniki symulacji sterowania wg scenariusz P1, P2, P3, P4,
P5 przy różnych wskaźnikach efektywności prognozy E
Fig. 8. The Świślina River at the Wióry reservoir. The flood control performed based on scenarios
P1, P2, P3, P4 and P5 with different forecast efficiency coefficients
49
z założenia wykorzystujemy prognozy o ograniczonym do jednej doby ho-
ryzoncie czasowym prognozowania. Dokładna, ale ograniczona do 24 go-
dzin znajomość przyszłości, nie gwarantuje uzyskania najlepszego możli-
wego wyniku. Konieczna jest do tego znajomość dokładnego przebiegu hy-
drogramu dla całej fali powodziowej. Tak więc, wykorzystując błędną pro-
gnozę o ograniczonym horyzoncie czasowym, możemy przypadkowo uzy-
skać wynik lepszy niż wykorzystując prognozę dokładną.
52
hydrogramów, VS0 – pojemność rezerwy powodziowej w chwili t = 0, a – opty-
malizowany parametr reguły sterowania (opis optymalizacji dalej), qs–1 – stero-
wanie zastosowane w poprzednim kroku czasowym.
Sens ograniczeń wyrażonych nierównościami [18]–[20] jest następujący:
• Nie można stosować odpływu większego od dopływu, co zapobiega zwięk-
szeniu powodzi przez zbiornik.
• Jeśli zbiornik jest pełen, tj. brak rezerwy powodziowej odpływ staje się
równy dopływowi.
• W okresie szczytu fali nie zmniejszamy odpływu w stosunku do odpływu
w poprzednim kroku czasowym, ponieważ strata powodziowa związana
z poprzednim odpływem jest nieodwracalnym faktem.
• W okresie szczytu fali odpływ nie może być mniejszy od QD, nie ma bo-
wiem sensu wypełnianie rezerwy przepływem nie powodującym szkód po-
wodziowych.
Uwagi
(1) w chwili rozpoczynania symulacji sterowania szczytem fali VS0 = V–1
gdzie V–1 – napełnienie rezerwy powodziowej w końcowym momencie sy-
mulacji tworzenia dodatkowej rezerwy powodziowej,
(2) W następnych symulacjach jako początkowe napełnienie przyjmujemy obli-
czone napełnienie VS1 (tj. w chwili t = 1),
VS1 = 0 jeśli VS1* < 0
[21]
VS1 = VS1* jeśli 0 ≤ VS1* < VMAX
VS1 = VMAX jeśli VS1* > VMAX
53
Zastosowano następujący algorytm poszukiwania optymalnego oszacowa-
nia parametru a:
(1) Startując ze stanu modelu hydrologicznego uzyskanego w poprzednim kro-
ku symulacji z wykorzystaniem obserwowanych opadów, wprowadzamy
kolejno na wejście modelu 25 scenariuszy opadowych i dla każdego scena-
riusza symulujemy hydrogram odpływu w pełnym horyzoncie 72 godzin.
(2) Zakładamy wartość początkową parametru a. W pierwszym kroku po prze-
kroczeniu Q = 335 m3/s można założyć np. a = 0,0001. Po wykonaniu pew-
nej liczby symulacji nabierzemy rozeznania co do wartości parametru a
w zależności od wartości VS i wówczas pierwsze oszacowanie może być
bliskie optimum. Stosując wzory [18]–[22], symulujemy sterowanie kolej-
nymi scenariuszami hydrologicznymi. Dla każdego scenariusza wybieramy
maksymalny odpływ i tworzymy sumę tych maksymalnych odpływów.
(3) Zmieniamy parametr a (np. z 0,0001 na 0,00011) i powtarzamy krok (2).
(4) Porównujemy sumy uzyskane w kroku (2) i (3). Pozwala to ustalić przyrost
funkcji kryterialnej. Po ustaleniu kierunku poprawy zwiększamy dwukrot-
nie korektę parametru a (tj. zmieniamy ten parametr o 0,00002) w kierunku
gradientu, w stosunku do wartości lepszej z dwóch poprzednio badanych
i powtarzamy symulacje.
(5) Powtarzamy działania opisane w kroku (4), zwiększając za każdym razem
dwukrotnie krok korekty, aż uzyskamy pogorszenie oszacowania kryterium.
(6) W tym momencie mamy dwa oszacowania parametru a, między którymi
znajduje się optimum. Dalsze poszukiwania prowadzimy metodą bisekcji,
nadając parametrowi a wartość średnią arytmetyczną z oszacowań, między
którymi znajduje się optimum, aż do sytuacji gdy kolejna iteracja daje war-
tość nie różniącą się od poprzedniej ze względu na trzecią cyfrę znaczącą.
(7) Sterowanie wg optymalnej wartości parametru a stosujemy tylko do pierw-
szego kroku hydrogramu obserwowanego (tj. hydrogramu uzyskanego
w wyniku symulacji z wykorzystaniem na wejściu do modelu hydrologicz-
nego opadu obserwowanego). Uzyskujemy w ten sposób nowe oszacowanie
VS, nowe oszacowanie qs–1, co umożliwia przesunięcie się o jeden krok go-
dzinny i powtórną optymalizację parametru a w stosunku do nowego pęku
25 hydrogramów.
Uwaga:
Opisany algorytm nie gwarantuje, iż nie nastąpi całkowite napełnienie zbio-
rnika przed kulminacją dopływu. W symulacjach zdarzenie takie nie wystąpiło.
Niemniej uzyskanie pełnej gwarancji można osiągnąć w procesie optymalizacji
parametru a. Jeżeli przy optymalnej wartości a, sterowanie w stosunku do jed-
nego lub kilku hydrogramów z rozważanej wiązki spowodowało napełnienie
zbiornika przed kulminacją, należy stopniowo zwiększać parametr a aż do uzy-
skania takiego oszacowania, przy którym przedwczesne napełnienie nie następu-
je. Oczywiście prowadzi to do rozwiązania gorszego w świetle kryterium [23],
ale z dużą gwarancją eliminuje przedwczesne napełnienie zbiornika. Gwarancja
ta jest tym większa, im więcej rozważanych scenariuszy (wariantów prognozy).
54
8.5.5. Symulacja sterowań i jej wyniki
Wykorzystując hietogramy opadów średnich dla zlewni Soły, które wywo-
łały katastrofalne powodzie z 1958 i 1970 roku, wygenerowano (zakładając
współczynnik efektywności prognozy E = 0,8) 25 wariantów prognozy opado-
wej dla każdego, jednogodzinnego kroku sterowania (każda prognoza obejmuje
72-godzinny okres wyprzedzenia). Stosując model prognostyczny hydrogramu
odpływu ze zlewni Soły zamkniętej zaporą Tresna, przetworzono wariantowe
prognozy hietogramu na wariantowe prognozy hydrogramu odpływu. Wytwo-
rzone wariantowe prognozy i wyniki obserwacji hydrogramu dopływu do zbior-
nika wykorzystano do symulacji sterowań zbiornikiem Tresna, przy założeniu,
że rezerwa ustalona VU = 24 mln m3. Faktycznie na zbiornikach Kaskady Soły
jest utrzymywana dwukrotnie większa rezerwa powodziowa. Symulacje dla
rzeczywistej objętości rezerwy nie były interesujące – przy tak znacznej rezer-
wie łatwo uzyskać pozytywne wyniki. Zmniejszenie VU o połowę stawia algo
rytm sterowania w bardzo trudnej sytuacji. W szczególności, w przypadku fali
1400
1200
Qdop qodp
1000
Dopływ/sterowanie [m /s]
3
800
600
400
200
0
1 6 11 16 21 26 31 36 41 46 51 56
czas [godz]
120,00
100,00
Napełnienie zbiornika [mln m ]
3
80,00
Rys. 9. Zbiornik
60,00 Tresna na Sole.
Wynik sterowania
40,00
dla fali z 1970 roku
Fig. 9. The Sola
River at the Tresna
20,00
reservoir. Results
of the flood control
0,00 for the flood in
1 6 11 16 21 26 31 36 41 46 51 56
1970
czas [godz]
55
1800
1600
Qdop
1400
Dopływ/sterowanie[m /s]
1200
3
1000
800
600
qodp
400
200
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61
czas [godz]
120,00
100,00
Napełnienie zbiornika [mln m ]
3
80,00
56
400
350
qodp
300
Dopływ/sterowanie [m 3/s]
Qdop
250
200
150
100
50
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46
czas [godz]
82,00
80,00
78,00
Napełnienie zbiornika [mln m 3]
76,00
74,00
Rys. 11. Zbiornik
72,00
Tresna na Sole. Wy-
nik sterowania dla
70,00 niewielkiej fali
Fig. 11. The Sola
68,00 River at the Tresna
66,00
reservoir. Results of
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 the flood control for
czas [godz] a small flood.
57
8.6. Sterowanie zbiornikiem Sulejów na Pilicy w okresie suszy
Zbiornik Sulejów zamyka zlewnię Pilicy o powierzchni 4926 km2. Pojem-
ność użyteczna zbiornika wynosi 47,79 mln m3. Główne zadania zbiornika to:
zaopatrzenie w wodę użytkowników z Łodzi, Tomaszowa Mazowiec-
kiego, których łączne potrzeby wynoszą 5,45 m3/s;
zachowanie przepływu biologicznego poniżej zbiornika (9,28 m3/s).
Sumaryczne potrzeby wynoszą więc w zaokrągleniu 14,7 m3/s. Przepływ
średni z wielolecia w profilu zapory wynosi 28,1 m3/s, a przepływ minimalny
obserwowany 3,9 m3/s. Ta ostatnia wartość jest niezwykle ważna. Świadczy
o ogromnej roli zbiornika. Gdyby został całkowicie opróżniony, w okresie
minimalnego dopływu groziłoby to następującymi skutkami:
poborem całości wody z rzeki, przy czym pozostałby nadal deficyt potrzeb
ok. 1,55 m3/s. Tomaszów zostałby praktycznie bez wody (ujęcie dla Łodzi
jest bowiem wyżej), co oznaczałoby katastrofalne zagrożenie zdrowia ludzi
i ogromne perturbacje gospodarcze;
zamianą Pilicy poniżej zapory w kolektor prowadzący skoncentrowane
ścieki (głównie z Tomaszowa), co wywołałoby zagładę ekosystemów zwią-
zanych z rzeką oraz fatalne skutki dla użytkowników wody dolnej Pilicy.
Ten krótki opis przesądza o zasadniczym ograniczeniu obszaru decyzji dozwo-
lonych dla gospodarki zbiornikowej: nie wolno dopuścić do opróżnienia
zbiornika w okresie, gdy dopływy do niego są szczególnie niskie.
Obowiązująca do 1995 roku instrukcja gospodarki wodnej była standardo-
wa: zbiornik powinien być zawsze, o ile to możliwe, napełniony, przy pełnym
zaspokojeniu potrzeb wodnych.
Praktyka eksploatacyjna wykazała, że konsekwentne przestrzeganie tej za-
sady gospodarowania w latach suchych grozi całkowitym opróżnieniem zbiorni-
ka i opisanymi katastrofalnymi skutkami. Zagrożenie to szczególnie ujawniło się
zimą 1985 i latem 1992, co spowodowało ingerencję władz, polegającą na ogra-
niczeniu odpływu ze zbiornika. Pozwoliło to „dotrwać” do okresu roztopów lub
opadów, oczywiście kosztem zagrożenia ekologicznego w dolnym biegu rzeki.
W roku 1995 Hydroprojekt Warszawa opracował nowelizację instrukcji go-
spodarki wodnej. Istotą tej nowelizacji było wprowadzenie mechanizmu mini-
malizującego główne zagrożenie, tj. możliwość opróżnienia zbiornika.
Główne założenie nowej instrukcji polegało na wprowadzeniu ograniczenia
odpływu biologicznego ze zbiornika, bez ograniczania poziomu zaspokojenia
pozostałych potrzeb. Nie będziemy dyskutować zasadności tego założenia, po-
przestając na uwadze, że ekolodzy prawdopodobnie byliby skłonni negocjować
możliwość przerzucenia części ograniczeń, np. na wodochłonny przemysł. Nie
zmienia to jednak istoty dalszych rozważań – należy uznać konieczność regla-
mentacji wody, a problem, kto ma ponosić tego skutki, pozostaje otwarty.
W nowej instrukcji „wyzwalaczem” sytuacji zagrożenia deficytem jest jed-
noczesne wystąpienie dwóch warunków:
napełnienia zbiornika mniejszego niż 27,8 mln m3;
dopływu do zbiornika mniejszego niż suma potrzeb, tj. 14,7 m3/s.
58
Warunek pierwszy ustalono metodą prób, symulując pracę zbiornika na materia-
le historycznym. Warunek drugi jest oczywisty.
Przy spełnieniu pewnych dodatkowych warunków (podanych w instrukcji)
dysponowany odpływ ze zbiornika jest mniejszy od 14,7 m3/s, co oznacza ogra-
niczenie przepływu biologicznego. Analiza instrukcji prowadzi do następują-
cych wniosków:
Przyjęto, że niżówka skończy się 30 października. Wynika to z posiada-
nej serii obserwacyjnej, ale oczywiście nie jest wykluczone przedłużenie
się suszy na miesiące zimowe (tak było w roku 1985) i dlatego przyjęte
w instrukcji założenie budzi wątpliwości.
Przyjęto, że do 30 października przepływ utrzyma się na aktualnym po-
ziomie (tj. założono prognozę inercyjną). Jest to założenie rozsądne, je-
śli dyspozycję wydajemy jesienią, lecz trudne do poważnego potrakto-
wania, np. w maju.
Wielkość wskaźnika decydującego o odpływie zależy głównie od daty,
co budzi zasadnicze wątpliwości. Można bowiem przypuszczać, że do-
pasowano się do najgłębszej niżówki 1992 roku, zakładając, że głębsza
nigdy nie wystąpi.
Uwagi te nie są krytyką instrukcji. Jest ona znakomita w porównaniu z innymi
tego typu dokumentami. Po prostu instrukcję dostosowano do stanu aktual-
nego, tj. braku prognozy, która określałaby termin zakończenie niżówki
(przekroczenie przez dopływ progu 14,7 m3/s) oraz prognozowany średni
dopływ do zbiornika od momentu dyspozycji do końca niżówki.
Kolejną wartością progową w instrukcji jest odpływ wyrównany ze zbior-
nika, 10,7 m3/s, na który składają się potrzeby Tomaszowa i Łodzi oraz prze-
pływ biologiczny, pozostawiany w korycie rzek (3,75 m3/s). Postępowania takie
jest prowadzone do całkowitego opróżnienia zbiornika, kiedy w korycie pozo-
staje tylko różnica między dopływem a sumą potrzeb Łodzi i Tomaszowa, lub
nie pozostaje nic, jeśli dopływ do zbiornika jest mniejszy niż potrzeby obu
miast. Analiza ostatnich przytoczonych ustaleń instrukcji prowadzi do następu-
jących wniosków:
Przyjęto, że minimalny przepływ, jaki możemy świadomie (tzn. do mo-
mentu, kiedy jeszcze mamy wodę w zbiorniku) odprowadzić do koryta
Pilicy jako przepływ biologiczny, wynosi 3,75 m3/s.
Zaakceptowano możliwość całkowitego opróżnienia zbiornika, co jak
wykazano wyżej, może doprowadzić do klęski ekologicznej w zbiorniku
i w dolinie Pilicy poniżej zbiornika.
Symulacja wg zmodyfikowanej (obowiązującej) instrukcji wykazała, że
wielokrotnie następuje ograniczenie odpływu do 10,7 m3/s, lecz dzięki temu
w całym suchym okresie 1982-1994 zbiornik nigdy się nie opróżnił. Dwukrotnie
jednak napełnienie zbliżyło się niebezpiecznie do zera:
1 lutego 1985 roku wyniosło 2,71 mln m3;
22 października 1992 roku wyniosło 1,26 mln m3.
59
W obydwu przypadkach wzrost przepływów „uratował sytuację”. Prognozy wy-
konane przy założeniu braku zasilania, co jest wielce prawdopodobne zwłaszcza
zimą, wykazały, że:
w pierwszym przypadku (zimą 1985) całkowite opróżnienie nastąpiłoby
po 10 dniach przy przepływie około 7,0 m3/s;
w drugim przypadku (jesienią 1992) po 14 dniach przy przepływie około
8,0 m3/s.
Przedstawiona analiza wykazuje, jak bardzo prawdopodobne nadal jest cał-
kowite opróżnienie zbiornika pomimo trwających wiele miesięcy ograniczeń
przepływu biologicznego (zrzut 3,75 m3/s, zamiast wymaganego 7,75 m3/s).
Powstaje pytanie:
Czy wykorzystując rozwinięte przez autorów wielowariantowe progno-
zy hydrogramu, można uzyskać lepsze wyniki sterowania?
Oczywiście implikuje to natychmiast pytanie o kryteria i odpowiedź nie jest tu
łatwa.
Zbiornik ma zbyt małą pojemność, by z gwarancją zbliżoną do 100% wy-
równać odpływ do 14,7 m3/s, co w pełni zabezpieczałoby potrzeby. Symulacja
wykonana wg starej instrukcji ujawniła liczne przypadki całkowitego opróżnie-
nia zbiornika (w latach 1983-1985 siedmiokrotnie, a w latach 1990-1993 trzy-
krotnie). Deficyty w stosunku do potrzeb będą więc zawsze występować. Stero-
wanie wg zmodyfikowanej instrukcji, z wykorzystaniem prognozy lub bez, mo-
że zmienić tylko strukturę deficytów, np. zamienić krótsze głębokie deficyty na
dłuższe i płytsze. Wykorzystanie prognozy obarczonej błędami z całą pewnością
spowoduje „fałszywe alarmy”, tj. niepotrzebne ograniczenie odpływu wyrówna-
nego w przypadku, gdy wystąpiły opady, których nie przewidziano. Powstaje
wówczas pytanie, czy straty związane z fałszywymi alarmami zostaną zrekom-
pensowane redukcją strat w innych przypadkach? Jest to klasyczny problem
zaprojektowania optymalnego wyzwalacza (trygera) występujący zarówno bez
prognozy, jak i z prognozą.
Przy wszystkich wymienionych wątpliwościach pewne jest, iż mając pełną
wiedzę, tj. dokładną prognozę dopływu do zbiornika na okres co najmniej równy
okresowi ergodycznemu (tak nazywamy okres, po którego upływie stan począt-
kowy nie oddziałuje na stan końcowy zbiornika), możemy uzyskać najlepsze
możliwe sterowanie zbiornikiem (w automatyce zwane GOD SOLUTION).
Wiadomo również, że wykorzystanie prognoz zmniejszających niepewność
przybliża możliwe do uzyskania rozwiązanie do rozwiązania idealnego, z tym,
że prawidłowe rozwiązanie problemu stochastycznego może być niezwykle
trudne, m.in. ze względu na nie sprecyzowane oczekiwania dyspozytora zbiorni-
ka w warunkach niepewności. W szczególności musi być rozwiązany problem
preferencji rodzaju deficytów: czy lepsze krótko trwające, lecz głębokie, czy też
trwające dłużej i występujące częściej, lecz łagodniejsze? Nie jest jasny również
skutek całkowitego opróżnienia zbiornika, który z punktu widzenia deficytów
nie jest szkodliwy, jeśli nastąpi przy przepływie równym zapotrzebowaniu i nas-
tępnie trwale przekraczającym tę wartość. Być może jednak, takie całkowite
60
opróżnienie wywoła katastrofę ekologiczną w zbiorniku? Rozstrzygnięcie tych
dylematów, charakterystycznych dla wszystkich zbiorników, nie może być do-
konane w ramach niniejszej pracy. Można jednak pokazać, że wykorzystując
pęk hydrogramów w algorytmie sterowania repetycyjnego, możemy praktycznie
wykluczyć niebezpieczeństwo całkowitego opróżnienia zbiornika. Przy budowie
algorytmu decyzyjnego przyjęto następujące założenia:
Celem sterowania jest eliminacja zagrożenia całkowitym opróżnieniem
zbiornika przed momentem gdy dopływ do zbiornika przekroczy 14,7 m3/s.
Decyzje o odpływie ze zbiornika są podejmowane co 10 dni. Można je po-
dejmować codziennie, co pozwala elastyczniej dostosowywać się do ewolu-
cji niżówki. Założenie 10-dniowego cyklu repetycji skróciło obliczenia, nie
zmieniając prezentowanej zasady sterowania.
Przy podejmowaniu decyzji są wykorzystywane prognozy hydrogramu do-
pływu do zbiornika o 30-dniowym okresie wyprzedzenia, przygotowywane
co 10 dni, sformułowane w postaci pęku 30 możliwych realizacji. Opraco-
wane algorytmy pozwalają na tworzenie prognoz o dowolnie długim okresie
wyprzedzenia i stosowanie ich w procesie sterowania. Założenie 30-dniowe-
go okresu wyprzedzenia prognozy skróciło obliczenia, nie zmieniając preze-
ntowanej zasady sterowania. Potrzebne prognozy długoterminowe (30-dnio-
we) były uzyskiwane metodą bootstrapową, przez wprowadzanie na wejście
modelu hydrologicznego 30 scenariuszy opadowych zaobserwowanych
w ciągu 30 lat obserwacji i rozpoczynających się w dniu stawiania progno-
zy. W sytuacji prognozy długoterminowej jest to założenie rozsądne.
Jeżeli przy założeniu najbardziej niekorzystnego przebiegu hydrogramu
(najgłębszej prognozowanej niżówki) i uwzględnieniu aktualnego napełnie-
nia zbiornika, symulacja odpływu 14,7 m3/s w ciągu kolejnych 30 dni wyka-
że, że napełnienie zbiornika (rozumiane jako wypełnienie objętości użytecz-
nej) było zawsze większe od zera, w najbliższej dekadzie jest dysponowany
odpływ równy 14,7 m3/s.
Jeżeli przy założeniu najbardziej niekorzystnego przebiegu hydrogramu
(najgłębszej prognozowanej niżówki) i uwzględnieniu aktualnego napełnie-
nia zbiornika, symulacja odpływu 14,7 m3/s w ciągu kolejnych 30 dni wyka-
że, że napełnienie zbiornika (rozumiane jako wypełnienie objętości użytecz-
nej) było mniejsze od zera, w najbliższej dekadzie jest dysponowany taki
odpływ, aby w końcu miesiąca napełnienie było zerowe, nie osiągając war-
tości zerowej wcześniej.
Na rysunku 12 pokazano przykład sterowania zbiornikiem Sulejów według
opisanego algorytmu w okresie najgłębszej dotychczas zaobserwowanej niżówki
letniej 1992 roku. Na rysunku pokazano również sterowanie oparte na miesięcz-
nej prognozie dokładnej, oczywiście nieosiągalnej. Porównanie tych dwóch
sterowań pokazuje, że wykorzystanie najbardziej niekorzystnego scenariusza
dopływu spowodowało przedłużenie okresu deficytu. Jest to cena, jaką płacimy
za brak dokładnej informacji. Trzeba dodać, że dążenie do poprawy struktury
deficytu, bez poprawy trafności prognozy może grozić opróżnieniem zbiornika.
61
Rys. 12. Symulacja gospodarowania wodą w zbiorniku Sulejów na Pilicy w okresie suszy 1992
roku w oparciu o pęk prognozowanych hydrogramów dopływu do zbiornika
Fig. 12. The flood control in the Sulejów reservoir (the Pilica River) for the drought in 1992 based
on a forecasted inflow ensemble
62
9. Podsumowanie i wnioski
1.
Wdrożony w ostatnich latach, zmodernizowany system prognoz IMGW, pozwa-
la m.in. uzyskiwać prognozy hydrogramu odpływu ze zlewni dla okresu wy-
przedzenia 72 godzin. Prognozy można formułować wykorzystując jednogo-
dzinny lub nawet krótszy krok czasowy. Prognozy takie są niezbędne w stero-
waniu górskimi zbiornikami retencyjnymi w okresie powodzi.
2.
Wszechstronne analizy wykazały jednak, że prognozy hydrogramu są obarczone
wielkimi błędami oraz, że główna przyczyną błędów prognozy hydrologicznej
są błędy kategorycznie sformułowanych ilościowych prognoz opadów. Stwier-
dzono również, że błędy ilościowych prognoz opadów wynikają z aktualnego
stanu wiedzy oraz, że w związku z tak zwanym chaosem deterministycznym nie
należy oczekiwać istotnej poprawy trafności tych prognoz w dającej się przewi-
dzieć przyszłości.
3.
Wykazano, że przy sterowaniu zbiornikami deterministyczne traktowanie kate-
gorycznie sformułowanych ilościowych prognoz opadów i wynikających z nich
kategorycznie sformułowanych prognoz hydrogramu odpływu prowadzi do nie-
akceptowalnych sterowań. W szczególności możliwe jest zwiększenie szkód
powodziowych przez zbiornik, jak również nadmierne opróżnienie zbiornika,
szkodliwe dla innych użytkowników (poza ochroną przeciwpowodziową).
4.
Stwierdzono, że realną poprawę wyników sterowań można uzyskać przez wyko-
rzystanie prognozy wielowariantowej, w postaci „wiązki” prognozowanych
hydrogramów, stanowiącej reprezentatywną i nieobciążoną próbę losową reali-
zacji warunkowego, wielowymiarowego rozkładu prawdopodobieństwa zmien-
nych prognozowanych. Próbę taką można uzyskać, wprowadzając na wejście
modelu prognozy hydrologicznej wielowariantową ilościową prognozę hieto-
gramu opadów.
63
5.
Postulowane w p. 4 wielowariantowe prognozy hietogramu w Polsce nie są jesz-
cze rutynowo wykonywane. Są one tworzone w wielu ośrodkach zagranicznych,
budzą jednak pewne zastrzeżenia. Mianowicie, sposób pozyskiwania prognozy
przez zaburzenie warunków początkowych w modelu meteorologicznym może
prowadzić do prognozy wielowariantowej, która niekoniecznie spełnia postulat
reprezentatywnej i nieobciążonej próby losowej realizacji warunkowego, wielo-
wymiarowego rozkładu prawdopodobieństwa zmiennych prognozowanych (hie-
togramów). Ponadto, prognozy takie są wykonywane ze zbyt długim krokiem
czasowym, biorąc po uwagę potrzeby prognoz hydrologicznych.
6.
W związku z tymi wątpliwościami sformułowano kilka propozycji uzyskiwania
wielowariantowych ilościowych prognoz opadów (z 1-godzinnym krokiem cza-
sowym i 72-godzinnym okresem wyprzedzenia) na podstawie dostępnych
w Polsce ilościowych prognoz opadów z eksploatowanych modeli mezoskalo-
wych. Ten wątek badań (uboczny w stosunku do głównego problemu, lecz nie-
zbędny) doprowadził do powstania użytecznych algorytmów. Nie są to jednak
wyniki stanowiące w pełni satysfakcjonujące rozwiązania problemu – konieczne
są dalsze badania z udziałem fizyków atmosfery, synoptyków meteorologów
i klimatologów.
7.
Stosując uzyskiwane różnymi metodami wielowariantowe prognozy hydrogra-
mu odpływu, wykonano badania symulacyjne sterowania w okresie powodzi
zbiornikami retencyjnymi Wióry na rzece Świślinie i Tresna na rzece Sole.
8.
W przypadku zbiornika Wióry wykorzystano istniejącą, tradycyjną instrukcję
gospodarki powodziowej. Stwierdzono, że samo zastąpienie prognozy sformu-
łowanej kategorycznie prognozą wielowariantową prowadzi do istotnej poprawy
efektów sterowania.
9.
W przypadku zbiornika Tresna został opracowany nowy algorytm decyzyjny
dostosowany do wykorzystywania wielowariantowej prognozy. Symulacja wy-
kazała, że nowy algorytm pozwala:
Wypracować bezpośrednio przed nadejściem fali powodziowej dodatkową
rezerwę powodziową, co zwiększa efekty sterowania szczytem fali i jedno-
cześnie eliminuje niebezpieczeństwo nadmiernego opróżnienia zbiornika,
wynikające z niepewnej prognozy. W rozważanych przypadkach uzyskano
około 6 mln m3 dodatkowej rezerwy. Jest to bardzo konkretna korzyść, któ-
rą można przeliczyć na złotówki uwzględniając realne koszty uzyskania
1 m3 wody w sztucznym zbiorniku retencyjnym.
Uzyskać największą możliwą oczekiwaną redukcję maksymalnego odpły-
wu ze zbiornika. W sytuacji niepewności można rozumieć optymalność ste-
64
rowania tylko jako wymóg minimalizacji wartości oczekiwanej, tj. wynik
jest optymalny w sensie statystycznym, a konkretne realizacje sterowań są
realizacjami zmiennej losowej.
Eliminować bardzo poważne zagrożenia wynikające z niepewności pro-
gnoz, tj. zagrożenie zwiększeniem powodzi przez zbiornik oraz zagrożenie
całkowitym wypełnieniem zbiornika przed kulminacją dopływu.
Badania symulacyjne wykazały istotną i bezinwestycyjną (!) poprawę wyników
gospodarki powodziowej na zbiornikach, gdy prognozy kategoryczne zastąpimy
prognozami w postaci wiązki oraz wykorzystamy proponowany algorytm stero-
wania.
10.
Badano również wykorzystanie długoterminowej (miesięcznej) prognozy hydro-
gramu dopływu do zbiornika Sulejów na Pilicy w sterowaniu pracą zbiornika
w okresie suszy. Stwierdzono, że podejście takie eliminuje poważne zagrożenie,
jakim jest całkowite opróżnienie zbiornika.
11.
Konkretnym końcowym efektem badań nadającym się do bezpośredniego wyko-
rzystania jest nowa metodyka opracowywania instrukcji sterowania zbiornikami
retencyjnymi w okresie powodzi i suszy, pozwalająca znacznie poprawić efekty
sterowania, w stosunku do instrukcji dotychczas wykorzystywanych. Podkreślić
należy, że poprawę tę można uzyskać bezinwestycyjnie. Nowa metodyka po-
zwala wykorzystać w pełni możliwości, jakie stworzyła modernizacja systemu
prognoz IMGW. Wydaje się celowe podjęcie działań zmierzających do wdroże-
nia zaprezentowanej metodyki sterowania gospodarką powodziową na istnieją-
cych i projektowanych zbiornikach retencyjnych, pełniących funkcję ochrony
przed powodzią. Prace należałoby rozpocząć od wdrożenia pilotowego, np. dla
zbiorników Kaskady Soły. Należy jednak pamiętać, że wdrożenie instrukcji
gospodarki wodnej wykorzystującej wielowariantową ilościową prognozę opa-
dów wymaga równoległego uruchomienia w IMGW operacyjnego systemu wy-
konywania takiej prognozy.
Badania pokazały, że możliwe jest uzyskania znacznych efektów przez za-
stąpienie w procesach decyzyjnych prognozy kategorycznej prognozą warianto-
wą. W literaturze fachowej oraz w praktyce operacyjnej coraz większej liczby
służb hydrologiczno-meteorologicznych podejście takie staje się rutyną. W Pol-
sce natomiast prowadzone od 40 lat próby rozpowszechniania prognoz sformu-
łowanych w postaci ujawniającej ich niepewność spotkały się ze zdecydowaną
niechęcią decydentów. Było to przyczyną zaniechania rozpowszechniania przez
IMGW prognoz sformułowanych probabilistycznie (np. prognoz tygodniowego
dopływu do zbiorników retencyjnych). Taki, naszym zdaniem, niekorzystny stan
rzeczy wynika z kilku przyczyn omówionych szerzej w p. 6.1. Przełamanie nie-
chęci użytkowników jest ważnym zadaniem, które można zrealizować jedynie
na bazie precyzyjne przygotowanego szerokiego programu szkoleń dla właści-
cieli i operatorów zbiorników, decydentów oraz projektantów.
65
10. Literatura
66
Theis S., 2003: Deriving Probabilistic Precipitation Forecasts from LM Simulation. Contribution
to the COSMO Newsletter No.3
Zawiślak T., 2005: Warunki synoptyczne występowania intensywnych opadów deszczu w Polsce
południowo-zachodniej na przykładzie lat 2001–2003. [W] Ekstremalne zjawiska hydrolo-
giczne i meteorologiczne. Warszawa PTGeof., IMGW. S. Monografie IMGW
Żelaziński J., 1987: Prognoza hydrogramu odpływu jako podstawa sterowania zbiornikiem reten-
cyjnym w czasie powodzi. Niepublikowana rozprawa doktorska
Żelaziński J., 1995: Sterowanie systemem zbiorników retencyjnych podczas powodzi z uwzględ-
nieniem niepewności. Sprawozdanie końcowe z realizacji projektu badawczego Nr 8 5505
020 04, finansowanego przez KBN realizowanego w latach 1993-1995 przez zespoły Insty-
tutu Automatyki i Informatyki Stosowanej Politechniki Warszawskiej oraz Instytutu Mete-
orologii i Gospodarki Wodnej (maszynopis)
Żelaziński J., 1999: Catastrophic flood in the Odra river basin: experience gained during and after
the flood. La Houille Blanche, Revue Internationale de l’Eau. No 3/4 – 2000/ s.103–109
Żelaziński J., 2000: Niepewność w gospodarce wodnej. [W] Ryzyko w gospodarce wodnej. Praca
zb. pod red. M. Maciejewskiego. Monografie KGW PAN. Z. 17, s.7-44
Żelaziński J, Mierkiewicz M., 2002: The stochastic precipitation model as a base of alarm system.
„Advances in Hydro-Science and Engineering”, conference ICHE, Warsaw 2002.
Żelaziński J., 2007: Skutki ignorowania zasady maksymalnej niepewności w ochronie przeciwpo-
wodziowej. [W] Cywilizacja i żywioły, Warszawa, PTGeof., IMGW. S. Monografie IMGW
Żelaziński J., Mierkiewicz M., 2008: Ensemble predictions in hydrology: necessity, preparation
and using in water management decision processes. Colloque SHF-191e CST – „Prévisions
hydrométéorologiques”, Lyon, 18-19 novembre 2008)
67
Hydrological ensemble predictions
in water management decision processes
Abstract
Thousand telemetric hydro-meteorological posts, network of meteorological radars,
a supercomputer, set of hydrological models, mesoscale meteorological models and
many other tools were implemented to operation. However, quality of the most impor-
tant hydrological forecasts, i.e. hydrograph forecasts for small and medium mountain
catchments are still far from decision maker’s expectations. During the flood in a small
mountain catchment the decision maker, who decides about water outflow from the
reservoir, wants exact hydrograph forecasts for next several hours. During the drought,
the decision maker needs exact forecasts for next 2–3 months. Different studies have
revealed that above expectations are absolutely unrealistic, first of all because of lack of
precise quantitative precipitation forecasts.
In the close future the important progress in quantitative precipitation forecasts qual-
ity is practically impossible, is unrealistic because of chaotic nature of the atmosphere
and difficulties of precise estimating initial conditions.
Precipitation forecasts biased by substantial errors are used as an input to the hydro-
logical model. It causes large errors in hydrograph forecasts. Many simulations show
that uncorrected hydrographs in a categorical form (only one possible realization of the
future hydrograph) can cause inadmissible losses in decision processes.
The more rational solution is an eensemble hydrological forecast, but one should be
aware that special decision rules are needed in this decision making process. A simple
way to achieve a hydrological ensemble is to introduce the precipitation ensemble into
the hydrological model. Unfortunately, up to this day in Poland the meteorological fore-
cast is formulated in a categorical form. Some part of researches has been devoted to
prepare algorithms that enable to transform one categorical precipitation forecast into a
set of hyetograms, i.e. the precipitation ensemble. These are: a stochastic precipitation
model, a bootstrap method and a postprocessing procedure.
The very important problem is to develop decision algorithms that could transform
ensemble hydrological forecasts into an optimal decision. Authors concentrate on the
operational control of reservoirs during the flood or drought period. A detailed descrip-
tion of those complicated algorithms is presented in the full text. A concept of a repeti-
tive control of parameters is used in decision. It is showed that in the case of the sto-
chastic control outflow from the reservoir during the flood we can obtain many different
control results using the criteria prepared based on the expected value.
The most important result of the studies can be formulated as follows: using the en-
semble hydrological predictions and the proper decision algorithm the important pro-
gress in the reservoir control can be achieved even based on the imperfect forecast sys-
tem. This effect can be achieved without additional costs.
68