2 Zastosowanie Rachunku Rózniczkowego

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 79

optymalizacja procesowa

Zastosowanie rachunku
różniczkowego
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum funkcji – maksymalna lub minimalna wartość funkcji.

Funkcja f(x) przyjmuje w punkcie x0 maksimum lokalne (lub odpowiednio: minimum


lokalne), jeśli w najbliższym otoczeniu tego punktu (np. w pewnym przedziale otwartym)
funkcja nigdzie nie przyjmuje wartości większych (lub odpowiednio: mniejszych).
Jeśli dodatkowo w pewnym otwartym sąsiedztwie punktu x0 funkcja nie ma również
wartości równych to jest to maksimum (odpowiednio: minimum) lokalne właściwe.

Największa i najmniejsza wartość funkcji w całej dziedzinie funkcji nazywane są


odpowiednio maksimum lub minimum globalnym.

Punkty, w których może występować ekstremum funkcji:

➢ punkty stacjonarne
➢ punkty nieciągłości pochodnej
➢ punkty nieciągłości funkcji
➢ brzegi przedziału dopuszczalnego
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum funkcji – punkt stacjonarny

Punktem stacjonarnym funkcji wielu zmiennych 𝑆 𝑥1 , 𝑥2 , … , 𝑥𝑠 nazywamy taki punkt


𝒙 = 𝑥1 , 𝑥2 , … , 𝑥𝑠 , dla którego zerują się pochodne cząstkowe funkcji S rzędu pierwszego
po wszystkich zmiennych 𝑥1 , 𝑥2 , … , 𝑥𝑠 :
𝜕𝑆 𝜕𝑆 𝜕𝑆
= =⋯= =0
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑠

𝑑𝑆 𝑥
Dla funkcji jednej zmiennej: =0
𝑑𝑥
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum funkcji – punkt nieciągłości pochodnej (funkcja ciągła)

Funkcja f(x) jest ciągła w punkcie x0, gdy: lim 𝑓(𝑥) = lim+ 𝑓(𝑥) = 𝑓(𝑥0 )
𝑥→𝑥0− 𝑥→𝑥0
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum funkcji – punkt nieciągłości funkcji (pochodna ciągła)

Funkcja f(x) jest ciągła w punkcie x0, gdy: lim 𝑓(𝑥) = lim+ 𝑓(𝑥) = 𝑓(𝑥0 )
𝑥→𝑥0− 𝑥→𝑥0
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum funkcji – brzegi przedziału


optymalizacja procesowa – zastosowanie rachunku różniczkowego

Podczas szukania globalnego optimum wymagane jest znalezienie wszystkich punktów


spełniających warunek konieczny, a następnie porównanie wartości funkcji S(x) w tych
punktach w celu wyznaczenia ekstremum globalnego.

Max glob.

brzeg obszaru brzeg obszaru


Max lok.

Max lok.
Min lok. Min. lok.
pkt. stacj.

Min. glob
Pkt.
przegięcia
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum w punkcie stacjonarnym

Funkcja ciągła S(x) zmiennych x1, x2,…xs osiąga maksimum lub minimum bezwarunkowe
(bez ograniczeń) tylko dla takich wartości xi, dla których albo zeruje się jednocześnie s
pochodnych cząstkowych
𝜕𝑆
=0 𝑖 = 1, 2, … , 𝑠
𝜕𝑥𝑖

Powyższy warunek nie zapewnia nawet lokalnego maksimum lub minimum czyli tzw.
ekstremum. Jest to zatem jedynie warunek konieczny.
optymalizacja procesowa – zastosowanie rachunku różniczkowego

Ekstremum w punkcie stacjonarnym

Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej funkcji


jednej zmiennej.

Warunkiem koniecznym i wystarczającym istnienia lokalnego ekstremum ciągłej funkcji


S(x) w punkcie a jest, aby dla x = a zachodziły związki:

𝑆′ 𝑎 = 𝑆″ 𝑎 = ⋯ = 𝑆 2𝑛−1 𝑎 =0

𝑆 2𝑛 𝑎 >0 dla minimum

𝑆 2𝑛 𝑎 <0 dla maksimum


optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 1.
I. II.
𝑆 𝑥 = 𝑥4 𝑆 𝑥 = −𝑥 4
𝑆 ′ 𝑥 = 4𝑥 3 = 0 𝑆 ′ 𝑥 = −4𝑥 3 = 0
stąd:
𝑥=0 𝑥=0
𝑆" 𝑥 = 12𝑥 2 ȁ𝑥=0 = 0 𝑆" 𝑥 = −12𝑥 2 ȁ𝑥=0 = 0
𝑆 𝐼𝐼𝐼 𝑥 = 24𝑥 ȁ𝑥=0 = 0 𝑆 𝐼𝐼𝐼 𝑥 = −24𝑥 ȁ𝑥=0 = 0
𝑆 𝐼𝑉 𝑥 = 24 𝑆 𝐼𝑉 𝑥 = −24
minimum maksimum

0
optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 2.
3
punkt przegięcia
𝑆 𝑥 =𝑥
𝑆 ′ 𝑥 = 3𝑥 2 = 0
stąd:
𝑥=0
𝑆 ″ 𝑥 = 6𝑥 1 ȁ𝑥=0 = 0
𝑆 ‴ 𝑥 = 6ȁ𝑥=0 > 0
optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 3.
𝑆 𝑥 = 0.25𝑥 4 − 2𝑥 3 + 5𝑥 2 − 3.8𝑥 + 5 (3a)
𝑆 ′ 𝑥 = 𝑥 3 − 6𝑥 2 + 10𝑥 − 3.8 = 0 (3b)

rozwiązanie równania (3b):


𝑥1 = 0.538
𝑥2 = 2.101
𝑥3 = 3.361

𝑆 ″ 𝑥 = 4𝑥 2 − 12𝑥 + 10 (3c)

wartości drugiej pochodnej:


𝑆 ″ 𝑥1 = 4.41 > 0 minimum

𝑆 ″ 𝑥2 = −1.97 < 0 maksimum

𝑆 ″ 𝑥3 = 3.559 > 0 minimum


optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 3.
Wartości funkcji :
𝑆 𝑥1 = −5.888 minimum globalne
𝑆 𝑥2 = −4.59 maksimum
𝑆 𝑥3 = −5.322 minimum
optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 4.
𝑆 𝑥 = 0.25𝑥 4 − 𝑥 3 + 1.125𝑥 2 − 0.5𝑥 (4a)

𝑆 ′ 𝑥 = 𝑥 3 − 3𝑥 2 + 2.25𝑥 − 0.5 = 0 (4b)

rozwiązanie równania (4b): 𝑥1 = 0.5 𝑥2 = 2


sprawdzenie drugiej pochodnej:
𝑆 ″ 𝑥 = 3𝑥 2 − 6𝑥 + 2.25 (4c)

𝑆 ″ 𝑥1 = 0
𝑆 ″ 𝑥2 = 2.25 > 0 minimum
sprawdzenie trzeciej pochodnej:
𝑆 ‴ 𝑥 = 6𝑥 − 6
𝑆 ‴ 𝑥1 = −3 ≠ 0 punkt przegięcia
𝑆 ‴ 𝑥2 = 6
nieistotne
optymalizacja procesowa – rachunek różniczkowy
Warunki konieczne i wystarczające na lokalne ekstremum bezwarunkowe ciągłej
funkcji jednej zmiennej – przykłady
Przykład 4.
optymalizacja procesowa – rachunek różniczkowy
Badanie otoczenia punktu podejrzanego o ekstremum

Wprowadzamy
Δ𝑆 = 𝑆 𝑥0 + 𝜀 − 𝑆 𝑥0

gdzie  jest dowolnego znaku, bo interesują nas obie strony x0 tzn. x0 +  oraz x0 – 

Oczywiście: Δ𝑆 < 0 dla maksimum


Δ𝑆 > 0 dla minimum
To są warunki wystarczające
optymalizacja procesowa – rachunek różniczkowy
Badanie otoczenia punktu podejrzanego o ekstremum
dla przykładu 4.

Δ𝑆 = 0.25 𝑥 + 𝜀 4
− 𝑥 + 𝜀 3 + 1.125 𝑥 + 𝜀 2 − 0.5 𝑥 + 𝜀 +
−0.25𝑥 4 + 𝑥 3 − 1.125𝑥 2 + 0.5𝑥

po wymnożeniu i uproszczeniu:

Δ𝑆 = 0.25𝜀 4 + 𝑥 − 1 𝜀 3 + 1.5𝑥 2 − 3𝑥 + 1.125 𝜀 2 + 𝑥 3 − 3𝑥 2 + 2.25𝑥 − 0.5 𝜀

dla x1 = 2 Δ𝑆 = 0.25𝜀 4 + 𝜀 3 + 1.125𝜀 2 (*)

Musimy określić znak wyrażenia (*) dla  > 0 oraz  < 0.


Ponieważ badamy otoczenie punktu, to  jest bardzo małe tzn. |  | → 0,
a zatem 2 > | 3 | – tym bardziej 1.1252 > | 3 |.

dla  >0 Δ𝑆 = 1.125𝜀 2 + 𝜀 3 + 0.25𝜀 4 > 0

dla  <0 Δ𝑆 = 1.125𝜀 2 + 𝜀 3 + 0.25𝜀 4 > 0 bo 1.125𝜀 2 − 𝜀 3 > 0


minimum
optymalizacja procesowa – rachunek różniczkowy
Badanie otoczenia punktu podejrzanego o ekstremum
dla przykładu 4.

Δ𝑆 = 0.25 𝑥 + 𝜀 4
− 𝑥 + 𝜀 3 + 1.125 𝑥 + 𝜀 2 − 0.5 𝑥 + 𝜀 +
−0.25𝑥 4 + 𝑥 3 − 1.125𝑥 2 + 0.5𝑥

po wymnożeniu i uproszczeniu:

Δ𝑆 = 0.25𝜀 4 + 𝑥 − 1 𝜀 3 + 1.5𝑥 2 − 3𝑥 + 1.125 𝜀 2 + 𝑥 3 − 3𝑥 2 + 2.25𝑥 − 0.5 𝜀

dla x1 = 0.5 Δ𝑆 = 0.25𝜀 4 − 0.5𝜀 3 = 0.25𝜀 3 𝜀 − 2 (**)

Określamy znak wyrażenia (**) dla  > 0 oraz  < 0.


Jeżeli |  | → 0, to zawsze (  – 2) < 0 – zatem o znaku wyrażenia (**) decyduje znak 3
stąd:
dla  >0 3 >0 Δ𝑆 < 0

dla  <0 3 <0 Δ𝑆 > 0


punkt przegięcia
optymalizacja procesowa – rachunek różniczkowy
Wyprowadzenie warunków koniecznych i wystarczających.

Niech funkcja f(x) ma punkt stacjonarny w punkcie x = x0.


Funkcję tę rozwijamy w szereg Taylora wokół punktu x0:

𝜀 𝜀 2 𝜀 3 𝜀𝑛
𝑓 𝑥0 + 𝜀 = 𝑓 𝑥0 + 𝑓 ′ 𝑥0 + 𝑓 ″ 𝑥0 + 𝑓 ‴ 𝑥0 + ⋯+ 𝑓 𝑛 𝑥0
1! 2! 3! 𝑛!
stąd:

Δ𝑓 = 𝑓 𝑥0 + 𝜀 − 𝑓 𝑥0 =
′ 𝜀 ″ 𝜀2 ‴ 𝜀3 𝑛 𝜀𝑛
=𝑓 𝑥0 +𝑓 𝑥0 +𝑓 𝑥0 + ⋯+ 𝑓 𝑥0
1! 2! 3! 𝑛!

O znaku Δf decyduje wyraz z najniższą potęgą n.


Jeżeli pierwsza nieznikająca pochodna jest rzędu nieparzystego to n zmienia znak
wraz ze znakiem , zaś dla rzędu parzystego zawsze n > 0, a zatem o znaku wyrażenia
decyduje znak pochodnej f (n).

Zwróćmy uwagę, że jeśli pierwsza nieznikająca pochodna jest rzędu parzystego to jest
to warunek nie tylko konieczny, lecz i wystarczający.
optymalizacja procesowa – rachunek różniczkowy
Wyprowadzenie warunków koniecznych i wystarczających.

UWAGA: Wzór na szereg Taylora przestaje być w niektórych przypadkach słuszny.


(Na ogół nie dotyczy to procesów inżynierii chemicznej.)
Przykładem gdy nie jest on słuszny jest przykład Cauchy’ego:

1
− 2
𝑓 𝑥 = ቐ𝑓 𝑥 = 𝑒 𝑥 dla 𝑥≠0
𝑓 0 =0
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Analogicznie jak dla funkcji jednej zmiennej ekstremum (minimum lub maksimum)
funkcji wielu zmiennych musi leżeć w którymś z punktów stacjonarnych, albo w
miejscach nieciągłości funkcji lub jej pochodnych (gradientu). Również dla funkcji
wielu zmiennych rachunek różniczkowy odgrywa podstawową rolę jako narzędzie
analityczne podczas określania punktów stacjonarnych.

Dla funkcji: 𝑆 = 𝑆 𝑥1 , 𝑥2 , … , 𝑥𝑠

maksimum (minimum) musi leżeć w którymś z jej punktów stacjonarnych


spełniających równania

𝜕𝑆 𝜕𝑆 𝜕𝑆
= =⋯= =0
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑠

albo w punktach nieciągłości funkcji lub jej gradientów.


optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Określenie warunków wystarczających wymaga uprzedniego w prowadzenia macierzy


Hessa.
𝜕2𝑆 𝜕2𝑆 𝜕2𝑆

𝜕𝑥12 𝜕𝑥1 𝜕𝑥2 𝜕𝑥1 𝜕𝑥𝑠
𝜕2𝑆 𝜕2𝑆 𝜕2𝑆
𝐻 = 𝜕𝑥2 𝜕𝑥1 𝜕𝑥22 𝜕𝑥2 𝜕𝑥𝑠
⋮ ⋮
𝜕2𝑆 𝜕2𝑆 𝜕2𝑆

𝜕𝑥𝑠 𝜕𝑥1 𝜕𝑥𝑠 𝜕𝑥2 𝜕𝑥𝑠2

Warunkiem wystarczającym dla lokalnego minimum jest dodatnia określoność


macierzy Hessa, podczas gdy warunkiem wystarczającym dla lokalnego maksimum
jest ujemna określoność tej macierzy. Istotne jest, że dla H = 0 sytuacja jest
nierozstrzygnięta.
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Stąd warunki konieczne dla minimum można wzmocnić do postaci

𝜕𝑆
=0 dla 𝑖 = 1,2, … , 𝑠 oraz 𝐻≥0
𝜕𝑥𝑖
zaś wystarczające:

𝜕𝑆
=0 dla 𝑖 = 1,2, … , 𝑠 oraz 𝐻>0
𝜕𝑥𝑖

Analogicznie dla maksimum warunki konieczne

𝜕𝑆
=0 dla 𝑖 = 1,2, … , 𝑠 oraz 𝐻≤0
𝜕𝑥𝑖
zaś wystarczające:
𝜕𝑆
=0 dla 𝑖 = 1,2, … , 𝑠 oraz 𝐻<0
𝜕𝑥𝑖
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Warunki wystarczające są skomplikowane jeśli H=0. o naturze punktu stacjonarnego


wnioskuje się po zbadaniu pochodnych wyższego rzędu, lub (metoda częściej
stosowana) po zbadaniu wartości funkcji w otoczeniu punktu stacjonarnego.

Twierdzenie Sylwestra (dotyczące określoności macierzy Hessa)

Warunkiem koniecznym i wystarczającym dla dodatniej określoności macierzy Hessa


jest, aby każdy z jej głównych minorów był większy od zera. Natomiast warunkiem
koniecznym i wystarczającym ujemnej określoności macierzy Hessa jest, aby każdy z
nieparzystych głównych minorów macierzy Hessa był ujemny, zaś każdy z jej
parzystych głównych minorów był dodatni.
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

𝑎11 𝑎12 ⋯ 𝑎1𝑠


𝜕2 𝑆 𝑎21 𝑎22 𝑎2𝑠
oznaczmy: 𝑎𝑖,𝑗 = stąd 𝐻= ⋮ ⋮
𝜕𝑥𝑖 𝜕𝑥𝑗
𝑎𝑠1 𝑎𝑠2 ⋯ 𝑎𝑠𝑠

dla lokalnego minimum mamy zatem:


𝑎11 𝑎12 ⋯ 𝑎1𝑠
𝑎11 𝑎12 𝑎21 𝑎22 𝑎2𝑠
𝑚1 = 𝑎11 > 0, 𝑚2 = 𝑎 𝑎22 > 0, …, 𝑚s = ⋮ ⋮ >0
21
𝑎𝑠1 𝑎𝑠2 ⋯ 𝑎𝑠𝑠

zaś dla lokalnego maksimum


𝑎11 𝑎12 𝑎13
𝑎11 𝑎12
𝑚1 = 𝑎11 < 0, 𝑚2 = 𝑎 𝑎 𝑎22 𝑎23 < 0,
21 𝑎22 > 0, 𝑚3 = 21 itd..
𝑎31 𝑎32 𝑎33
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Dla funkcji dwóch zmiennych warunki konieczne i wystarczające można zapisać


dla minimum:

2
𝜕𝑆 𝜕𝑆 𝜕2𝑆 𝜕2𝑆 𝜕2𝑆 𝜕2𝑆
= 0, =0 𝑖 > 0, − >0
𝜕𝑥1 𝜕𝑥2 𝜕𝑥12 𝜕𝑥12 𝜕𝑥22 𝜕𝑥1 𝜕𝑥2

dla maksimum:

2
𝜕𝑆 𝜕𝑆 𝜕2𝑆 𝜕2𝑆 𝜕2𝑆 𝜕2𝑆
= 0, =0 𝑖 < 0, − >0
𝜕𝑥1 𝜕𝑥2 𝜕𝑥12 𝜕𝑥12 𝜕𝑥22 𝜕𝑥1 𝜕𝑥2

jeżeli w punkcie stacjonarnym spełniona jest nierówność

2
𝜕2𝑆 𝜕2𝑆 𝜕2𝑆
− <0
𝜕𝑥12 𝜕𝑥22 𝜕𝑥1 𝜕𝑥2
to punkt jest siodłem.
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 1. dla funkcji dwóch zmiennych
𝑆 𝑥, 𝑦 = 𝑥 2 + 𝑦 2 − 4𝑥 − 6𝑦 + 13
𝜕𝑆 𝜕𝑆
= 2𝑥 − 4 = 0 ⇒ 𝑥 = 2 = 2𝑦 − 6 = 0 ⇒ 𝑦 = 3
𝜕𝑥 𝜕𝑦

𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆
= 2, = 2, = =0
𝜕𝑥 2 𝜕𝑦 2 𝜕𝑥𝜕𝑦 𝜕𝑦𝜕𝑥

2 0
𝐻=
0 2

𝑚1 = 𝑎11 = 2 > 0,

2 0
𝑚2 = =4−0= 4>0
0 2
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 2. dla funkcji dwóch zmiennych
𝑆 𝑥, 𝑦 = 𝑥 2 − 𝑦 2 − 4𝑥 + 6𝑦 − 5

𝜕𝑆 𝜕𝑆
= 2𝑥 − 4 = 0 ⇒ 𝑥 = 2, = −2𝑦 + 6 = 0 ⇒ 𝑦 = 3
𝜕𝑥 𝜕𝑦

𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆
= 2, = −2, = =0
𝜕𝑥 2 𝜕𝑦 2 𝜕𝑥𝜕𝑦 𝜕𝑦𝜕𝑥

2 0
𝐻=
0 −2

𝑚1 = 𝑎11 = 2 > 0,

2 0
𝑚2 = = −4 − 0 = −4 < 0
0 2
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 3. dla funkcji dwóch zmiennych
𝑆 𝑥, 𝑦 = sin( 𝑥) + sin( 𝑦)

𝜕𝑆 𝜋 𝜕𝑆 𝜋
= cos( 𝑥) = 0 ⇒ 𝑥 = + 2𝑘𝜋, = cos( 𝑦) = 0 ⇒ 𝑦 = + 2𝑙𝜋3
𝜕𝑥 2 𝜕𝑦 2

𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆
= − sin( 𝑥), = − sin( 𝑦), = =0
𝜕𝑥 2 𝜕𝑦 2 𝜕𝑥𝜕𝑦 𝜕𝑦𝜕𝑥

− sin( 𝑥) 0
𝐻=
0 − sin( 𝑦)

𝑚1 = 𝑎11 = − sin( 𝑥)
dla k parzystego <0 dla k nieparzystego >0

𝑚2 = 𝑎11 𝑎22 − 𝑎12 𝑎21 = sin( 𝑥) sin( 𝑦)


dla k i l parzystego >0;
dla k parzystego i l nieparzystego lub odwrotnie >0
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Dla funkcji wielu zmiennych sprawdzenie określoności macierzy Hessa może okazać
się bardzo uciążliwe. Dlatego też wprowadza się wzmocnienie warunków koniecznych
danych równaniem:
𝜕𝑆 𝜕𝑆 𝜕𝑆
= =⋯= =0
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑠

W literaturze spotyka się silniejszą formę warunków koniecznych dla ekstremum.


Sieniutycz podaje, że warunkiem koniecznym, oprócz powyższego równania, jest to
aby forma kwadratowa G

1 𝑚 𝑚 𝜕2 𝑆
𝐺= σ σ 𝛿𝑦𝑖 𝛿𝑦𝑗 (2)
2 𝑗=1 𝑖=1 𝜕𝑦𝑗 𝜕𝑦𝑖

spełniała nierówności:
𝐺≥0 dla minimum (3a)

𝐺≤0 dla maksimum (3b)


optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Prawdziwość zależności (2) i (3) wynika z rozwinięcia funkcji S w szereg Taylora w


otoczeniu y:
𝑚
𝜕𝑆
Δ𝑆 = 𝑆 𝑦ො1 + 𝛿𝑦1 , 𝑦ො2 + 𝛿𝑦2 , . . . , 𝑦ො𝑚 + 𝛿𝑦𝑚 − 𝑆 𝑦ො1 , 𝑦ො2 , . . . , 𝑦ො𝑚 = ෍ 𝛿𝑦 +
𝜕𝑦𝑖 𝑖
𝑖=1
𝑚 𝑚 𝑚 𝑚 𝑚
1 𝜕2𝑆 1 𝜕3𝑆
+ ෍෍ 𝛿𝑦 𝛿𝑦 + ෍ ෍ ෍ 𝛿𝑦 𝛿𝑦 𝛿𝑦 +. . .
2! 𝜕𝑦𝑗 𝜕𝑦𝑖 𝑗 𝑖 3! 𝜕𝑦𝑘 𝜕𝑦𝑗 𝜕𝑦𝑖 𝑘 𝑗 𝑖
𝑗=1 𝑖=1 𝑘=1 𝑗=1 𝑖=1
(4)

i uwzględniając, że:
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

1) dla ekstremum funkcji S w punkcie y konieczne jest zachowanie znaku prawej


strony równania (4) – ujemnego dla maksimum i dodatniego dla minimum

2) przyrosty δyi przyjmują zarówno wartości dodatnie jak i ujemne

3) istnieją takie otoczenia y, w których znak określonej formy, tzn. sumy wyrazów
zawierających pochodne cząstkowe tego samego rzędu , jest taki sam jak znak
dowolnie wybranego składnika tej sumy (formy) zawierającego pochodną jednorodną

4) istnieje takie otoczenie punktu y, w którym bezwzględna wartość niezerowej formy


dowolnego rzędu jest większa od bezwzględnej wartości sumy wszystkich form
wyższego rzędu.
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

I. Aby warunek konieczny dany zależnościami (2) i (3) był zawsze spełniony musi
obowiązywać nierówność w przypadku maksimum funkcji S:

𝜕2𝑆
2 <0 dla 𝑖 = 1, . . . 𝑚
𝜕𝑦𝑖

lub w przypadku minimum funkcji S:

𝜕2𝑆
>0 dla 𝑖 = 1, . . . 𝑚
𝜕𝑦𝑖2

Wynika to z warunku 3) – decyduje znak pochodnej jednorodnej wobec (δyi)2 > 0.


optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

I. Jeżeli dla dowolnego i otrzymuje się:


𝜕𝑆 𝜕2𝑆 𝜕3𝑆
= 2=0 oraz 3 ≠0
𝜕𝑦𝑖 𝜕𝑦𝑖 𝜕𝑦𝑖

w rozważanym punkcie ekstremum nie występuje.


Aby to udowodnić, należy koleino zauważyć, że:
a) wobec warunku 2) wyrażenie 𝜕 3 𝑆Τ𝜕𝑦𝑖3 𝛿𝑦𝑖 3 przyjmuje zarówno wartości dodatnie jak i
ujemne;
b) wobec warunku 3) istnieje takie otoczenie y, w którym wyrażenie to decyduje o znaku całej
formy 3-ego rzędu;
c) wobec warunku 4) i niezerowej formy 3-ego rzędu istnieje takie otoczenie y, w którym formy
wyższego rzędu nie mają wpływu na znak prawej strony równania (2);
d) wobec 𝜕 2 𝑆Τ𝜕𝑦𝑖2 = 0 wszystkie niezerowe składniki formy kwadratowej są iloczynami, w
których przynajmniej jeden czynnik jest przyrostem δyj różnym od δyi; istnieje dlatego takie
otoczenie y (wszystkie δyi j odpowiednio mniejsze co do bezwzględnej wartości od δyi), w
którym bezwzględna wartość 𝜕 3 𝑆Τ𝜕𝑦𝑖3 𝛿𝑦𝑖 3 jest większa od bezwzględnej wartości formy
kwadratowej określonej równaniem (2);
- wynika stąd, że w omawianym przypadku nie istnieje takie otoczenie y, w którym warunek (1)
jest spełniony.
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.

Z powyższych rozważań wynika, że jeśli


𝜕𝑆 𝜕2𝑆 𝜕3𝑆
= =0 oraz 3 ≠0
𝜕𝑦𝑖 𝜕𝑦𝑖2 𝜕𝑦𝑖

to wyrażenie 𝜕 3 𝑆Τ𝜕𝑦𝑖3 𝛿𝑦𝑖 3 może decydować o znaku prawej strony równania (4). Ponieważ
wyrażenie to może przyjmować różne znaki to powoduje to, że nie spełniony jest warunek 1),
czyli nie spełniony jest warunek konieczny ekstremum – mamy punkt siodłowy.
Uogólnienie rozważań na formy wyższych rzędów prowadzi do warunków koniecznych
wystąpienia lokalnego ekstremum funkcji wielu zmiennych bez ograniczeń w następującej postaci
dla i =1, 2, … m:
𝜕𝑆 𝜕2𝑆 𝜕 2𝑏−1 𝑆
= =. . . = =0
𝜕𝑦𝑖 𝜕𝑦𝑖2 𝜕𝑦
2𝑏−1
𝑖
𝜕 2𝑏 𝑆 <0 dla maksimum

𝜕𝑦𝑖2𝑏 > 0 dla minimum

Warunki konieczne stają się jednocześnie wystarczającymi, jeśli funkcja jest w otoczeniu y
wklęsła (maksimum) bądź wypukła (minimum).
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 4.
Znaleźć punkty stacjonarne i określić ich charakter:
𝐹 𝑥, 𝑦 = 17𝑥 2 + 𝑥𝑦 + 34 ln 𝑦

Warunki konieczne słabe: po rozwiązaniu:

𝜕𝐹
= 34𝑥 + 𝑦 = 0 𝑥=1 𝑥 = −1
𝜕𝑥
𝑦 = −34 𝑦 = 34
𝜕𝐹 34 odrzucamy, bo y>0
=𝑥+ =0
𝜕𝑦 𝑦

warunki konieczne silne:


𝜕2𝐹
= 34
𝜕𝑥 2 Wobec różnych znaków pochodnych warunki
konieczne na ekstremum nie są spełnione – tak
𝜕2𝐹 34 1 więc jest to siodło.
= − 2ቤ =−
𝜕𝑦 2 𝑦 𝑦=34 34
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 4.

Warunki wystarczające:
𝜕2𝐹 𝜕2𝐹
34 1 34 1
𝜕𝑥 2 𝜕𝑥𝜕𝑦 34 1
𝐻= 2 = 1 − 2 = 1
𝜕 𝐹 𝜕2𝐹 𝑦

34
𝜕𝑥𝜕𝑦 𝜕𝑦 2
𝜕2 𝐹
=1>0
𝜕𝑥𝜕𝑦
2
𝜕2 𝐹 𝜕2 𝐹 𝜕2 𝐹 1
− = 34 − − 12 = −2 < 0
𝜕𝑥 2 𝜕𝑦 2 𝜕𝑥𝜕𝑦 34
zatem rzeczywiście punkt siodłowy
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 5.
Znaleźć punkty stacjonarne i określić ich charakter:

𝑆 𝑥1 , 𝑥2 = 8𝑥1 + 𝑥2 + 5𝑥12 − 9𝑥1 𝑥2 + 2𝑥22

Warunki konieczne słabe: po rozwiązaniu:

𝜕𝑆
= 8 + 10𝑥12 − 9𝑥2 = 0 𝑥1 = 1
𝜕𝑥1
𝜕𝑆
= 1 − 9𝑥1 + 4𝑥2 = 0 𝑥2 = 2
𝜕𝑥2

warunki konieczne silne:

𝜕2 𝑆
= 10 > 0
𝜕𝑥12
𝜕2 𝑆
=4>0
𝜕𝑥22
warunki konieczne silne wskazują na minimum, ale …
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 5.
czy są spełnione warunki wystarczające?

𝜕2 𝑆
= −9 < 0
𝜕𝑥1 𝜕𝑥2
2
𝜕2 𝑆 𝜕2 𝑆 𝜕2 𝑆 2
− = 10 ⋅ 4 − −9 = −41 < 0
𝜕𝑥12 𝜕𝑥22 𝜕𝑥1 𝜕𝑥2
a więc punkt siodłowy
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 5.
Wyjaśnienie!

Pochodne cząstkowa opisują zmiany


wartości funkcji przy zmianie wartości danej 𝜕𝑆
zmiennej przy ustalonych wartościach 𝜕𝑥1
pozostałych zmiennych,
tzn. tylko dla „głównych kierunków”.

Należy zbadać jeszcze wszystkie 𝜕𝑆


pozostałe kierunki. 𝜕𝑥2
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych.
Przykład 5.

𝜕𝑆
𝜕𝑦
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji jednej zmiennych – brzeg przedziału
dopuszczalnego.

Warunek konieczny i wystarczający na istnienie ekstremum na brzegu przedziału


dopuszczalnego:
𝑑𝑓 < 0 dla maksimum
𝛿𝑥 ቊ
𝑑𝑥 > 0 dla minimum

𝜕𝑆
𝜕𝑦

𝑑𝑓
>0 𝑑𝑓
𝑑𝑥 𝛿𝑥 > 0
𝑑𝑥 minimum 𝑑𝑓
<0
𝑑𝑥 𝑑𝑓
𝛿𝑥 > 0
𝑑𝑥 minimum
𝛿𝑥>0 𝛿𝑥<0
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji jednej zmiennych – brzeg przedziału
dopuszczalnego.

Warunek konieczny i wystarczający na istnienie ekstremum na brzegu przedziału


dopuszczalnego:
𝑑𝑓 < 0 dla maksimum
𝛿𝑥 ቊ
𝑑𝑥 > 0 dla minimum

𝜕𝑆
𝑑𝑓 𝜕𝑦
𝛿𝑥 < 0
𝑑𝑥 maksimum
𝑑𝑓
𝛿𝑥 > 0
𝑑𝑥 minimum 𝑑𝑓
>0
𝑑𝑥
𝑑𝑓
𝛿𝑥>0 𝛿𝑥<0 >0
𝑑𝑥
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji jednej zmiennych – punkt nieciągłości pochodnej

Warunek konieczny i wystarczający na istnienie ekstremum na brzegu przedziału


dopuszczalnego:
𝑑𝑓 < 0 dla maksimum
𝛿𝑥 ቊ
𝑑𝑥 > 0 dla minimum

𝑑𝑓 𝑑𝑓
<0 >0
𝑑𝑥 𝑑𝑥
𝑑𝑓 𝜕𝑆
𝛿𝑥 < 0 𝑑𝑓
𝑑𝑥 maksimum 𝛿𝑥 < 0 𝜕𝑦
𝑑𝑥 maksimum

𝛿𝑥<0 𝛿𝑥>0
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji jednej zmiennych – punkt nieciągłości funkcji

Warunek konieczny i wystarczający na istnienie ekstremum na brzegu przedziału


dopuszczalnego:
𝑑𝑓 < 0 dla maksimum
𝛿𝑥 ቊ
𝑑𝑥 > 0 dla minimum

𝑑𝑓
𝛿𝑥 < 0
𝑑𝑥 maksimum
𝑑𝑓 𝜕𝑆
𝛿𝑥 > 0
𝑑𝑥 minimum
𝜕𝑦
𝛿𝑥<0
𝛿𝑥>0

𝑑𝑓
>0
𝑑𝑥
optymalizacja procesowa – rachunek różniczkowy
Poszukiwanie ekstremum funkcji wielu zmiennych – brzeg przedziału
optymalizacja procesowa – rachunek różniczkowy

𝑓 𝑥 = 𝑥 4 − 5𝑥 3

𝑓′ 𝑥 = 4𝑥 3 − 15𝑥 2

𝑓 ′ (𝑥) = 0 𝑑𝑙𝑎 𝑥 = 0

𝑓 ′′ (𝑥) = 12𝑥 2 − 30𝑥

𝑓 ′′ (0) = 0

𝑓′′′ 𝑥 = 24𝑥 − 30

𝑓 ′′′ 0 = −30
𝑛𝑖𝑒 𝑒𝑘𝑠𝑡𝑟𝑒𝑚𝑢𝑚
optymalizacja procesowa – rachunek różniczkowy

𝑓 𝑥 = 𝑥 4 − 5𝑥 3

𝑓′ 𝑥 = 4𝑥 3 − 15𝑥 2

𝑓 ′ (𝑥) = 0 𝑑𝑙𝑎 𝑥 =3.75

𝑓 ′′ (𝑥) = 12𝑥 2 − 30𝑥

𝑓 ′′ (0) = 56.25
minimum
optymalizacja procesowa – rachunek różniczkowy

𝑓 𝑥 = 𝑥 4 − 5𝑥 3
2≤𝑥≤5

𝑓′ 𝑥 = 4𝑥 3 − 15𝑥 2

𝑓 ′ (𝑥) = 0 𝑑𝑙𝑎 𝑥 =3.75


minimum

𝑓 ′ 2 = −28
𝑓 ′ (5) = 125

Warunek dla ekstremum


na brzegu przedziału:

𝑑𝑓(𝑥) < 0 𝑑𝑙𝑎 𝑚𝑎𝑥.


𝛿𝑥 ቐ
𝑑𝑥
> 0 𝑑𝑙𝑎 𝑚𝑖𝑛.
optymalizacja procesowa – rachunek różniczkowy
Badanie otoczenia punktu.

∆𝑓 𝑥 = 𝑓 𝑥 + 𝛿 − 𝑓 𝑥
= 𝛿 4 − 5𝛿 3 + 4𝑥𝛿 3 + 6𝑥 2 𝛿 2 − 15𝑥𝛿 2
+ 4𝑥 3 𝛿 − 15𝑥 2 𝛿

> 0 𝑑𝑙𝑎 𝑚𝑖𝑛.


∆𝑓 𝑥 ቐ
< 0 𝑑𝑙𝑎 𝑚𝑎𝑥.

dla 𝑥 = 3.75
∆𝑓 3.75 = 𝛿 4 + 10𝛿 3 + 28.125𝛿 2

dla 𝑥 = 2
∆𝑓 2 = 𝛿 4 + 3𝛿 3 − 6𝛿 2 − 28𝛿

dla 𝑥 =5
∆𝑓 5 = 𝛿 4 + 15𝛿 3 + 75𝛿 2 + 125𝛿
optymalizacja procesowa – rachunek różniczkowy
Ponieważ 𝛿 → 0 o znaku wyrażenia
decyduje wyrażenie z najmniejszym
wykładnikiem potęgi,
zatem
dla 𝑥 = 3.75
∆𝑓 3.75 = 𝛿 4 + 10𝛿 3 + 28.125𝛿 2
∆𝑓 3.75 > 0 dla każdego 𝛿
więc minimum

dla 𝑥 = 2
∆𝑓 2 = 𝛿 4 + 3𝛿 3 − 6𝛿 2 − 28𝛿
∆𝑓 2 > 0 dla 𝛿 < 0
∆𝑓 2 < 0 dla 𝛿 > 0
ale zawsze 𝛿 > 0 więc maksimum

dla 𝑥 =5
∆𝑓 5 = 𝛿 4 + 15𝛿 3 + 75𝛿 2 + 125𝛿
∆𝑓 5 < 0 dla 𝛿 < 0
∆𝑓 5 > 0 dla 𝛿 > 0
ale zawsze 𝛿 < 0 więc maksimum
optymalizacja procesowa – rachunek różniczkowy

Punkt nieciągłości funkcji

dana jest funkcja:

𝑥 2 𝑑𝑙𝑎 𝑥 ≥ 1
𝑓 𝑥 = 1
𝑥2 − 𝑑𝑙𝑎 𝑥 < 1
𝑥−1

𝑑𝑓(𝑥)
𝛿𝑥 = 2𝑥𝛿𝑥 > 0 𝑑𝑙𝑎 𝑥 ≥ 1
𝑑𝑥
zatem minimum

𝑑𝑓(𝑥) 1
𝛿𝑥 = 2𝑥 + 2
𝛿𝑥 < 0
𝑑𝑥 𝑥−1
𝑑𝑙𝑎 𝑥 < 1
optymalizacja procesowa – rachunek różniczkowy

Punkt nieciągłości funkcji

otoczenie punktu dla 𝑥 ≥ 1

∆𝑓 𝑥 = 𝑥 + 𝛿 2 − 𝑥 2 =
= 2𝑥𝛿 + 𝛿 2

dla 𝑥 = 1
∆𝑓 𝑥 = 2𝛿 + 𝛿 2 > 0 𝑏𝑜 𝛿 > 0
optymalizacja procesowa – rachunek różniczkowy

Punkt nieciągłości pochodnej 4


4

dana jest funkcja:

𝑓 𝑥 = 𝑥 2 − 4𝑥 + 2 2

𝑑𝑓 𝑥
= (2𝑥 − 4)𝑠𝑖𝑔(𝑥 2 − 4𝑥 + 2) f ( x)
𝑑𝑥 df ( x) 0 0.2 0.4 0.6 0.8

−1 𝑑𝑙𝑎 𝑥 < 0
𝑠𝑖𝑔 𝑥 = ቐ 0 𝑑𝑙𝑎 𝑥 = 0
1 𝑑𝑙𝑎 𝑥 > 0 -2

badamy otoczenie
-4
-4

∆𝑓 𝑥 -0 x 1

= 𝑥+𝛿 2−4 𝑥+𝛿 +2


− 𝑥 2 − 4𝑥 + 2 =
= 𝛿 2 + 2𝑥𝛿 − 4𝛿 + 𝑥 2 − 4𝑥 + 2
− 𝑥 2 − 4𝑥 + 2
optymalizacja procesowa – rachunek różniczkowy

Badamy otoczenie 4
4

∆𝑓 𝑥 = 𝛿 2 + 2𝑥𝛿 − 4𝛿 + 𝑥 2 − 4𝑥 + 2
− 𝑥 2 − 4𝑥 + 2 2

w punkcie x0=0.586
f ( x)

df ( x) 0 0.2 0.4 0.6 0.8


∆𝑓 𝑥 = 𝛿 2 − 2.828𝛿 > 0

więc minimum. -2

-4
-4

-0 x 1
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 1.
Dla funkcji
𝑓 𝑥1 , 𝑥2 = 𝑥12 + 𝑥24

warunki konieczne

𝜕𝑓 𝜕𝑓
= 2𝑥1 = 0 = 4𝑥23 = 0
𝜕𝑥1 𝜕𝑥2

rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Wzmocnione warunki konieczne

𝜕2𝑓
=2>0
𝜕𝑥12

𝜕2𝑓 𝜕3𝑓 𝜕4𝑓


อ = อ =0 อ = 24 > 0
𝜕𝑥22 𝑥1=0 𝜕𝑥23 𝑥1 =0 𝜕𝑥24 𝑥1=0
𝑥2 =0 𝑥2 =0 𝑥2 =0
możliwe minimum
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 1.
Rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Wzmocnione warunki konieczne

𝜕2𝑓 𝜕2𝑓
=2 2อ = 12𝑥22 = 0
𝜕𝑥12 𝜕𝑥2 𝑥1 =0
𝑥2 =0

𝜕2𝑓
=0
𝜕𝑥1 𝜕𝑥2

2 0 2 0
𝐻= =
0 12𝑥22 0 0

2 0
𝑚1 = 2 > 0 𝑚2 = =0
0 0
nie maksimum, ale czy minimum?
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 1.
Rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Badanie otoczenia

∆𝑓 = 𝑓 𝑥1 + 𝛿1 , 𝑥2 + 𝛿2 − 𝑓 𝑥1 , 𝑥2 =
= 𝑥1 + 𝛿1 2 + 𝑥2 + 𝛿2 4 =

= 𝑥12 + 2𝑥1 𝛿1 + 𝛿12 +


+𝑥24 + 4𝑥23 𝛿 + 6𝑥22 𝛿22 + 4𝑥2 𝛿23 + 𝛿24 − 𝑥12 − 𝑥24 =

= 2𝑥1 𝛿1 + 𝛿12 + 4𝑥23 𝛿 + 6𝑥22 𝛿22 + 4𝑥2 𝛿23 + 𝛿24


dla 𝑥1 = 0, 𝑥2 = 0

∆𝑓 = 𝛿12 + 𝛿24 > 0


minimum
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 2.
Dla funkcji
𝑓 𝑥1 , 𝑥2 = 𝑥13 + 𝑥24

warunki konieczne

𝜕𝑓 𝜕𝑓
= 3𝑥12 = 0 = 4𝑥23 = 0
𝜕𝑥1 𝜕𝑥2

rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Wzmocnione warunki konieczne

𝜕2𝑓 𝜕3𝑓
อ =0 =6>0
𝜕𝑥12 𝑥1 =0 𝜕𝑥13
𝑥2 =0 nie maksimum ekstremum

𝜕2𝑓 𝜕3𝑓 𝜕4𝑓


อ = อ =0 อ = 24 > 0
𝜕𝑥22 𝑥1=0 𝜕𝑥23 𝑥1 =0 𝜕𝑥24 𝑥1=0
𝑥2 =0 𝑥2 =0 𝑥2 =0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 3.
Dla funkcji
𝑓 𝑥1 , 𝑥2 = 𝑥12 − 𝑥24

warunki konieczne

𝜕𝑓 𝜕𝑓
= 2𝑥1 = 0 = −4𝑥23 = 0
𝜕𝑥1 𝜕𝑥2

rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Wzmocnione warunki konieczne

𝜕2𝑓
=2>0
𝜕𝑥12

𝜕2𝑓 𝜕3𝑓 𝜕4𝑓


อ = อ =0 อ = −24 < 0
𝜕𝑥22 𝑥1 =0 𝜕𝑥23 𝑥1 =0 𝜕𝑥24 𝑥1 =0
nie ekstremum
𝑥2 =0 𝑥2 =0 𝑥2 =0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 4.
Dla funkcji
𝑓 𝑥1 , 𝑥2 = 𝑥12 + 𝑥24 + 9𝑥1 𝑥2

warunki konieczne

𝜕𝑓 𝜕𝑓
= 2𝑥1 + 9𝑥2 = 0 = 4𝑥23 + 9𝑥1 = 0
𝜕𝑥1 𝜕𝑥2

rozwiązanie 𝑥1 = 0, 𝑥2 = 0

Wzmocnione warunki konieczne

𝜕2𝑓
=2>0
𝜕𝑥12

𝜕2𝑓 𝜕3𝑓 𝜕4𝑓


อ = อ =0 อ = 24 > 0
𝜕𝑥22 𝑥1=0 𝜕𝑥23 𝑥1=0 𝜕𝑥24 𝑥1=0
𝑥2 =0 𝑥2 =0 𝑥2 =0
nie maksimum, ale czy minimum?
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 4.
Warunki wystarczające – macierz Hessa 𝑓 𝑥1 , 𝑥2 = 𝑥12 + 𝑥24 + 9𝑥1 𝑥2
𝜕𝑓 𝜕𝑓
= 2𝑥1 + 9𝑥2 = 0 𝜕𝑥 = 4𝑥23 + 9𝑥1 = 0
𝜕𝑥1 2
rozwiązanie 𝑥1 = 0, 𝑥2 = 0

𝜕2𝑓 𝜕2𝑓 2
𝜕2𝑓 𝜕2𝑓
2 = 2; 2 = 12𝑥2 ; =
𝜕𝑥1 𝜕𝑥2 𝜕𝑥2 𝜕𝑥1
=9
𝜕𝑥1 𝜕𝑥2

2 9 2 9
𝐻= 2 =
9 12𝑥2 9 0

𝑀1 = 2 > 0 nie maksimum


2 9
𝑀2 = = 0 − 9 ∗ 9 = −81 < 0 nie ekstremum
9 0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 4.

kierunek (x1,0)
kierunek (0,x2)

kierunek (x1,x2)
kierunek (x1,-x2)
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 5.
Określić ekstrema funkcji:
𝑓 𝑥1 , 𝑥2 = 0.5𝑥12 𝑥22 + 3𝑥12 + 3𝑥1 + 0.1𝑥2

Pierwsze pochodne cząstkowe – warunki konieczne


𝜕
𝑓 𝑥1 , 𝑥2 = 1𝑥1 𝑥22 + 6𝑥1 + 3 = 0
𝜕𝑥1
𝜕
𝑓 𝑥1 , 𝑥2 = 1𝑥12 𝑥2 + 0.1 = 0
𝜕𝑥2

𝑥 = −0.172 𝑥1 = −0.485
rozwiązania: 1. ቊ 1 2. ቊ
𝑥2 = −3.384 𝑥2 = −0.424

Macierz Hessa – warunki wystarczające


𝑥22 + 6 2𝑥1 𝑥2
𝐻=
2𝑥1 𝑥2 𝑥12
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 5.
17.452 1.163 17.452 1.163
𝐻1 = 𝑀1 = 17.452 𝑀2 = = −0.838
1.163 0.03 1.163 0.03
nie ekstremum
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 5.
6.18 0.412 6.18 0.412
𝐻2 = 𝑀1 = 6.18 > 0 𝑀2 = = 1.287 > 0
0.412 0.236 0.412 0.236
minimum
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Określić ekstrema funkcji:
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 0.5𝑥12 𝑥22 + 𝑥32 𝑥42 − 2.2𝑥2 𝑥4 + 1.1𝑥1 𝑥3

Pierwsze pochodne cząstkowe – warunki konieczne


𝜕
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 𝑥1 𝑥22 + 1.1𝑥3 = 0
𝜕𝑥1
𝜕
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 𝑥12 𝑥2 − 2.2𝑥4 = 0
𝜕𝑥2
𝜕
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 2𝑥3 𝑥42 + 1.1𝑥1 = 0
𝜕𝑥3
𝜕
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 2𝑥32 𝑥4 − 2.2𝑥2 = 0
𝜕𝑥4

𝑥1 = −1.24 𝑥1 =0
𝑥 = −1.055 𝑥 =0
rozwiązania: 1. 2 2. 2
𝑥3 = 1.255 𝑥3 =0
𝑥4 = −0.737 𝑥4 =0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Drugie pochodne cząstkowe jednorodne – warunki wzmocnione
𝜕2 2
2 𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 𝑥2
𝜕𝑥1
𝜕2 2
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 𝑥1
𝜕𝑥22
𝜕2 2
𝑓 𝑥1 , 𝑥 2 , 𝑥 3 , 𝑥 4 = 2𝑥 4
𝜕𝑥32
𝜕2 2
2 𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 2𝑥3
𝜕𝑥4

𝜕2 𝑓 𝜕2 𝑓 𝜕3 𝑓
= 𝑥22 = 1.114 = 𝑥22 =0 𝜕𝑥13
=0
𝜕𝑥12 𝜕𝑥12
𝜕2 𝑓 𝜕2 𝑓 𝜕3 𝑓
= 𝑥12 = 0.536 = 𝑥12 =0 =0
𝜕𝑥22 𝜕𝑥22 𝜕𝑥23
dla rozwiązania: 1. 2
𝜕2 𝑓 𝜕2 𝑓 𝜕3 𝑓
= 2𝑥42 = 1.086 = 2𝑥42 =0 =0
𝜕𝑥32 𝜕𝑥32 𝜕𝑥33
𝜕2 𝑓 𝜕2 𝑓 𝜕3 𝑓
= 2𝑥42 = 3.150 = 2𝑥32 = 0 =0
𝜕𝑥42 𝜕𝑥42 𝜕𝑥43
może być minimum nic nie wiadomo
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Drugie pochodne cząstkowe mieszane– warunki wystarczające
𝜕2 𝜕2
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 2𝑥1 𝑥2 𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 1.1
𝜕𝑥1 𝜕𝑥2 𝜕𝑥1 𝜕𝑥3
𝜕 2
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 0
𝜕𝑥1 𝜕𝑥4
𝜕2 𝜕2
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 0 𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = −2.2
𝜕𝑥2 𝜕𝑥3 𝜕𝑥2 𝜕𝑥4
𝜕2
𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 = 4𝑥3 𝑥4
𝜕𝑥3 𝜕𝑥4

Macierz Hessa
𝑥22 2𝑥1 𝑥2 1.1 0
2𝑥1 𝑥2 𝑥12 0 −2.2
𝐻=
1.1 0 2𝑥42 4𝑥3 𝑥4
0 −2.2 4𝑥3 𝑥4 2𝑥32
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Macierz Hessa
𝑥22 2𝑥1 𝑥2 1.1 0
2𝑥1 𝑥2 𝑥12 0 −2.2
𝐻=
1.1 0 2𝑥42 4𝑥3 𝑥4
0 −2.2 4𝑥3 𝑥4 2𝑥32

Rozwiązanie 1.
𝑥22 2𝑥1 𝑥2 1.114 −2.616
𝑀1 = 𝑥22 = 1.114 > 0; 𝑀2 = = = −5.134 < 0
2𝑥1 𝑥2 2
𝑥1 −2.616 1.536
Już tu można wyciągnąć wniosek, że w tym punkcie nie ma ekstremum.

𝑥22 2𝑥1 𝑥2 1.1 1.114 −2.616 1.1


𝑀3 = 2𝑥1 𝑥2 𝑥12 0 = −2.616 1.536 0 = −7.436
1.1 0 2𝑥42 1.1 0 1.086
1.114 −2.616 1.1 0
𝑀4 = −2.616 1.536 0 −2.2 = −1.125 ∗ 10−14
1.1 0 1.086 3.7
0 −2.2 3.7 3.15
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Macierz Hessa
𝑥22 2𝑥1 𝑥2 1.1 0
2𝑥1 𝑥2 𝑥12 0 −2.2
𝐻=
1.1 0 2𝑥42 4𝑥3 𝑥4
0 −2.2 4𝑥3 𝑥4 2𝑥32

Rozwiązanie 2.
0 0 1.1 0
𝐻= 0 0 0 −2.2
1.1 0 0 0
0 −2.2 0 0

𝑀1 = 0; 𝑀2 = 0; 𝑀3 = 0; 𝑀4 = 5.856
nic nie wiadomo

0 0 1.1 0
0 1.1 0
0 0 0 −2.2 = −14 ∗ 1.1 0 4 1.1 0
𝑀4 = 0 −2.2 = 1.1 −1 −2.2 =
1.1 0 0 0 0 −2.2
0 −2.2 0 0 −2.2 0 0

= −2.42 1.1 ∗ −2.2 = 5.856


optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 6.
Rozwiązanie 2. Badanie otoczenia punktu
∆𝑓(𝑥1 , 𝛿1 , 𝑥2 , 𝛿2 , 𝑥3 , 𝛿3 , 𝑥4 , 𝛿4 )
= 𝑓 𝑥1 + 𝛿1 , 𝑥2 + 𝛿2 , 𝑥3 + 𝛿3 , 𝑥4 + 𝛿4 − 𝑓 𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 =

= 0.5 𝑥1 + 𝛿1 2 𝑥2 + 𝛿2 2 + 𝑥3 + 𝛿3 2 𝑥4 + 𝛿4 2 − 2.2 𝑥2 + 𝛿2 𝑥4 + 𝛿4 +
+1.1 𝑥1 + 𝛿1 𝑥3 + 𝛿3 − 0.5𝑥12 𝑥22 − 𝑥32 𝑥42 + 2.2𝑥2 𝑥4 − 1.1𝑥1 𝑥3

∆𝑓(0, 𝛿1 , 0, 𝛿2 , 0, 𝛿3 , 0, 𝛿4 )=0.5𝛿1 2 𝛿2 2 + 𝛿3 2 𝛿4 2 − 2.2𝛿2 𝛿4 + 1.1𝛿1 𝛿3

Decydują czynniki z najmniejszym wykładnikiem potęgi.

𝛿1 = 0, 𝛿2 > 0, 𝛿3 > 0, 𝛿4 > 0 ∆𝑓 0, 𝛿1 , 0, 𝛿2 , 0, 𝛿3 , 0, 𝛿4 = 𝛿3 2 𝛿4 2 − 2.2𝛿2 𝛿4 <0


𝛿1 = 0, 𝛿2 < 0, 𝛿3 > 0, 𝛿4 < 0 ∆𝑓 0, 𝛿1 , 0, 𝛿2 , 0, 𝛿3 , 0, 𝛿4 = 𝛿3 2 𝛿4 2 − 2.2𝛿2 𝛿4 >0
nie ekstremum
𝛿1 > 0, 𝛿2 > 0, 𝛿3 > 0, 𝛿4 < 0 ∆𝑓(0, 𝛿1 , 0, 𝛿2 , 0, 𝛿3 , 0, 𝛿4 )>0
𝛿1 > 0, 𝛿2 > 0, 𝛿3 < 0, 𝛿4 > 0 ∆𝑓(0, 𝛿1 , 0, 𝛿2 , 0, 𝛿3 , 0, 𝛿4 )<0
nie ekstremum
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Dana jest funkcja
𝑓 𝑥, 𝑦, 𝑧 = 3𝑥 2 𝑦 2 𝑧 + 2𝑧 2 − 4𝑥𝑦𝑧 − 5
Pierwsze pochodne – warunki konieczne
𝜕
𝑓 𝑥, 𝑦, 𝑧 = 6𝑥𝑦 2 𝑧 − 4𝑦𝑧
𝜕𝑥
𝜕
𝑓 𝑥, 𝑦, 𝑧 = 6𝑥 2 𝑦𝑧 − 4𝑥𝑧
𝜕𝑦
𝜕
𝑓 𝑥, 𝑦, 𝑧 = 3𝑥 2 𝑦 2 + 4𝑧 − 4𝑦𝑥
𝜕𝑧

Otrzymujemy układ równań


6𝑥𝑦 2 𝑧 − 4𝑦𝑧 = 0 /𝑦 6𝑥𝑦𝑧 − 4𝑧 = 0 6𝑥𝑦𝑧 − 4𝑧 = 0
൞ 6𝑥 2 𝑦𝑧 − 4𝑥𝑧 = 0 /𝑥 ൞ 6𝑥𝑦𝑧 − 4𝑧 = 0 ቐ
3𝑥 2 𝑦 2 + 4𝑧 − 4𝑦𝑥=0 3𝑥 2 𝑦 2 + 4𝑧 − 4𝑦𝑥=0 3𝑥 2 𝑦 2 + 4𝑧 − 4𝑦𝑥=0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Zawsze występuje iloczyn 𝑥𝑦 jeżeli podstawimy 𝑥𝑦 = 𝑣

𝑓 𝑥, 𝑦, 𝑧 = 3𝑥 2 𝑦 2 𝑧 + 2𝑧 2 − 4𝑥𝑦𝑧 − 5 = 3𝑣 2 𝑧 + 2𝑧 2 − 4𝑣𝑧 − 5

Pierwsze pochodne – warunki konieczne


𝜕
𝑓 𝑣, 𝑧 = 6𝑣𝑧 − 4𝑧 = 0
𝜕𝑣
𝜕
𝑓 𝑣, 𝑧 = 3𝑣 2 + 4𝑧 − 4𝑣 = 0
𝜕𝑧

Otrzymujemy układ równań


2
6𝑣𝑧 − 4𝑧 = 0 𝑣1 = 3 6𝑣𝑧 − 4𝑧 = 0 𝑧2 = 𝑧3 = 0
൝ ⟹ ൝ ⟹൞
4
3𝑣 2 + 4𝑧 − 4𝑣=0 𝑧1 =
1 3𝑣 2 + 4𝑧 − 4𝑣=0 𝑣2 = 0; 𝑣3 = 3
3

i trzy rozwiązania.
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Drugie pochodne jednorodne – warunki wzmocnione
𝜕2
𝑓 𝑣, 𝑧 = 6𝑧
𝜕𝑣 2
𝜕2
𝑓 𝑣, 𝑧 = 4 > 0 𝑚𝑜ż𝑙𝑖𝑤𝑒 𝑡𝑦𝑙𝑘𝑜 𝑚𝑖𝑛𝑖𝑚𝑢𝑚
𝜕𝑧 2
1 𝜕2
dla 𝑧1 = 𝑓 𝑣, 𝑧1 = 6𝑧1 = 2 > 0 możliwe minimum
3 𝜕𝑣 2

𝜕2
dla 𝑧2 = 𝑧3 = 0 𝜕𝑣 2
𝑓 𝑣, 𝑧2=3 = 6𝑧2=3 = 0 nie można określić

Rozwiązanie 1.
2 𝜕2
Dla 𝑣1 = 3 𝑓 𝑣, 𝑧 = 6𝑣1 − 4 = 0
𝜕𝑣𝜕𝑧

2 0
macierz Hessa 𝐻=
0 4

𝑀1 = 2 > 0 𝑀2 = 8 > 0 a więc minimum.


optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Drugie pochodne jednorodne – warunki wzmocnione
𝜕2 𝜕2
𝑓 𝑣, 𝑧 = 6𝑧 𝑓 𝑣, 𝑧 = 4 > 0 𝑚𝑜ż𝑙𝑖𝑤𝑒 𝑡𝑦𝑙𝑘𝑜 𝑚𝑖𝑛𝑖𝑚𝑢𝑚
𝜕𝑣 2 𝜕𝑧 2
𝜕2
dla 𝑧2 = 𝑧3 = 0 𝑓 𝑣, 𝑧2=3 = 6𝑧2=3 = 0
𝜕𝑣 2

𝜕2
Dla 𝑣2 = 0 𝑓 𝑣2 , 𝑧2 = 6𝑣2 − 4 = −4
𝜕𝑣𝜕𝑧

Rozwiązanie 2.
0 −4 4 −4
macierz Hessa 𝐻= lub 𝐻 =
−4 4 −4 0

𝑀1 = 0 lub 𝑀1 = 4 > 0; 𝑀2 = −16 < 0


a więc nie ekstremum.
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Drugie pochodne jednorodne – warunki wzmocnione
𝜕2 𝜕2
𝑓 𝑣, 𝑧 = 6𝑧 𝑓 𝑣, 𝑧 = 4 > 0 𝑚𝑜ż𝑙𝑖𝑤𝑒 𝑡𝑦𝑙𝑘𝑜 𝑚𝑖𝑛𝑖𝑚𝑢𝑚
𝜕𝑣 2 𝜕𝑧 2
𝜕2
Dla 𝑧2 = 𝑧3 = 0 𝑓 𝑣, 𝑧2=3 = 6𝑧2=3 = 0
𝜕𝑣 2

4 𝜕2
Dla 𝑣2 = 𝑓 𝑣2 , 𝑧2 = 6𝑣2 − 4 = −4
3 𝜕𝑣𝜕𝑧

Rozwiązanie 2.
0 −4 4 −4
macierz Hessa 𝐻= lub 𝐻 =
−4 4 −4 0

𝑀1 = 0 lub 𝑀1 = 4 > 0; 𝑀2 = −16 < 0


a więc nie ekstremum.
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Problem w praktyce: Rozważmy reakcję 2𝐴 ⇌ 𝐵 w reaktorze przepływowym z idealnym
wymieszaniem, szukamy optymalnej temperatury i czasu przebywania maksymalizujących
stopień przereagowania

bilans: 𝐹 𝐶𝐵 − 𝐶𝐵0 = 𝑉𝑘1 𝐶𝐴2 − 𝑉𝑘2 𝐶𝐵


1
bilans stechiometryczny: 𝐶𝐵 −𝐶𝐵0 = 2 (𝐶𝐴0 − 𝐶𝐴 )

𝐶𝐴0 −𝐶𝐴 1
Stopień przereagowania: 𝛼= stąd 𝐶𝐴 = 𝐶𝐴0 (1 − 𝛼) i 𝐶𝐵 = 2 𝐶𝐴0 (𝛼 + 𝛾)
𝐶𝐴0
1 2 2
1
𝐶 𝛼 = 𝜏𝑘1 𝐶𝐴0 1 − 𝛼 − 𝜏𝑘2 𝐶𝐴0 (𝛼 + 𝛾)
2 𝐴0 2
1 1
𝛼 − 𝜏𝑘1 𝐶𝐴0 1 − 𝛼 2 + 𝜏𝑘2 𝛼 + 𝛾 = 0
2 2
1 1
𝜏𝑘1 𝐶𝐴0 𝛼 2 − 2𝜏𝑘1 𝐶𝐴0 + 𝜏𝑘2 𝛼 − 𝜏𝑘2 γ = 0
2 2
1 2
∆= 2𝜏𝑘1 𝐶𝐴0 + 𝜏𝑘2 + 2𝜏 2 𝑘1 𝐶𝐴0 𝑘2 γ
2

2
1 1
2𝜏𝑘1 𝐶𝐴0 + 2 𝜏𝑘2 + 2𝜏𝑘1 𝐶𝐴0 + 2 𝜏𝑘2 + 2𝜏 2 𝑘1 𝐶𝐴0 𝑘2 γ
𝛼=
2𝜏𝑘1 𝐶𝐴0
optymalizacja procesowa – rachunek różniczkowy – przykłady
Przykład 7.
Problem w praktyce
2
1 1
2𝜏𝑘1 𝐶𝐴0 + 2 𝜏𝑘2 + 2𝜏𝑘1 𝐶𝐴0 + 2 𝜏𝑘2 + 2𝜏 2 𝑘1 𝐶𝐴0 𝑘2 γ
𝛼=
2𝜏𝑘1 𝐶𝐴0

Zauważmy, że możemy wyznaczyć optymalne wartości temperatury, T, i czasu


przebywania, ,
𝜕𝛼 𝜕𝛼
= 0, =0
𝜕𝑇 𝜕𝜏

ale nie możemy wyznaczyć oddzielnie optymalnych wartości objętości, V, i przepływu, F.

𝜕𝛼 𝜕𝛼 𝑑𝜏 𝜕𝛼 1 𝜕𝛼
= = =0 ⟹ =0
𝜕𝑉 𝜕𝜏 𝑑𝑉 𝜕𝜏 𝐹 𝜕𝜏
𝜕𝛼 𝜕𝛼 𝑑𝜏 𝜕𝛼 𝑉 𝜕𝛼
= =− =0 ⟹ =0
𝜕𝐹 𝜕𝜏 𝑑𝐹 𝜕𝜏 𝐹 2 𝜕𝜏

You might also like