Metoda najszybszego spadku
Ten artykuł od 2023-06 wymaga zweryfikowania podanych informacji. |
Metoda najszybszego spadku – algorytm numeryczny mający na celu znalezienie minimum zadanej funkcji celu.
Metoda najszybszego spadku jest modyfikacją metody gradientu prostego.
Algorytm edytuj
Zadanie edytuj
Metoda najszybszego spadku jest iteracyjnym algorytmem wyszukiwania minimum zadanej funkcji celu
gdzie
Założenia dla metody są następujące:
- (funkcja jest ciągła i różniczkowalna),
- jest ściśle wypukła w badanej dziedzinie.
Opis edytuj
Działanie metody najszybszego spadku jest bardzo podobne do metody gradientu prostego. Na samym początku algorytmu wybierany jest punkt startowy W punkcie tym obliczany jest antygradient funkcji celu, który będzie stanowił kierunek poszukiwań w procedurze. Następny punkt jest obliczany według wzoru:
jeśli obliczony punkt nie spełni warunku stopu algorytmu, całe postępowanie jest powtarzane.
Różnicą pomiędzy metodą najszybszego spadku a metodą gradientu prostego jest sposób wyszukiwania wartości – dokonywana jest minimalizacja kierunkowa funkcji:
Algorytm ogólnie można zapisać:
- Wybierz punkt startowy
- Dokonaj minimalizacji kierunkowej funkcji względem
- Sprawdź kryterium stopu, jeśli jest spełniony to STOP. W przeciwnym wypadku powtórz punkt 2.
Metodami minimalizacji jednowymiarowej mogą być metoda złotego podziału, metoda dychotomii, metoda punktu środkowego, czy metoda Newtona.
Kryterium stopu edytuj
W celu określenia, czy punkt w danym kroku dostatecznie dobrze przybliża minimum funkcji celu w metodzie najszybszego spadku, można użyć następujących kryteriów stopu (dla zadanej precyzji oraz normy ):
- (test stacjonarności),
Zbieżność edytuj
Metoda najszybszego spadku jest metodą o zbieżności liniowej. Oznacza to, iż przy spełnieniu założeń metody, odległości pomiędzy kolejnymi przybliżeniami a minimum funkcji maleją liniowo:
Metoda najszybszego spadku ma szybszą zbieżność w porównaniu z metodą gradientu prostego. Niemniej oba algorytmy należą do klasy algorytmów o złożoności liniowej.
Wadą metody jest wolna zbieżność przy niezbyt fortunnym wyborze punktu startowego. Dodatkowo metoda może być bardzo wrażliwa na błędy zaokrągleń.
Zobacz też edytuj
Bibliografia edytuj
- Fortuna Z., Wąsowski J., Macukow B.: Metody numeryczne. Wyd. 7, dodr. Wydawnictwa Naukowo-Techniczne, 2006. ISBN 83-204-3245-6.
- Stachurski A., Wierzbicki A.: Podstawy optymalizacji. Oficyna Wydawnicza PW, 1999. ISBN 83-7207-085-7.