Algorytm Gaussa-Newtona

Algorytm Gaussa-Newtona (ang. Gauss-Newton algorithm) – algorytm iteracyjny będący rozszerzeniem metody Newtona na sytuacje, w których poszukuje się minimum dla funkcji nieliniowej. Algorytm jest jest wykorzystywany w analizie regresji nieliniowej do rozwiązywania nieliniowych problemów najmniejszych kwadratów, a więc do wyznaczenia takiej funkcji nieliniowej, która będzie najlepiej dopasowana do danych[1].

Symulacja przedstawiająca proces dopasowania funkcji do danych surowych. W górnym wykresie przedstawiono dane surowe i dopasowywaną do niej funkcję. Na dolnym wykresie przedstawiono znormalizowaną sumę kwadratów błędów.

Poprzez połączenie algorytmu Gaussa-Newtona i metody najszybszego spadku powstał algorytm Levenberga-Marquardta (nazywany też metodą Marquardta), będący najczęściej używanym w ramach procedury regresji nieliniowej wykonywanej na potrzeby badań farmakologicznych i biochemicznych[2].

Nazwa algorytmu pochodzi od nazwiska niemieckiego matematyka Carla Friedricha Gaussa oraz angielskiego fizyka Izaaka Newtona.

Przypisy

edytuj
  1. Kukuła, K., Goryl, A., Jędrzejczyk, Z., Osiewalski, J., Walkosz, A., Wprowadzenie do ekonometrii. Wydawnictwo Naukowe PWN, Warszawa 2009, s. 10.
  2. Harvey J. Motulsky, Lennart A. Ransnas, Fitting curves to data using nonlinear regression: a practical and nonmathematical review, „The FASEB Journal”, 1 (5), 1987, s. 365–374, DOI10.1096/fasebj.1.5.3315805, ISSN 0892-6638 [dostęp 2024-07-26] (ang.).