Nadmierne dopasowanie: Różnice pomiędzy wersjami

[wersja nieprzejrzana][wersja przejrzana]
Usunięta treść Dodana treść
int.
Matekm (dyskusja | edycje)
Anulowanie wersji 57900667 autorstwa 83.4.58.41 (dyskusja)
Znacznik: Anulowanie edycji
Linia 1:
[[Plik:Overfit.png|thumb|300px|Zaszumione (w przybliżeniu liniowe) dane można dopasować zarówno do [[funkcja liniowa|funkcji liniowej]] jak i [[wielomian]]u. Chociaż wielomian przechodzi przez każdy z punktów reprezentujących obserwacje, a prosta tylko przez kilka, jest ona zapewne lepszym przybliżeniem, gdyż wielomian przyjmuje dziwne wartości na końcach przedziału.]]
[[Plik:Overfitting_svg.svg|thumb|300px|Nadmierne dopasowanie podczas tzw. uczenia nadzorowanego (np. w [[sieć neuronowa|sieciach neuronowych]]). Błąd na [[zbiór uczący|zbiorze uczącym]] jest zaznaczony kolorem niebieskim, błąd na [[zbiór testowy|zbiorze testowym]] kolorem czerwonym. Jeśli błąd na zbiorze testowym rośnie, podczas gdy błąd na zbiorze uczącym maleje, to zwykle jest to związane ze zjawiskiem przeuczenia.]]
'''Nadmierne dopasowanie, przeuczenie, przetrenowanie, overfitting''' – różne, stosowane w statystyce nazwy tego samego zjawiska, zachodzącego gdy [[model statystyczny]] ma zbyt dużo parametrów w stosunku do rozmiaru [[próba statystyczna|próby]], na podstawie której był konstruowany. Absurdalne i fałszywe modele mogą świetnie pasować do danych uczącychmuczących gdy model ma wystarczającą złożoność, jednak będą dawały gorsze wyniki, gdy zastosujemy je do danych, z którymi się nie zetknęły podczas uczenia.
 
Nadmierne dopasowanie jest w pewnym sensie pogwałceniem zasady [[brzytwa Ockhama|brzytwy Ockhama]] (niemnożenia bytów ponad potrzebę). Kiedy [[liczba stopni swobody (statystyka)|liczba stopni swobody]] modelu przekracza zawartość informacyjną danych, dobór parametrów staje się w dużym stopniu kwestią przypadku. Model zaczyna dopasowywać się do przypadkowych błędów w danych uczących, i tym samym zanika jego zdolność generalizacji i możliwość zastosowania modelu do innych podobnych danych, czyli główny cel modelowania. Prawdopodobieństwo przeuczenia zależy nie tylko od liczby parametrów i wielkości danych, lecz także adekwatności struktury modelu w odniesieniu do konkretnych danych oraz skali błędu modelu w porównaniu z oczekiwanym poziomem szumu w danych.