Odległość Mahalanobisa: Różnice pomiędzy wersjami

[wersja przejrzana][wersja przejrzana]
Usunięta treść Dodana treść
m Zastępowanie przestarzałej składni LaTeX zgodnie z mw:Extension:Math/Roadmap
Linia 2:
 
== Definicja ==
Dane mamy 2 wektory losowe <math>\mathbf{x}=[x_1,x_2,\ldotsdots,x_n],</math>, <math>\mathbf{y}=[y_1,y_2,\ldotsdots,y_n]</math> w przestrzeni <math>\mathbb{R}^n,</math>, oraz pewną [[macierz symetryczna|symetryczną]], [[macierzOkreśloność dodatnio określonaformy|dodatnio określoną]] [[macierz]] <math>C\,.</math>. Odległość Mahalanobisa zdefiniowana jest jako:
: <math>d_{m}d_m(\mathbf{x},\mathbf{y}):=\sqrt{(\mathbf{x}-\mathbf{y})C^{-1}(\mathbf{x}-\mathbf{y})^T}</math>
 
: <math>d_{m}(\mathbf{x},\mathbf{y}):=\sqrt{(\mathbf{x}-\mathbf{y})C^{-1}(\mathbf{x}-\mathbf{y})^T}</math>
 
== Interpretacja ==
Odległość Mahalanobisa stosuje się w analizie skupień. Mając dany zbiór punktów tworzących pewną klasę, możemy wyznaczyć dla niego wektor średni <math>\boldsymbol{\mu}=[\mu_1,\mu_2,\ldotsdots,\mu_n]</math> oraz [[macierz kowariancji]] <math>C\,</math>, które odzwierciedlają pewien charakter tej klasy. Badając przynależność nieznanego wektora losowego <math>\mathbf{x}</math> do danej klasy, mierzy się jego podobieństwo do wektora <math>\boldsymbol{\mu}\,</math>, uwzględniając przy tym informację o wariancjach poszczególnych składowych oraz korelacjach między nimi. Miarą takiego podobieństwa jest odległość Mahalanobisa, nazywana ważoną [[odległośćPrzestrzeń euklidesowa|odległością euklidesową]], przy czym macierzą wag jest <math>C^{-1}\,.</math>.
 
Rozważmy trzy przypadki różnych zbiorów danych:
Linia 13 ⟶ 12:
=== Przypadek 1 ===
[[Plik:MahalanobisDist0.png|right|400px]]
Poszczególne składowe w zbiorze mają równe wariancje (można przyjąć że są one równe 1) i nie są skorelowane. Wówczas macierz kowariancji <math>C\,</math> jest [[macierz jednostkowa|macierzą jednostkową]], a odległość Mahalanobisa jest równa odległości euklidesowej:
 
: <math>\begin{align}d_{m}d_m(\mathbf{x},\boldsymbol{\mu}) & = \sqrt{ (x_1-\mu_1)^2 + \ldots + (x_n-\mu_n)^2} \\
Poszczególne składowe w zbiorze mają równe wariancje (można przyjąć że są one równe 1) i nie są skorelowane. Wówczas macierz kowariancji <math>C\,</math> jest [[macierz jednostkowa|macierzą jednostkową]], a odległość Mahalanobisa jest równa odległości euklidesowej:
& = \sqrt{(\mathbf{x}-\boldsymbol{\mu})\mathbb{I}^{-1}(\mathbf{x}-\boldsymbol{\mu})^T}\end{align}</math>
 
<math>\begin{align}d_{m}(\mathbf{x},\boldsymbol{\mu}) & = \sqrt{ (x_1-\mu_1)^2 + \ldots + (x_n-\mu_n)^2}
\\
& = \sqrt{(\mathbf{x}-\boldsymbol{\mu})\mathbb{I}^{-1}(\mathbf{x}-\boldsymbol{\mu})^T}\end{align}</math>
 
Punkty o identycznej odległości od pewnego danego punktu centralnego tworzą na płaszczyźnie [[okrąg]], a w przestrzeni o trzech lub więcej wymiarach odpowiednio [[sfera|sferę]] i [[hipersfera|hipersferę]].
{{-Clear}}
 
=== Przypadek 2 ===
[[Plik:MahalanobisDist1.png|right|400px]]
Składowe <math>x_1, x_2, \dots, x_n</math> wektora losowego <math>\mathbf{x}</math> nie są skorelowane, lecz mają różne wariancje: <math>\sigma_1^2, \sigma_2^2, \dots, \sigma_n^2.</math> Aby znormalizować poszczególne składowe należy je podzielić przez odpowiadające im wariancje:
: <math>\begin{align}d_{m}d_m(\mathbf{x},\boldsymbol{\mu}) & = \sqrt{ \frac{(x_1-\mu_1)^2}{\sigma_1^2} + \ldots + \frac{(x_n-\mu_n)^2}{\sigma_n^2}} \\
& = \sqrt{(\mathbf{x}-\boldsymbol{\mu})D^{-1}(\mathbf{x}-\boldsymbol{\mu})^T}\end{align}</math>
 
Składowegdzie <math>x_1, x_2, \ldots, x_nD</math> wektorajest losowego[[macierz diagonalna|macierzą diagonalną]] <math>\mathbfmathrm{xdiag}</math> nie są skorelowane, lecz mają różne wariancje: <math>(\sigma_1^2, \sigma_2^2, \ldotsdots, \sigma_n^2).</math>. Aby znormalizować poszczególne składowe należy je podzielić przez odpowiadające im wariancje:
 
<math>\begin{align}d_{m}(\mathbf{x},\boldsymbol{\mu}) & = \sqrt{ \frac{(x_1-\mu_1)^2}{\sigma_1^2} + \ldots + \frac{(x_n-\mu_n)^2}{\sigma_n^2}}
\\
& = \sqrt{(\mathbf{x}-\boldsymbol{\mu})D^{-1}(\mathbf{x}-\boldsymbol{\mu})^T}\end{align}</math>
 
gdzie <math>D\,</math> jest [[macierz diagonalna|macierzą diagonalną]] <math>\mathrm{diag}(\sigma_1^2, \sigma_2^2, \ldots, \sigma_n^2)</math>.
 
Punkty o identycznej odległości tworzą na płaszczyźnie [[elipsa|elipsę]], a w przestrzeni trójwymiarowej [[elipsoida|elipsoidę]], przy czym osie utworzonej figury są równoległe do osi [[układ współrzędnych|układu współrzędnych]].
{{-Clear}}
 
=== Przypadek 3 ===
[[Plik:MahalanobisDist2.png|right|400px]]
 
Składowe mają różne wariancje i są skorelowane: <math>\sigma_{ij}^2 > 0,\ \ 1 \leqslant i,j\leqslant n.</math>. Odpowiada to pełnej macierzy kowariancji <math>C\,</math>, a utworzona przez punkty o tej samej odległości elipsa jest obrócona o pewien kąt względem osi układu współrzędnych. Obrót ten jest dany przez macierz [[wektorWektory własnyi wartości własne|wektorów własnych]] macierzy <math>C\,^{-1},</math>, zaś długości półosi hiper-elipsoidy są określone przez odwrotności pierwiastków kwadratowych jej [[wartośćWektory własnai wartości własne|wartości własnych]] <math>\frac{1}{\sqrt{\lambda_1}}, \ldotsdots, \frac{1}{\sqrt{\lambda_n}},.</math>.
 
Wartości własne spełniają równanie charakterystyczne, które w ogólności dla macierzy symetrycznej kwadratowej rozmiaru [<math>n</math> x <math>n</math>] sprowadza się do poszukiwania pierwiastków wielomianu <math>n</math> tego stopnia.
{{Clear}}
 
== Zastosowania ==
* Kwadrat odległości Mahalanobisa występuje w wykładniku [[wielowymiarowy rozkład normalny|wielowymiarowego rozkładu Gaussa]].
* W zagadnieniach grupowania danych, np. [[Klasteryzacja rozmyta|klasteryzacji rozmytej]], odległość Mahalanobisa wykorzystana jest do określania kształtu grupy (klastra). Przykładem jest algorytm GK<ref name="GK">D.E. Gustafson, W.C. Kessel, ''Fuzzy clustering with a fuzzy covariance matrix'', IEEE Conference on Decision and Control including the 17th Symposium on Adaptive Processes, 1978, 17, s. 761-766761–766.</ref> (Gustaffsona-Kessela).
 
== Przypisy ==