Metoda momentów (MM ) – w statystyce, metoda estymacji parametrów populacji polegająca na wyznaczaniu równań wiążących momenty populacji z parametrami, które mają być estymowane.
Niech dana będzie próba
{
x
t
:
t
=
0
,
…
,
T
}
,
{\displaystyle \{x_{t}:t=0,\dots ,T\},}
która posłużyć mu do wyznaczenia wektora parametrów
θ
{\displaystyle \theta }
(macierzy
p
×
1
{\displaystyle p\times 1}
) o wartości prawdziwej
θ
0
.
{\displaystyle \theta _{0}.}
Niech
f
(
x
t
,
θ
)
(
t
=
0
,
…
,
T
)
{\displaystyle f(x_{t},\theta )\quad (t=0,\dots ,T)}
będzie ciągłą funkcją parametru
θ
{\displaystyle \theta }
o wartościach będących wektorami
q
×
1.
{\displaystyle q\times 1.}
Załóżmy, że wartości oczekiwane
E
f
(
x
t
,
θ
)
{\displaystyle {\mathsf {E}}f(x_{t},\theta )}
istnieją i są skończone dla wszelkich
t
.
{\displaystyle t.}
Równania
E
f
(
x
t
,
θ
)
=
0
(
t
=
0
,
…
,
T
)
{\displaystyle {\mathsf {E}}f(x_{t},\theta )=0\quad (t=0,\dots ,T)}
nazywane są warunkami momentów [1] . W przypadku gdy
q
=
p
{\displaystyle q=p}
warunki momentów są układem
p
{\displaystyle p}
równań o
p
{\displaystyle p}
niewiadomych. Funkcja
f
T
(
θ
)
=
1
T
∑
t
=
1
T
f
(
x
t
,
θ
)
{\displaystyle f_{T}(\theta )={\frac {1}{T}}\sum _{t=1}^{T}f(x_{t},\theta )}
jest estymatorem MM wartości oczekiwanych
E
f
(
x
t
,
θ
)
.
{\displaystyle {\mathsf {E}}f(x_{t},\theta ).}
Rozwiązanie równania
f
T
(
θ
)
=
0
,
{\displaystyle f_{T}(\theta )=0,}
θ
^
,
{\displaystyle {\hat {\theta }},}
estymuje prawdziwą wartość
θ
0
{\displaystyle \theta _{0}}
[2] .
Przykłady warunków momentów
edytuj
Niech dany będzie model regresji liniowej
y
t
=
x
t
′
β
0
+
u
t
,
{\displaystyle y_{t}=x_{t}'\beta _{0}+u_{t},}
gdzie
x
t
{\displaystyle x_{t}}
jest wektorem
p
×
1
{\displaystyle p\times 1}
regresorów,
β
0
{\displaystyle \beta _{0}}
jest wartością prawdziwą estymowanych parametrów (wektorów
p
×
1
{\displaystyle p\times 1}
)
β
{\displaystyle \beta }
oraz
u
t
{\displaystyle u_{t}}
jest błędem statystycznym. Pod założeniem
E
(
u
t
|
x
t
)
=
0
,
{\displaystyle {\mathsf {E}}(u_{t}|x_{t})=0,}
zachodzi związek
E
(
y
t
|
x
t
)
=
x
t
′
β
0
.
{\displaystyle {\mathsf {E}}(y_{t}|x_{t})=x_{t}'\beta _{0}.}
Z prawa iterowanych oczekiwań wynika, że
E
(
x
t
u
t
)
=
E
(
E
(
x
t
u
t
|
x
t
)
)
=
E
(
x
t
E
(
u
t
|
x
t
)
)
=
0.
{\displaystyle {\mathsf {E}}(x_{t}u_{t})={\mathsf {E}}({\mathsf {E}}(x_{t}u_{t}|x_{t}))={\mathsf {E}}(x_{t}E(u_{t}|x_{t}))=0.}
Równania
E
(
x
t
u
t
)
=
E
(
x
t
(
y
t
−
x
t
′
β
0
)
)
=
0
,
{\displaystyle {\mathsf {E}}(x_{t}u_{t})={\mathsf {E}}(x_{t}(y_{t}-x_{t}'\beta _{0}))=0,}
są szukanymi warunkami momentów. (W oryginalnej definicji można przyjąć
θ
=
β
{\displaystyle \theta =\beta }
oraz
f
(
(
x
t
,
y
t
)
,
θ
)
=
x
t
(
y
t
−
x
t
′
β
0
)
{\displaystyle f((x_{t},y_{t}),\theta )=x_{t}(y_{t}-x_{t}'\beta _{0})}
)[3] .
Populacja o rozkładzie gamma
edytuj
Niech dana będzie próba
{
x
t
:
t
=
0
,
…
,
T
}
{\displaystyle \{x_{t}:t=0,\dots ,T\}}
populacji o rozkładzie gamma z parametrami
p
∗
,
q
∗
{\displaystyle p^{*},q^{*}}
z wartościami prawdziwymi
p
0
∗
,
q
0
∗
.
{\displaystyle p_{0}^{*},q_{0}^{*}.}
W szczególności,
E
x
t
=
p
0
∗
q
0
∗
{\displaystyle {\mathsf {E}}x_{t}={\frac {p_{0}^{*}}{q_{0}^{*}}}}
oraz
E
(
x
t
−
E
x
t
)
2
=
p
0
∗
(
q
0
∗
)
2
.
{\displaystyle {\mathsf {E}}(x_{t}-{\mathsf {E}}x_{t})^{2}={\frac {p_{0}^{*}}{(q_{0}^{*})^{2}}}.}
Przyjmując
θ
=
(
p
∗
,
q
∗
)
′
{\displaystyle \theta =(p^{*},q^{*})'}
oraz
f
t
(
x
t
,
θ
)
=
(
x
t
−
p
∗
q
∗
,
(
x
t
−
p
∗
q
∗
)
2
−
p
∗
(
q
∗
)
2
)
′
{\displaystyle f_{t}(x_{t},\theta )={\Big (}x_{t}-{\frac {p^{*}}{q^{*}}},(x_{t}-{\frac {p^{*}}{q^{*}}})^{2}-{\frac {p^{*}}{(q^{*})^{2}}}{\Big )}'}
równania
E
(
f
(
x
t
,
θ
)
)
=
0
{\displaystyle {\mathsf {E}}(f(x_{t},\theta ))=0}
są szukanymi warunkami momentów[4] . Wówczas warunek
f
T
(
θ
^
)
=
0
{\displaystyle f_{T}({\hat {\theta }})=0}
implikuje
1
T
∑
t
=
1
T
x
t
−
p
∗
^
q
∗
^
=
0
{\displaystyle {\frac {1}{T}}\sum _{t=1}^{T}x_{t}-{\frac {\widehat {p^{*}}}{\widehat {q^{*}}}}=0}
oraz
1
T
(
x
t
−
p
∗
^
q
∗
^
)
2
−
p
∗
^
q
∗
^
2
=
0
{\displaystyle {\frac {1}{T}}(x_{t}-{\frac {\widehat {p^{*}}}{\widehat {q^{*}}}})^{2}-{\frac {\widehat {p^{*}}}{{\widehat {q^{*}}}^{2}}}=0}
[2] .
Wówczas przy pomocy średniej próby
x
¯
T
=
1
T
∑
t
=
1
T
x
t
{\displaystyle {\overline {x}}_{T}={\tfrac {1}{T}}\sum _{t=1}^{T}x_{t}}
oraz średniego odchylenia próby
s
¯
T
2
=
∑
t
=
1
T
(
x
t
−
x
¯
T
)
2
{\displaystyle {\overline {s}}_{T}^{2}=\sum _{t=1}^{T}(x_{t}-{\overline {x}}_{T})^{2}}
można zapisać
q
∗
^
=
x
¯
T
s
¯
T
2
,
p
∗
^
=
x
¯
T
2
s
¯
T
2
{\displaystyle {\widehat {q^{*}}}={\frac {{\overline {x}}_{T}}{{\overline {s}}_{T}^{2}}},\;{\widehat {p^{*}}}={\frac {{\overline {x}}_{T}^{2}}{{\overline {s}}_{T}^{2}}}}
[5] .
L. Mátyás, Generalized Method of Moments Estimation. Themes in Modern Econometrics , Cambridge University Press. Cambridge, 1999.