Centralne twierdzenie graniczne to twierdzenie matematyczne mówiące, że jeśli
X
i
{\displaystyle X_{i}}
są niezależnymi zmiennymi losowymi pochodzącymi z tej samej populacji o wartości oczekiwanej
μ
{\displaystyle \mu }
oraz dodatniej i skończonej wariancji
σ
2
,
{\displaystyle \sigma ^{2},}
to ciąg zmiennych losowych, w postaci znormalizowanych wartości oczekiwanych
U
n
{\displaystyle U_{n}}
U
n
=
1
n
∑
i
=
1
n
X
i
−
μ
σ
/
n
{\displaystyle U_{n}={\frac {{\frac {1}{n}}\sum _{i=1}^{n}X_{i}-\mu }{\sigma /{\sqrt {n}}}}}
zbieżny jest według rozkładu do standardowego rozkładu normalnego , gdy
n
→
+
∞
.
{\displaystyle n\to +\infty .}
Tzn.
lim
n
→
∞
P
(
U
n
<
u
)
=
1
2
π
∫
−
∞
u
e
−
x
2
/
2
d
x
{\displaystyle \lim _{n\to \infty }P(U_{n}<u)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{u}e^{-x^{2}/2}\,dx}
Centralne twierdzenie graniczne znane też pod nazwą twierdzenia Lindeberga-Lévy’ego mówi:
Niech
(
X
n
,
k
)
{\displaystyle (X_{n,k})}
będzie schematem serii , w którym
E
X
n
,
k
=
0
{\displaystyle EX_{n,k}=0}
dla
k
⩽
n
{\displaystyle k\leqslant n}
i dla każdego
n
{\displaystyle n}
mamy
∑
k
=
1
n
D
2
X
n
,
k
=
1.
{\displaystyle \sum _{k=1}^{n}D^{2}X_{n,k}=1.}
Jeśli spełniony jest warunek Lindeberga , tj. dla każdego
ϵ
>
0
{\displaystyle \epsilon >0}
zachodzi
lim
n
→
∞
∑
k
=
1
n
E
X
n
,
k
2
1
{
|
X
n
,
k
|
>
ϵ
}
=
0
,
{\displaystyle \lim _{n\to \infty }\sum _{k=1}^{n}EX_{n,k}^{2}\mathbf {1} _{\{|X_{n,k}|>\epsilon \}}=0,}
to
∑
k
=
1
n
X
n
,
k
→
D
N
(
0
,
1
)
.
{\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow {D}}N(0,1).}
Dowodów centralnego twierdzenia granicznego w wersji ogólnej jest kilka. Wszystkie są dość skomplikowane i wymagają korzystania z wielu zaawansowanych narzędzi matematycznych. Poniżej znajduje się jeden z prostszych dowodów, nie dający jednak oszacowania wartości błędu.
Pierwszym krokiem dowodu jest sformułowanie i udowodnienie użytecznych lematów.
Lemat 1
Niech
f
:
R
→
R
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} }
będzie funkcją trzykrotnie różniczkowalną taką, że
∀
x
∈
R
{\displaystyle \forall x\in \mathbf {R} }
zachodzi
|
f
‴
(
x
)
|
⩽
A
{\displaystyle |f'''(x)|\leqslant A}
oraz
|
f
″
(
x
)
|
⩽
B
.
{\displaystyle |f''(x)|\leqslant B.}
Wówczas:
∀
x
,
y
∈
R
{\displaystyle \forall x,y\in \mathbf {R} }
a)
|
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
x
)
y
−
f
″
(
x
)
y
2
2
!
|
{\displaystyle {\Bigg |}f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}{\Bigg |}}
⩽
A
|
y
|
3
3
!
,
{\displaystyle {}\leqslant {\frac {A|y|^{3}}{3!}},}
b)
|
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
y
)
|
⩽
B
y
2
2
!
.
{\displaystyle {\bigg |}f(x+y)-f(x)-f'(y){\bigg |}\leqslant {\frac {By^{2}}{2!}}.}
Dowód
Oznaczmy
φ
x
(
y
)
=
f
(
x
+
y
)
−
f
(
x
)
−
f
′
(
x
)
y
−
f
″
(
x
)
y
2
2
!
.
{\displaystyle \varphi _{x}(y)=f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}.}
Wówczas
φ
x
(
0
)
=
0
,
φ
x
′
(
0
)
=
0
,
φ
x
″
(
0
)
=
0.
{\displaystyle \varphi _{x}(0)=0,\varphi _{x}'(0)=0,\varphi _{x}''(0)=0.}
Ustalmy dowolne
y
>
0.
{\displaystyle y>0.}
Wówczas zgodnie z twierdzeniem Cauchy’ego istnieją takie
z
,
t
,
w
>
0
,
{\displaystyle z,t,w>0,}
że:
|
φ
x
(
y
)
y
3
|
=
|
φ
x
(
y
)
−
φ
x
(
0
)
y
3
−
0
|
{\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{3}}}{\Bigg |}={\Bigg |}{\frac {\varphi _{x}(y)-\varphi _{x}(0)}{y^{3}-0}}{\Bigg |}}
=
|
φ
x
′
(
z
)
3
z
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)}{3z^{2}}}{\Bigg |}}
=
|
φ
x
′
(
z
)
−
φ
x
′
(
0
)
3
z
2
−
3
⋅
0
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)-\varphi _{x}'(0)}{3z^{2}-3\cdot 0^{2}}}{\Bigg |}}
=
|
φ
x
″
(
t
)
6
t
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{6t}}{\Bigg |}}
=
|
φ
x
″
(
t
)
−
φ
x
″
(
0
)
6
t
−
6
⋅
0
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)-\varphi _{x}''(0)}{6t-6\cdot 0}}{\Bigg |}}
=
|
φ
x
‴
(
w
)
6
|
⩽
A
6
.
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'''(w)}{6}}{\Bigg |}\leqslant {\frac {A}{6}}.}
Na tej samej zasadzie:
|
φ
x
(
y
)
y
2
|
{\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{2}}}{\Bigg |}}
=
|
φ
x
″
(
t
)
2
|
{\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{2}}{\Bigg |}}
⩽
B
2
.
{\displaystyle {}\leqslant {\frac {B}{2}}.}
◻
{\displaystyle \Box }
Lemat 2
Jeżeli
X
∼
N
(
0
,
1
)
,
{\displaystyle X\sim N(0,1),}
to
E
|
X
|
3
=
∫
R
|
x
|
3
1
2
π
e
−
x
2
2
d
x
=
4
2
π
.
{\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx={\frac {4}{\sqrt {2\pi }}}.}
Dowód
E
|
X
|
3
=
∫
R
|
x
|
3
1
2
π
e
−
x
2
2
d
x
{\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx}
=
2
2
π
∫
0
+
∞
x
3
e
−
x
2
2
d
x
.
{\displaystyle {}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }x^{3}e^{-{\frac {x^{2}}{2}}}dx.}
Dokonujemy podstawienia
x
2
=
t
⇒
d
x
=
d
t
2
x
:
{\displaystyle x^{2}=t\Rightarrow dx={\frac {dt}{2x}}{:}}
E
|
X
|
3
=
2
2
π
∫
0
+
∞
t
x
e
−
t
2
d
t
2
x
{\displaystyle E|X|^{3}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }txe^{-{\frac {t}{2}}}{\frac {dt}{2x}}}
=
1
2
π
∫
0
+
∞
t
e
−
t
2
d
t
.
{\displaystyle {}={\frac {1}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }te^{-{\frac {t}{2}}}dt.}
Teraz całkujemy przez części:
E
|
X
|
3
=
−
2
t
2
π
e
−
t
2
|
0
+
∞
+
2
2
π
∫
0
+
∞
e
−
t
2
d
t
{\displaystyle E|X|^{3}=-{\frac {2t}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }+{\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }e^{-{\frac {t}{2}}}dt}
=
−
4
2
π
e
−
t
2
|
0
+
∞
{\displaystyle {}=-{\frac {4}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }}
=
4
2
π
.
{\displaystyle {}={\frac {4}{\sqrt {2\pi }}}.}
◻
{\displaystyle \Box }
Drugi krok polega na oszacowaniu pewnej wartości:
Niech
f
:
R
→
R
,
f
∈
C
3
(
R
)
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in C^{3}(\mathbf {R} )}
będzie funkcją trzykrotnie różniczkowalną taką, że
|
f
‴
(
x
)
|
⩽
A
∀
x
∈
R
{\displaystyle |f'''(x)|\leqslant A\;\forall x\in \mathbf {R} }
oraz
|
f
″
(
x
)
|
⩽
B
∀
x
∈
R
.
{\displaystyle |f''(x)|\leqslant B\;\forall x\in \mathbf {R} .}
Rozważamy niezależne zmienne
(
G
n
,
k
)
{\displaystyle (G_{n,k})}
o rozkładzie normalnym takie, że
∀
n
,
k
E
G
n
,
k
=
0
{\displaystyle \forall n,k\;EG_{n,k}=0}
oraz
D
2
G
n
,
k
=
D
2
X
n
,
k
.
{\displaystyle D^{2}G_{n,k}=D^{2}X_{n,k}.}
Wówczas:
∀
x
∈
R
|
E
f
(
x
+
X
n
,
k
)
−
E
f
(
x
+
G
n
,
k
)
|
{\displaystyle \forall x\in \mathbf {R} \;{\Bigg |}Ef(x+X_{n,k})-Ef(x+G_{n,k}){\Bigg |}}
=
|
E
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
E
X
n
,
k
{\displaystyle {}={\Bigg |}Ef(x+X_{n,k})-f(x)-f'(x)\cdot EX_{n,k}}
−
f
″
(
x
)
2
!
E
X
n
,
k
2
−
E
f
(
x
+
G
n
,
k
)
+
f
(
x
)
+
f
′
(
x
)
⋅
E
G
n
,
k
+
f
″
(
x
)
2
!
E
G
n
,
k
2
|
{\displaystyle {}-{\frac {f''(x)}{2!}}EX_{n,k}^{2}-Ef(x+G_{n,k})+f(x)+f'(x)\cdot EG_{n,k}+{\frac {f''(x)}{2!}}EG_{n,k}^{2}{\Bigg |}}
=
|
E
[
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle ={\Bigg |}E{\Big [}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
]
−
E
[
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
]
|
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Big ]}-E{\Big [}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Big ]}{\Bigg |}}
⩽
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle \leqslant E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
|
+
E
|
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
|
.
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}+E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}.}
Przy czym ostatnia nierówność to nierówność trójkąta .
Drugi ze składników daje się na podstawie Lematu 1 oszacować w sposób następujący:
E
|
f
(
x
+
G
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
G
n
,
k
−
f
″
(
x
)
2
!
G
n
,
k
2
|
{\displaystyle E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}}
⩽
A
6
E
|
G
n
,
k
|
3
.
{\displaystyle {}\leqslant {\frac {A}{6}}E|G_{n,k}|^{3}.}
Tymczasem
G
n
,
k
=
D
2
X
n
,
k
⋅
G
,
{\displaystyle G_{n,k}={\sqrt {D^{2}X_{n,k}}}\cdot G,}
gdzie
G
∼
N
(
0
,
1
)
.
{\displaystyle G\sim N(0,1).}
W związku z tym (korzystając z Lematu 2):
E
|
G
n
,
k
|
3
=
(
D
2
X
n
,
k
)
3
/
2
⋅
E
|
G
|
3
{\displaystyle E|G_{n,k}|^{3}=(D^{2}X_{n,k})^{3/2}\cdot E|G|^{3}}
⩽
12
⋅
(
D
2
X
n
,
k
)
3
/
2
.
{\displaystyle {}\leqslant 12\cdot (D^{2}X_{n,k})^{3/2}.}
Wobec tego
A
6
E
|
G
n
,
k
|
3
⩽
2
A
⋅
(
D
2
X
n
,
k
)
3
/
2
{\displaystyle {\frac {A}{6}}E|G_{n,k}|^{3}\leqslant 2A\cdot (D^{2}X_{n,k})^{3/2}}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
.
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}.}
Pierwszy ze składników można natomiast oszacować w sposób następujący:
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}}
=
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle {}=E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
+
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
{\displaystyle {}+E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}}
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Z kolei szacujemy:
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
⩽
A
6
E
|
X
n
,
k
|
3
⋅
1
{
|
X
n
,
k
|
⩽
ϵ
}
{\displaystyle {}\leqslant {\frac {A}{6}}E|X_{n,k}|^{3}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}}
⩽
A
6
D
2
X
n
,
k
⋅
ϵ
{\displaystyle {}\leqslant {\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon }
oraz
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
−
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
{\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}}
⩽
E
|
f
(
x
+
X
n
,
k
)
−
f
(
x
)
−
f
′
(
x
)
⋅
X
n
,
k
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
+
E
|
f
″
(
x
)
2
!
X
n
,
k
2
|
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
{\displaystyle {}\leqslant E|f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}|\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}+E{\Bigg |}{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}}
⩽
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}\leqslant B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Ostatnia nierówność wynika z Lematu 1.
Zatem
∀
x
∈
R
{\displaystyle \forall x\in \mathbf {R} }
mamy następujące oszacowanie:
|
E
f
(
x
+
X
n
,
k
)
−
E
f
(
x
+
G
n
,
k
)
|
{\displaystyle |Ef(x+X_{n,k})-Ef(x+G_{n,k})|}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
+
A
6
D
2
X
n
,
k
⋅
ϵ
+
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon +B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Trzeci krok polega na wielokrotnym zastosowaniu oszacowania uzyskanego powyżej.
|
E
f
(
X
n
,
1
+
X
n
,
2
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|}
⩽
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
1
+
G
n
,
n
)
|
{\displaystyle {}\leqslant |Ef(X_{n,1}+\ldots +X_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})|}
+
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
1
+
G
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
n
−
2
+
G
n
,
n
−
1
+
G
n
,
n
)
|
{\displaystyle {}+|Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-2}+G_{n,n-1}+G_{n,n})|}
+
…
+
|
E
f
(
X
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
.
{\displaystyle {}+\ldots +|Ef(X_{n,1}+G_{n,2}+\ldots +G_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|.}
Rozpatrzmy
k
{\displaystyle k}
-ty z powyższych wyrazów.
Podstawiamy
Y
:=
X
n
,
1
+
…
+
X
n
,
k
−
1
+
G
n
,
k
+
1
+
…
+
G
n
,
n
.
{\displaystyle Y:=X_{n,1}+\ldots +X_{n,k-1}+G_{n,k+1}+\ldots +G_{n,n}.}
Zmienna
Y
{\displaystyle Y}
jest niezależna od
X
n
,
k
{\displaystyle X_{n,k}}
i
G
n
,
k
.
{\displaystyle G_{n,k}.}
Wobec tego:
|
E
f
(
X
n
,
1
+
…
+
X
n
,
k
+
G
n
,
k
+
1
+
…
+
G
n
,
n
)
−
E
f
(
X
n
,
1
+
…
+
X
n
,
k
−
1
+
G
n
,
k
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+\ldots +X_{n,k}+G_{n,k+1}+\ldots +G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,k-1}+G_{n,k}+\ldots +G_{n,n})|}
=
|
E
f
(
Y
+
X
n
,
k
)
−
E
f
(
Y
+
G
n
,
k
)
|
=
|
∫
R
E
f
(
y
+
X
n
,
k
)
d
μ
Y
(
y
)
{\displaystyle {}=|Ef(Y+X_{n,k})-Ef(Y+G_{n,k})|={\bigg |}\int \limits _{R}Ef(y+X_{n,k})d\mu _{Y}(y)}
−
∫
R
E
f
(
y
+
G
n
,
k
)
d
μ
Y
(
y
)
|
{\displaystyle {}-\int \limits _{R}Ef(y+G_{n,k})d\mu _{Y}(y){\bigg |}}
⩽
∫
R
|
E
f
(
y
+
X
n
,
k
)
{\displaystyle {}\leqslant \int \limits _{R}|Ef(y+X_{n,k})}
−
E
f
(
y
+
G
n
,
k
)
|
d
μ
Y
(
y
)
{\displaystyle {}-Ef(y+G_{n,k})|d\mu _{Y}(y)}
⩽
2
A
⋅
D
2
X
n
,
k
⋅
{\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot }
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
D
2
X
n
,
k
⋅
ϵ
{\displaystyle {}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon }
+
B
⋅
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
.
{\displaystyle {}+B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.}
Zatem:
|
E
f
(
X
n
,
1
+
X
n
,
2
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
G
n
,
2
+
…
+
G
n
,
n
)
|
{\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|}
⩽
2
A
⋅
(
∑
k
=
1
n
D
2
X
n
,
k
)
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {}\leqslant 2A\cdot {\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
(
∑
k
=
1
n
D
2
X
n
,
k
)
⋅
ϵ
{\displaystyle {}+{\frac {A}{6}}{\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot \epsilon }
+
B
⋅
(
∑
k
=
1
n
E
X
n
,
k
2
⋅
1
{
|
X
n
,
k
|
>
ϵ
}
)
{\displaystyle {}+B\cdot {\bigg (}\sum _{k=1}^{n}EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}{\bigg )}}
⩽
2
A
⋅
(
max
1
⩽
k
⩽
n
D
2
X
n
,
k
)
{\displaystyle {}\leqslant 2A\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}}
+
A
6
ϵ
+
B
⋅
L
n
(
ϵ
)
.
{\displaystyle {}+{\frac {A}{6}}\epsilon +B\cdot L_{n}(\epsilon ).}
Pierwszy i ostatni składnik z warunku Lindeberga zbiegają do zera, gdy
n
{\displaystyle n}
dąży do nieskończoności. W związku z tym:
∀
ϵ
>
0
lim sup
n
→
∞
|
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
−
E
f
(
G
n
,
1
+
…
+
G
n
,
n
)
|
⩽
A
⋅
ϵ
.
{\displaystyle \forall \epsilon >0\;\limsup _{n\to \infty }|Ef(X_{n,1}+\ldots +X_{n,n})-Ef(G_{n,1}+\ldots +G_{n,n})|\leqslant A\cdot \epsilon .}
Oznacza to, że:
E
f
(
X
n
,
1
+
…
+
X
n
,
k
)
{\displaystyle Ef(X_{n,1}+\ldots +X_{n,k})}
→
n
→
∞
E
f
(
G
n
,
1
+
…
+
G
n
,
n
)
=
E
f
(
G
)
,
{\displaystyle {}{\xrightarrow[{n\to \infty }]{}}Ef(G_{n,1}+\ldots +G_{n,n})=Ef(G),}
gdzie
G
∼
N
(
0
,
1
)
.
{\displaystyle G\sim N(0,1).}
Czwarty krok polega na wyliczenie dystrybuanty granicznej na podstawie powyższych oszacowań.
Weźmy funkcję
f
:
R
→
R
,
f
∈
C
3
(
R
)
{\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in \mathbb {C} ^{3}(R)}
spełniającą warunek
∀
x
∈
R
1
(
t
+
δ
,
+
∞
)
(
x
)
{\displaystyle \forall x\in \mathbf {R} \;\mathbf {1} _{(t+\delta ,+\infty )}(x)}
⩽
f
(
x
)
⩽
1
(
t
,
+
∞
)
(
x
)
{\displaystyle {}\leqslant f(x)\leqslant \mathbf {1} _{(t,+\infty )}(x)}
dla pewnych
t
∈
R
,
δ
>
0.
{\displaystyle t\in \mathbf {R} ,\delta >0.}
Wówczas:
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
⩾
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
⩾
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
+
δ
)
.
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t)\geqslant Ef(X_{n,1}+\ldots +X_{n,n})\geqslant P(X_{n,1}+\ldots +X_{n,n}\geqslant t+\delta ).}
Ale:
E
f
(
X
n
,
1
+
…
+
X
n
,
n
)
→
n
→
∞
E
f
(
G
)
{\displaystyle Ef(X_{n,1}+\ldots +X_{n,n}){\xrightarrow[{n\to \infty }]{}}Ef(G)}
oraz
P
(
G
⩾
t
)
⩾
E
f
(
G
)
⩾
P
(
G
⩾
t
+
δ
)
.
{\displaystyle P(G\geqslant t)\geqslant Ef(G)\geqslant P(G\geqslant t+\delta ).}
W związku z tym:
lim inf
n
→
∞
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
{\displaystyle \liminf _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)}
⩾
P
(
G
⩾
t
+
δ
)
→
δ
→
0
+
P
(
G
⩾
t
)
{\displaystyle {}\geqslant P(G\geqslant t+\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t)}
oraz podobnie
lim sup
n
→
∞
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
{\displaystyle \limsup _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)}
⩽
P
(
G
⩾
t
−
δ
)
→
δ
→
0
+
P
(
G
⩾
t
)
.
{\displaystyle {}\leqslant P(G\geqslant t-\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t).}
Otrzymujemy więc
P
(
X
n
,
1
+
…
+
X
n
,
n
⩾
t
)
→
n
→
∞
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t){\xrightarrow[{n\to \infty }]{}}}
P
(
G
⩾
t
)
⇒
P
(
X
n
,
1
+
…
+
X
n
,
n
<
t
)
→
n
→
∞
P
(
G
<
t
)
.
{\displaystyle P(G\geqslant t)\Rightarrow P(X_{n,1}+\ldots +X_{n,n}<t){\xrightarrow[{n\to \infty }]{}}P(G<t).}
Ale z ciągłości dystrybuanty rozkładu normalnego wnioskujemy, że
P
(
X
n
,
1
+
…
+
X
n
,
n
⩽
t
)
→
n
→
∞
P
(
G
⩽
t
)
.
{\displaystyle P(X_{n,1}+\ldots +X_{n,n}\leqslant t){\xrightarrow[{n\to \infty }]{}}P(G\leqslant t).}
Ponieważ punktowa zbieżność dystrybuant w punktach ciągłości dystrybuanty granicznej jest równoważna zbieżności według rozkładu, więc ostatecznie:
∑
k
=
1
n
X
n
,
k
→
n
→
∞
D
N
(
0
,
1
)
.
{\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow[{n\to \infty }]{D}}N(0,1).}
◻
{\displaystyle \Box }