Теория вероятностей и математическая статистика _ учебн
.pdfСередина |
Q1 |
... |
Qj |
... |
Qm |
||
интервала |
|||||||
х1 |
s11 |
|
s1j |
|
s1m |
||
… |
|
|
|
|
|
|
|
xi |
si1 |
|
sij |
|
sim |
||
… |
|
|
|
|
|
|
|
xn |
sn1 |
|
snj |
|
snm |
||
Итого |
N1 |
|
Nj |
|
Nm |
||
|
x1 |
|
x |
j |
|
x |
m |
где sij |
|
– частота появления i-го наблюдения в j-й группе; |
|||||||||||
N |
|
|
n |
– |
m |
N |
|
|
|||||
j |
s |
число наблюдений в j-й группе |
j |
N ; |
|||||||||
|
|
|
|
|
ij |
|
|
|
|
|
|
||
|
|
|
|
|
|
i 1 |
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
sijxi |
|
|
|
|
|||
|
x |
j |
|
|
i 1 |
|
|
|
– средняя j-й группы; |
|
|
|
|
|
|
Nj |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
Nj |
x |
j |
|
|
|
|
||
|
x |
|
j 1 |
|
|
|
– общая средняя. |
|
|
|
|||
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
N |
|
|
|
|
|
|
|
Кроме средней арифметической также вычисляют модуи медиану. Мед и а н о й вариационногоряда называется значениепризнака,приходящегосянасерединуранжированногоряданаблюдений. На медиану невлияют изменения крайних членов вариационногоряда.Медианакакпоказательсреднегопредпочтительнеесреднейарифметическойдляряда,укоторогокрайниевариантыпосравнению с большими оказались чрезмерно большими или малыми. М о д о й вариационного ряда называется варианта, которой
соответствует наибольшая частота (модальный интервал). Особенность моды как показателя среднего заключается в том,
что она не изменяется при изменении крайних членов ряда, т. е. обладает устойчивостью к вариации признака.
109
Кроме средних величин для вариационного ряда рассчитывают ещепоказатели вариации.
Выборочная дисперсия и ее свойства
Дисперсией вариационногоряда называетсявеличина
|
|
n |
|
|
|
|
n |
|
|
|
|||
|
|
ni(xi |
x |
)2 |
n |
|
|
|
nixi2 |
|
|
|
|
DB |
(x) 2(X) |
i 1 |
mi(xi |
|
x |
)2 |
i 1 |
|
x |
2, |
|||
N |
N |
||||||||||||
|
|
i 1 |
|
|
|
|
|
|
где у нас по-прежнему xi – i-я варианта, если признак Х – дискретный, и середина i-го интервала, если Х– непрерывный признак.
B(X) DB(X) – среднеквадратичное отклонениевариационногоряда.
Свойства выборочной дисперсии:
1.DB(CX) = C2DB(X).
2.DB(X ± C) = DB(X).
Понятие групповой, межгрупповой, внутригрупповой и общей дисперсии
Допустим, чтовсе значения признака Х разбиты на ряд групп:
Середина |
Q1 |
... |
Qj |
... |
Qm |
||
интервала |
|||||||
х1 |
s11 |
|
s1j |
|
s1m |
||
… |
|
|
|
|
|
|
|
xi |
si1 |
|
sij |
|
sim |
||
… |
|
|
|
|
|
|
|
xn |
sn1 |
|
snj |
|
snm |
||
Итого |
N1 |
|
Nj |
|
Nm |
||
|
x1 |
|
x |
j |
|
x |
m |
|
D1 |
|
Dj |
|
Dm |
где sij – частота появления i-го наблюдения в j-й группе;
110
N |
|
|
n |
|
m |
N |
|
|
||
j |
s |
– число наблюдений в j-й группе |
|
j |
N ; |
|||||
|
|
|
ij |
|
|
|
|
|||
|
|
|
|
i 1 |
|
j 1 |
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
sijxi |
|
|
|
|
||
x |
j |
|
|
i 1 |
|
– средняя j-й группы; |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
Nj |
|
|
|
|
|
|
Dj sij (xi xj)2 –групповаядисперсия, характеризуетрас-
Nj
сеяниепризнака Хвнутри j-й группы;
|
m |
|
|
|
Nj Dj |
|
|
D |
j |
1 |
– среднеарифметическое групповых диспер- |
|
|
||
ВГ |
|
N |
|
|
|
|
сий, взвешенных пообъемугруппы– внутригрупповаядисперсия;
|
|
|
m |
|
|
|
|
|
|
|
||
|
|
Nj ( |
x |
j |
– |
x |
)2 |
|
|
|
||
D |
|
|
j 1 |
|
|
|
|
|
– межгрупповая дисперсия, характери- |
|||
|
|
|
|
|
|
|||||||
MГ |
|
|
N |
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|||
зует рассеяние групповых средних вокруг общей средней; |
||||||||||||
|
|
|
m n |
|
|
|
|
|
|
|
||
|
|
|
si j (xi – |
x |
)2 |
|
||||||
D |
|
j 1 i 1 |
|
|
|
|
|
|
–общаядисперсия,характеризуетрас- |
|||
|
|
|
|
|
|
|
||||||
общ |
|
|
|
N |
||||||||
|
|
|
|
|||||||||
сеяние всей совокупности вокруг общей средней. |
Утверждение. Dобщ = DВГ + DМГ.
Длявариационногоряда рассчитываютначальныеи центральные моменты, частными случаями которых являются средняя арифметическая и дисперсия. В число таких показателей входят асимметрия и эксцесс.
111
6.4. Оценивание распределения случайных величин
Пустьимеетсянекотораяслучайнаявеличина (одномернаяили многомерная), распределение которой неизвестно или известно с точностью до некоторого параметра . Имеется некоторая реализация этой случайной величины X1, X2, …, XN (выборка). На основании имеющейся выборки мы должны оценить распределение случайной величины.
Длянахожденияоценкихарактеристикииспользуютдваподхода: 1.Если распределениеслучайнойвеличинынамизвестносточностью до некоторого параметра fX (x, ), то оценив по выборке значение этого параметра, мы получим оценку распределения.fX (x, ) fX (x, ). Такой подход называется параметричеcким.
П р и м е р ы
1) X~N (m; );
|
1 |
|
|
(x m)2 |
m |
|||
|
|
|
2σ2 |
|||||
fx |
(x) |
|
|
|
e |
|
, тогда |
. |
|
|
|
|
|||||
σ 2π |
|
|||||||
|
|
|
|
|
q |
1
2)X~exp( ), ... –неизвестен.
|
|
|
3) X~bi(p); |
|
k |
|
|
p(x = k) = Cknpkqn – k = p. 4) X~ U(a;b);
|
1 |
a |
||
fx |
(x) |
|
, . |
|
b a |
||||
|
|
b |
Таким образом, имеем fx (x, ), где – неизвестный параметр, и мы этот неизвестный параметр оцениваем, т. е. получаем оценку (приближенноезначение)этогопараметра, котороеназываем .Тогда имеем известную fX (x, ).
2. Непараметрический. Вид функции распределениянамнеизвестен. Тогда составималгоритм расчета значенияфункции в каждой точке.
112
Итак, работаем в рамках первого подхода. fX (x, ) знаем, но параметр не знаем.
1
... –векторнеизвестныхпараметров (изkнеизвестных).
k
Как оценить эти k параметров? Существуют различные виды статистического оценивания параметров.
Виды статистического оценивания параметров: 1. Точечное.
= (х1, х2, ..., хn).
Вообще говоря, , но мы надеемся, что . 2. Интервальное.
Строим интервал, который с заданной вероятностью покрывает истинное значение оцениваемого параметра.
Величину называют уровнем надежности (заданная вероятность накрытия интервалом), т. е. р( ( 1; 2)) = .
Точечное статистическое оценивание неизвестного параметра
1. Метод математических ожиданий/метод аналогий.
Выборочная средняя х xi нам известна. n
= Ех – неизвестная нам величина.
xi – оценка математического ожидания (нам известна). n
x2i – известная нам оценка, тогда как = ЕХ2 нам не- n
известна.
2. Метод моментов (метод Пирсона).
1 |
|
Пусть ... |
– вектор неизвестных параметров. |
|
|
k |
|
113
n = EXm – начальный момент m порядка.
Ex g1 ( ) |
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
2 |
g2 ( ) |
|
|
|
|
|
|
|
|
|
|
|
||||
Ex |
|
|
– система условий на момент распределения. |
||||||||||||||
... |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
g |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Exm |
m |
( ) |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
g ( ) |
|
|
|
|
|
|
|
|
|||||
|
х |
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
n |
|
1 |
|
|
|
|
|
|
|
|
|
|
|
xi2 |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
g2( ) |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
... |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
gm( ) |
|
|
|
|
|
|
|
|
|
|||||
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
П р и м е р ы |
|
|
|
|
|
|
|
|
|
|||||||
|
1)Пусть X~ U(0; ). |
|
|
|
|
|
|
|
|
||||||||
|
Методом моментов найдем оценку параметров . |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
θ |
|
|
θ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
Ex |
2 |
; |
х |
2 |
=> θMM = 2х. |
Заметим, что сколько неизвестных параметров, столько моментов мы используем.
2)ПустьX~exp( ), = .
11 1
Тогда Ex ; х х .
3)Пусть X~ N (m; ); m2 .
Ex m, Ex2 m2 2 , таккак var(X)= E(X –EX)2 = EX2 –(EX)2;
2 Ex2 (Ex )2 Ex2 2 (Ex )2 2 m2;
х m, х m;
xi Ci ( ) i 1, n;
114
|
|
xi2 |
2 |
|
2 |
|
|
|
|||||
|
|
|
n |
m |
; |
|
|
|
|||||
|
|
|
xi2 |
|
2 |
|
|
|
|||||
|
|
|
2 |
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
x ; |
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
||
2 |
|
(xi |
х |
)2 |
|
xi2 |
|
|
|
||||
dX |
|
|
|
n |
|
|
|
|
|
n |
х. |
||
|
|
|
|
|
|
|
|
|
|
|
|
3. Метод минимальных расстояний. xi сопоставим с Ci( ) – функция цели.
Рассмотрим xi Ci ( ) i 1, n;
n
C( ) | xi Ci ( )| – метод наименьших модулей;
i1 n
C( ) (xi Ci ( )2 )– метод наименьших квадратов (МНК).
i 1
MD argminC( ).
П р и м е р Неизвестныйпараметр –математическое ожидание, т. е. = ЕХ.
Сi( = ЕХ= ;
n
МНК: (xi )2 min.
i 1
Находим необходимое условие существования экстремума:
С = |
C |
2 |
|
(xi ) ; |
|
||||
|
|
|
||
|
|
|
ˆ .
4. Методмаксимальногоправдоподобия(MaximumLikelihood). Этот метод среди всех возможных параметров выбирает тот, для которого вероятность получить данную выборку максимальна. Основуметода максимальногоправдоподобия(ML)составляет
функцияправдоподобия.
L( ) fX1, X2 , ..., Xn )(x1,x2 ,..., xn , ) fxi (xi , );
115
L( ) max;ML = arg max L( ).
П р и м е р
X |
–1 |
0 |
1 |
р |
|
1,2 – 2 |
– 0,2 |
Необходимонайти .
Выборка х1 = 0;х2 =0 независима.
L( )= p((x1 = 0)(x2 = 1))=p(x1 = 0) p(x2=1)= =(1,2–2 )( –0,2) max.
Необходимые условия экстремума таковы:
L =1,2 –2 2 +0,4 –0,24 =0;
1,6–4 =0 ML =0,4;
L =– 4< 0 |
ML |
=0,4. |
|
|
Таким образом, получилиоценкуметодом максимальногоправдоподобия, а теперь применим метод моментов (ММ):
EX=– + –0,2=–0,2;
EX2 = + –0,2 =2 –0,2;
|
xi2 |
2 0,2; |
|||
|
|
n |
|||
|
|
xi2 |
|||
|
|
|
|||
|
MM |
|
0,1; |
||
|
|
|
|
|
2n |
|
02 |
12 |
|||
n 2 MM |
|
|
|
|
0,1 0,25 0,1 0,35. |
|
4 |
|
|||
|
|
|
|
|
Оценки неизвестного параметра методом максимального правдоподобия и методом моментов оказались разные.
Нахождение оценки n упрощается, если максимизировать не саму функцию L, а lnL, поскольку максимум обеих функций достигается при одном и том же значении .
N
L( ) fX1, X2 ,..., XN x1,..., xN , f xi, ;
i 1
116
L( ) max;ML = arg max L( ).
|
Необходимое условие: L ( ) = 0. |
||
|
|
|
n |
|
Рассмотрим l( ) lnL( ) ln fx(xi, ); |
||
|
|
|
i 1 |
|
|
|
ML = arg max l( ), |
l = |
|
l( ) |
0, а затем надо отобрать то решение, которое обращает |
|
|
|
|
|
|
функцию lnL в max, т. е. воспользоваться достаточным условием существования экстремума (матрица Гессе).
П р и м е р Найти оценкуметодом максимального правдоподобия.
|
|
m |
|
|
|
1 |
|
|
|
|
(x m)2 |
|
|||
|
2 |
|
|
|
|
|
|
2 2 |
|||||||
|
|
|
|
|
|
|
|
||||||||
x N(m, |
|
); |
|
2 |
; fx |
(x) |
|
|
|
|
|
e |
; |
||
|
|
|
|
|
|
||||||||||
|
2 |
||||||||||||||
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
2 |
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
(x m)2 |
|
|
|
|
|
|||||
ln f |
x |
(x) |
|
|
|
ln |
|
|
|
|
|
|
|
ln(2 ) |
|
|
|
; |
|
|
|
|
|||||||||||||||||
|
|
|
|
|
2 |
|
|
2 2 |
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
n |
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
2 |
|
|
n |
|
|
|
|
|
|
(xi |
m) |
2 |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
l( ) ln fxi |
(xi , ) |
|
|
|
|
ln |
|
|
|
|
|
ln(2 ) |
|
2 |
2 |
; |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
i 1 |
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
l |
|
2 |
(xi |
m) |
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
2 2 |
|
|
0; |
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
l 2 |
|
|
|
|
|
|
|
m |
|
|
|
(xi |
m)2 |
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0; |
|
|
|
|
|
||||||||
|
|
|
|
2 2 |
|
|
|
|
|
2 4 |
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
m |
(xi |
|
|
х |
)2 |
|
|
|
|
n 2 |
|
(xi |
х |
)2 |
; |
|
||||||||||||||||||||||
|
|
|
|
|
|
2 4 |
|
|
|
|
|
|
|
|
|
|
|
2 4 |
|
|
|
|
|||||||||||||||||
|
2 2 |
|
|
|
|
|
|
|
|
2 4 |
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
n 2 |
|
|
|
(xi |
|
)2 |
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
x |
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
; |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
2 4 |
|
|
|
|
2 4 |
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
(xi |
|
|
)2 |
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
ML |
|
|
|
|
|
|
|
|
|
|
; |
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
117
|
|
|
|
|
|
|
|
|
(xi |
m) 0 |
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
xi |
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
m 0 |
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
xi |
nm 0 |
; |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
m ML |
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
||
|
|
l |
|
n |
|
0; l 2 |
|
2 |
|
n |
|
2 (xi m)2 |
; |
|
|
|
|||||
|
|
2 |
|
2 4 |
2 6 |
|
|
|
|||||||||||||
|
|
mm |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
(xi |
m) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
x) |
|||||||||
|
|
4 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
lm 2 |
|
|
|
|
0, так как (xi m) (xi |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
xi |
– |
x |
xi |
nx |
xi xi 0. |
|
|
|
Проверим знакоопределенность матрицы Гессе:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(xi |
|
|
|
|
|
|
|
|
|
|
l 2 |
|
2 |
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
x)2 |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
(xi x)2 |
|
|
|
|
|
|
|
)2 3 |
|||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
(xi |
|
x |
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
2 |
|
|
n |
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n3 |
|
|
|
|
|
|
|
|
n3 |
|
|
|
|
|
|
|
|
|
n3 |
|
|
|
0; |
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
2( (xi x)2 )2 |
|
|
( (xi |
x)2)2 |
|
2( (xi x)2)2 |
|||||||||||||||||||||||||
|
|
|
n |
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
ˆ |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
H |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
– матрица Гессе. |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
n |
3 |
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
( (xi х) |
|
) |
|
|
|
|
|
|
|
|
|
|
|
Значит, действительно, найденная точка является точкой максимума и полученная оценка является оценкой максимального правдоподобия.
6.5. Свойства статистических оценок
Свойства статистических оценок различают на больших и конечных выборках.
118