Информационный сайт

 

Реклама
bulletinsite.net -> Книги на сайте -> Бизнесмену -> Чураков Е.П. -> "Математические методы обработки экспериментальных данных в экономике" -> 30

Математические методы обработки экспериментальных данных в экономике - Чураков Е.П.

Чураков Е.П. Математические методы обработки экспериментальных данных в экономике — М.: Финансы и статистика, 2004. — 240 c.
ISBN 5-279-02745-6
Скачать (прямая ссылка): matematicheskiemetodiobrabotki2004.pdf
Предыдущая << 1 .. 24 25 26 27 28 29 < 30 > 31 32 33 34 35 36 .. 73 >> Следующая

Vg(const - 0,5(8 - «ив)тАе-1(0 - тв) ~
- 0,5(у - Ч,0)тЛе_1(у - ?0)) = 0т+1
в этой задаче приобретает форму уравнения
*е-'(0 - тв) - ЧТКв~1(у - ?0) = 0т+ь
из которого следует искомая оценка
0 = (Ле"^ + ^е“')“1(Ле_1>’ + *е~ W (2.79)
Таким образом, оценка (2.79), в отличие от максимально правдоподобной оценки (2.75), существенно определяется априорной информацией об оцениваемом векторе 0 в объеме ковариационной матрицы Kq и математического ожидания т&. Однако если эта информация оказывается «расплывчатой» в том смысле, что диагональные элементы матрицы Kq чрезмерно велики, то оценка (2.79) практически вырождается в максимально правдоподобную. Диагональные элементы матрицы Kq являются дисперсиями компонентов вектора 0, и если они велики, влияние априорной информации значительно снижается, и по своим свойствам случайный вектор приближается к неизвестному. Формально неограниченно большие диагональные элементы матрицы Kq порождают нулевую обратную матрицу Kq~\ что и превращает оценку (2.79) в оценку (2.75).
С другой стороны, если априорная информация достаточно содержательная, алгоритм (2.79) перестает «доверять» апостериорным данным и в большей степени ориентируется на априорные сведения. Так, если допустить, ЧТО Kq —> 0(m+j)x(m+i), то Kq~1 —> оо и в (2.79) можно слагаемыми 4fTA’e~1,F и Kt~ly пренебречь, откуда следует 0 = т©. В этом предельном случае, таким образом, алгоритм (2.79) вообще не использует экспериментальные данные и полагается только на априорную информацию. Это
93
вполне объяснимый результат: устремляя матрицу К& к нулевой, мы тем самым превращаем гауссовскую плотность Щт&, Kq) в дельта-функцию 5(0 — /я©) с «центром» в точке т&. Но это, в свою очередь, означает, что априори известно 0 = «е и нет необходимости не только в доверии к экспериментальным данным, но и в самом эксперименте.
Оценку (2.79) часто оказывается удобным представлять в ином виде, поступая следующим образом. Представим
ё = /ие + + ЛГе ’г’ОІ^АеЛ + Кв~]тв) -тв =
= тв + (Ле-'Т + + Ае_1яіе -
- ('FTz:r1'r + К(Г1) тв),
откуда следует
0 = 1И0 + ('FTtf(r1'F + Ae_1r1'FTtf(r!0> - ’Fine). (2.80)
Это выражение имеет определенный «философский» смысл: оценка определяется как сумма двух слагаемых, первое из которых отображает наши априорные представления о среднем значении параметра 0, а второе формирует апостериорную поправку к этому среднему значению. Сама поправка содержит сомножитель у — 'VmQ, который представляет собой отклонение результатов проведенного эксперимента от ориентированного только на априорные представления прогнозируемого исхода эксперимента. «Вес» поправки определяется априорными свойствами регрессионной модели.
Выявим основные свойства оценки (2.80). Покажем прежде всего, что она является несмещенной. Действительно, при
0 ~ N(mQ,Ko), є ~ N(0, Kq) из (2.4) следует М{у} = 'VttiQ. Но тогда непосредственное усреднение оценки (2.80) приводит к очевидному результату Л/{0} = т&, т.е. оценка по максимуму апостериорной плотности вероятностей как безусловная оценка оказывается несмещенной.
Далее находим ковариационную матрицу ошибки оценивания tj = 0 — 0. Используя соотношения (2.80) и (2.4), получаем
i\ = D~l'?TKt~le -(?- D (0 - /ие) =
= /Г 1YTA,-1e - D~\D - 'FTAre-l'F) (0 - me) =
= 2Г1ТтАГ1е - D lKe \e - me),
94
где для упрощения записей использовано обозначение D = ? + Яе-1. Следовательно, ковариационная матрица
Кц ошибки при условии некоррелированных векторов 0 и е находится в результате следующей последовательности операций:
Кц = Л/(ЛЛТ} = мр-'у^-'е - - m0))(eT/i:(fl'FZrl -
- (Є - ffie)T Ke~lD-1)} = D lx?TKlrl'PD-1 + D~l Ke lD l = D~l.
При этом выводе учитывается симметричность матрицы D. Итак, окончательно:
= D~l = (VTKt-l4f + Кв~1Г1. (2.81)
Интересно сопоставить этот результат с аналогичной формулой (2.76) метода максимального правдоподобия. Принципиальным является присутствие в (2.81) ковариационной матрицы Я© вектора 0, которая может существенно влиять на матрицу Кц. Достаточно наглядно это проявляется при скалярном параметре
0 = 0eR(w+l = l). В этом случае *Fe R”xl, 1FTAe-1,F — скалярная величина и Оц = ('FTAe-1,F + ст©-2)-1, где стл2, ст©2 — соответствующие дисперсии. Отсюда следует, что максимально правдоподобная оценка скалярного параметра всегда по точности хуже аналогичной оценки, найденной по методу максимума апостериорной плотности вероятностей. Преимущество последней обусловлено именно априорной информацией — в данном случае дисперсией ст©2. Чем она меньше, т.е. чем меньше разброс реализаций параметра © относительно его математического ожидания, тем это преимущество существеннее. При о©2 —> 0, что, как уже отмечалось, соответствует, по существу, детерминированной ситуации, дисперсия стл2 ошибки оценивания по методу максимума апостериорной плотности вероятностей также стремится к нулю. В методе максимального правдоподобия это свойство, разумеется, не проявляется. Если же ст©2 —> оо, что практически соответствует полному отсутствию априорной информации об оцениваемом параметре, точности обеих оценок равны. Выявленные закономерности, естественно, проявляются таким же образом и при векторном регрессионном параметре 0. Однако следует иметь в виду, что за выявленное преимущество приходится платить дополнительными усилиями, направленными на приобретение и обоснование априорной информации.
Предыдущая << 1 .. 24 25 26 27 28 29 < 30 > 31 32 33 34 35 36 .. 73 >> Следующая
Реклама
Авторские права © 2009 AdsNet. Все права защищены.
Rambler's Top100