Информационный сайт

 

Реклама
bulletinsite.net -> Книги на сайте -> Бизнесмену -> Чураков Е.П. -> "Математические методы обработки экспериментальных данных в экономике" -> 15

Математические методы обработки экспериментальных данных в экономике - Чураков Е.П.

Чураков Е.П. Математические методы обработки экспериментальных данных в экономике — М.: Финансы и статистика, 2004. — 240 c.
ISBN 5-279-02745-6
Скачать (прямая ссылка): matematicheskiemetodiobrabotki2004.pdf
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 73 >> Следующая

в(у) = ('FT'F)_1'FTy. (2.24)
Если учесть определение матрицы Y, данное в комментариях к (2.4), то эту оценку можно представить в другой редакции:
еы =
п
\
-1
п
(*/) Sv(JC/)y/. (2.25)
i=l
,'=1 .
При линейной относительно оцениваемых параметров модели наблюдений МНК-оценка оказывается линейной относительно вектора наблюдений у. Ограничение п > т + 1, физически означающее, что число наблюдений при организации эксперимента должно быть больше числа оцениваемых параметров регрессионной модели, является существенным и означает, что лишь в этом случае можно успешно справиться с влиянием неконтролируемых ошибок в. При п < т + 1 rank = rank <п и матрица 'FTV оказывается вырожденной. В этом случае система (2.23), даже если она совместна, не является определенной.
46
2.3.2. Основные свойства МНК-оценок.
Теорема Маркова
Займемся теперь анализом основных свойств найденной оценки. Покажем прежде всего, что МНК-оценка (2.24) является несмещенной. С этой целью, используя (2.4), находим
Л^е{вО>)} = Л/^в{(ТтТ)-,Т1>} = M?|e{('FT'Frl'FT('Fe + е)} = 0,
что и является условием несмещенности.
Второй важнейшей характеристикой оценки является ковариационная матрица ошибки. Для несмещенной оценки она определяется как (2.7). Ошибка оценивания находится естественным образом:
х\(у, 0) = в(у) - 0 = 0FT'F)~1'FTy - 0 =
(2.26)
= ('Ft'FT1'Ft('F0 + е) - 0 = ('FT'F)~1'F е
и, следовательно, Кц = М{rmT> = ('FT'Frl4'TA/{6ET}'F (YTY)~‘ = _ ('fT'p)~ lxFT/ifE 4 (YTT)-1, где Kt — ковариационная матрица вектора е. Так как в соответствии с (2.19) Ке = а2Е, где Е — единичная матрица, окончательно находим
Кц = М{тгот} = g2('Ft'FTi. (2.27)
Соотношение (2.27) принципиально позволяет выявить точностные возможности метода наименьших квадратов. К сожалению, практическая значимость этого результата невелика, так как в большинстве эконометрических задач дисперсия а2 экспериментальных ошибок неизвестна. Однако МНК-оценкам присуще еще одно важное свойство.
Теорема Маркова. Пусть модель наблюдений имеет структуру
(2.4), вектор е удовлетворяет условиям (2.19), матрица ? является матрицей полного ранга и п > т + 1. Тогда МНК-оценка (2.24) является наилучшей (в смысле наименьшей дисперсии ошибок оценивания) среди всех линейных несмещенных оценок.
Для доказательства теоремы предположим, что мы хотим найти наилучшую в указанном смысле линейную несмещенную оценку k-то компонента 0* вектора 0. Этот компонент очевидным образом выразим через сам вектор: 0* = Л*т0, где hk — век-
47
тор, у которого на (к + 1)-й позиции (к = 0, 1, т) находится единица, а остальные компоненты равны нулю. Оценку 0* величины 0? будем искать в классе линейных функций наблюдений, т.е. в виде 0? = Wky, где Wk — вектор подлежащих определению весовых коэффициентов. Пусть г\к — ошибка оценивания, т.е.
Л* = Є* - 0* = WkTy - 0* = ^т(Т0 + е) - hkTQ =
= (WkT4-hkT)Q+WkTe.
Первое слагаемое в этом выражении зависит от неизвестного вектора 0 и поэтому его величину нельзя оценить даже ориентировочно. Чтобы ошибку оценивания сделать независимой от оцениваемого вектора, потребуем
YT^-A* = Om + 1. (2.28)
При этом дополнительно оказывается М{г\к) — 0, т.е. соотношения (2.28) оказываются условиями несмещенности. В развернутом виде выражение (2.28) представляет собой систему линейных неоднородных алгебраических уравнений, состоящую из т + 1 уравнений с п неизвестными в виде компонентов вектора Wk. Так как я > ш + 1 иТ - матрица полного ранга, то при указанной структуре вектора hk эта система совместна, но не определена, т.е. имеет неограниченное число решений. Если равенство (2.28) выполняется, ошибка оценивания будет определяться только ошибками эксперимента и искомой весовой функцией: г\к = ЩТе, причем дисперсия ак этой ошибки оказывается равной
ck2 = a2WkTWk. (2.29)
Последующая задача заключается в поиске на множестве решений системы (2.28) такого вектора Wk, который минимизирует величину (2.29). Эта традиционная задача на условный экстремум решается методом неопределенных множителей Лагранжа. Составим функцию Лагранжа
Ц Щ, Я) = а2 ЩТ Wk + AT('F1>* - hk),
где X — вектор неопределенных множителей Лагранжа.
Стационарные точки этой функции находятся из условия равенства нулевым векторам ее градиентов по векторам W\ и X:
48
2o2Wk -40. = On, 4JWk - hk = 0OT + i.
Выразив из первого уравнения этой системы вектор Wk и подставив его значение во второе, получим 0,5сГ2?тЧ'Х — Ак = 0т + Х. Так как матрица 'FT'F по доказанному не вырождена, то отсюда однозначно находится вектор X, подстановка значения которого в первое уравнение предыдущей системы позволяет найти искомый вектор весовых коэффициентов
Wk = 'F0FT,Fr1 hk, (2.30)
что приводит к следующему выражению оценки, наилучшей в классе линейных несмещенных оценок:
0* = hkT ('FT'F)-,'FY к = 0, 1,..., т. (2.31)
Упорядочив все эти т + 1 оценок в форме одной векторной оценки, получим
V ё-*т
hL

Но первый матричный сомножитель в этом выражении есть не что иное, как единичная матрица, и, следовательно,
в = ('FT'F)“l'PTy.
Этот результат полностью совпадает с ранее полученной МНК-оценкой (2.24). Таким образом, МНК-оценка действительно оказывается наилучшей в классе линейных несмещенных оценок.
Предыдущая << 1 .. 9 10 11 12 13 14 < 15 > 16 17 18 19 20 21 .. 73 >> Следующая
Реклама
Авторские права © 2009 AdsNet. Все права защищены.
Rambler's Top100