Информационный сайт

 

Реклама
bulletinsite.net -> Книги на сайте -> Бизнесмену -> Чураков Е.П. -> "Математические методы обработки экспериментальных данных в экономике" -> 27

Математические методы обработки экспериментальных данных в экономике - Чураков Е.П.

Чураков Е.П. Математические методы обработки экспериментальных данных в экономике — М.: Финансы и статистика, 2004. — 240 c.
ISBN 5-279-02745-6
Скачать (прямая ссылка): matematicheskiemetodiobrabotki2004.pdf
Предыдущая << 1 .. 21 22 23 24 25 26 < 27 > 28 29 30 31 32 33 .. 73 >> Следующая

= «(II li®-O.sjQfe + Ti»'4')»'4^ I-
О
= М{\\\(Ет+ї -O,5Q(0 + ))ц(Л)сіу II.
О
Из этого соотношения следует
М||ц<‘+|)|1||<0),1*<",йв...P»|S
<М() II 0,5Q(e -t- Y|i<jt)) IIdy} II II-
0
Пусть выполняется условие
maxM{||fOT+I-O,5Q(0)||}<l, (2-73)
в
т.е. наибольшее значение математического ожидания нормы случайной матрицы Ет+j — 0,5Q(0) меньше единицы. Тогда
84
Л/{||ц№+1)|||ц(0), ц(|), ц(2),< ||ц<*>||
или же где V^k) = ||ц(/:)||. Из
последнего неравенства следует, что последовательность И0), К(1), V(2\ ... образует супермартингал. Но тогда последовательность ц<°>, ц(2), ...в силу утверждения (2.13) оказывается схо-
дящейся с вероятностью 1. Следовательно, условие (2.73) является достаточным для того, чтобы последовательность приближений в(0\в(^, 0(2\ ..., вычисляемых по правилу (2.71), при любом векторе наблюдений у, удовлетворяющем определению (2.67), с вероятностью 1 сходилась к стационарной точке 0. Практическая проверка этих условий требует дополнительных усилий.
Рассмотрим ряд частных случаев. Пусть функция Т(0) является линейной: Т(0) = ?0, ? є R"x(m+1). Тогда О(в) = -?-(V0) = V,
U0
V/ = -2?тО>-?0), Q = -^((2)TZ)r1A/) = 2EOT+1 и условие (2.73) вырождается в тривиальное гпахЛ/{||0(т+1)Х(от+1) [|}<1, где
О
0(от+1)х(от+1)— нулевая квадратная матрица, т.е. алгоритм (2.71) устойчив при любой матрице ? и любой начальной точке 0(О). Природа этого результата совершенно очевидна: из (2.71) в этом случае уже при к = 1 следует 0(|) = 0(О) + ('FT'F)~1'FT(y — 'F0(O)) = _ (YTY) — 0, т.е. алгоритм (2.71) при линейной модели наблюдений за одну итерацию определяет МНК-оценку, что и отражается в тривиальности условий сходимости.
Пусть теперь с целью уменьшения вычислительных затрат в алгоритме (2.71) используется постоянная матрица весовых коэффициентов, т.е. положим 0,5((D^)TD^)~l = G = const, где G — некоторая положительно определенная постоянная матрица. Пусть, как и выше, функция Т(0) = ?0, т.е. является линейной. В этом случае Q = 4G'FT'F и условия (2.73) приобретают форму неравенства
ma.xM{\\Em+l -2GVTV||H?*+1 -2C«PTV||<1,
Є
т.е. сводятся к ограничению на норму стационарной матрицы. Если это условие выполняется, алгоритм (2.71) сходится при лю-
85
бом начальном условии 0(О) и любом векторе наблюдений у, соответствующем модели (2.4). Известно [26], что при любой норме квадратной матрицы С справедливо неравенство ||С||>шах|Л.у |,
где Xj, у'=1,2,... — собственные числа матрицы С. Но тогда условия сходимости алгоритма (2.71) при постоянной матрице весовых коэффициентов и линейной модели наблюдений можно сформулировать так: для того, чтобы в указанных условиях алгоритм (2.71) сходился с вероятностью 1 при любых начальных условиях 0* * (в таком случае говорят о сходимости в целом), достаточно, чтобы собственные числа матрицы Ет+\—2 G'FT'F по абсолютному значению были меньше единицы. Можно показать, что эти достаточные условия в данном случае являются и необходимыми. Действительно, положив в (2.71) 0,5((D(k^)TD^)~l = G, V/(0(^) = —2'FT(y — Тв^), запишем алгоритм (2.71) в форме
0(А+1) = (Ет+1 - 2GVT'?)e{k) +2G?ry.
Это соотношение представляет собой линейное неоднородное разностное уравнение, для устойчивости решений которого, как известно (например, [10]), необходимо и достаточно, чтобы собственные числа матрицы Ет+\ — 2G'FT'F по абсолютным значениям были меньше единицы. Легко найти установившееся значение 0 решения этого уравнения. В случае сходимости должно выполняться равенство
0 = (Ет+і - 2<?ГТ'Г)0 + 2(7?Ту => G'FT'F0 =
= G4?ry =>в = ('FT'Fr1'FTy,
т.е. установившимся значением по-прежнему оказывается МНК-оценка.
2.4. Максимально правдоподобные оценки регрессионных параметров
Большим достоинством метода наименьших квадратов, в значительной степени определившим его широкое применение в эконометрических приложениях, являются ограниченные «претензии» к объему априорной информации. По существу, эта информация ограничивается моделью экспериментальных данных и
86
предположением о центрированности и некоррелированности ошибок эксперимента. Вместе с тем если исследователь располагает большим объемом априорных сведений о переменных, участвующих в постановке проблемы, их нужно пытаться рационально использовать в надежде добиться более высоких по точности результатов, нежели это регламентировано методом наименьших квадратов. Одним из источников потенциального прогресса может явиться более глубокое проникновение в природу влияния латентных переменных и измерительных технологий на эндогенную переменную. Если соответствующий анализ покажет, что вектор є, участвующий в формировании апостериорных данных, не является гауссовским или является гауссовским, но с коррелированными компонентами, имеет смысл методу наименьших квадратов предпочесть нечто иное, способное использовать выявленные особенности экспериментальных ошибок. Методом, рационально учитывающим априорную информацию об ошибках эксперимента в предположении, что регрессионные параметры по-прежнему классифицируются как неизвестные, является метод максимального правдоподобия.
Предыдущая << 1 .. 21 22 23 24 25 26 < 27 > 28 29 30 31 32 33 .. 73 >> Следующая
Реклама
Авторские права © 2009 AdsNet. Все права защищены.
Rambler's Top100