Информационный сайт

 

Реклама
bulletinsite.net -> Книги на сайте -> Бизнесмену -> Чураков Е.П. -> "Математические методы обработки экспериментальных данных в экономике" -> 44

Математические методы обработки экспериментальных данных в экономике - Чураков Е.П.

Чураков Е.П. Математические методы обработки экспериментальных данных в экономике — М.: Финансы и статистика, 2004. — 240 c.
ISBN 5-279-02745-6
Скачать (прямая ссылка): matematicheskiemetodiobrabotki2004.pdf
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 73 >> Следующая

Рис. 3.1. Результат машинного вычисления весовых коэффициентов локального сглаживания
139
ду, что эффективность локального сглаживания возрастает с увеличением т и падает с ростом п. При практических расчетах целесообразно ограничиваться п < 2 и т < 4. Дополнительно обратим внимание на то, что при изложенной организации локального сглаживания несглаженными оказываются первые и последние т элементов исходного временного ряда. Этот недостаток можно устранить, применив на этих участках алгоритмы типа рекуррентного метода наименьших квадратов.
3.4. Линейное прогнозирование структурно детерминированных рядов
Приступим теперь к рассмотрению одного из наиболее важных вопросов анализа временных рядов — прогнозированию их последующих значений по результатам наблюдения за ними на некотором фиксированном отрезке времени. Итак, полагаем, что в нашем распоряжении имеются N наблюдений, математически отображаемых моделями (3.1), (3.2). Базисные функции ф^?,), к = О, 1,..., q,i— 1,2,..., N, выбраны или в классе полиномиальных функций, или в более широком классе ортогональных функций. Ряд может быть подвергнут локальному сглаживанию, но мы сохраняем исходные обозначения (3.1). Задача, как уже отмечалось, заключается в поиске наилучшей в некотором смысле оценки ?т ненаблюдаемой величины ут, т > N, по результатам наблюдений у= [У\У2 ••• »]Т-
Прогнозированное значение ряда ут будем искать в классе линейных операторов, позволяющем представить
Ym=WTy, (3.66)
где W — пока неизвестный вектор весовых коэффициентов. Этот вектор попытаемся найти таким образом, чтобы точность прогнозирования, понимаемая в далее определяемом смысле, оказалась наивысшей. Чтобы конкретизировать содержание последней фразы, обозначим символом
Л =Ут-Ут (3.67)
ошибку прогнозирования и более детально изучим ее структуру. Для этого удобно вектор наблюдений у в соответствии с (3.1),
(3.2) представить в матрично-векторной форме
140
где
у = Фа + р,
(3.68)
Фо('і) Фі('і) • •• ф*(/і) «0 Ро
ф = Фо('2> Фі(*2) • •• Ф*(*2> , о = «1 , р = Рі
-6 О Фі(Ov) • •• Ф?0лг)_ _ая_ _PN_
Тогда
1\—Ут— №Т(Фа + р)-
Теперь сделаем важное допущение: будем полагать, что модель тренда (3.2), введенная выше на отрезке [/j, /дг], справедлива и на множестве [/ь tm]. Это позволяет представить
Ут = ФтТв + Pm,
где
ФтТ = (Фо(^т) <?lUm) - Ф?('т)]-
С использованием этого допущения записываем
Л = (ФтТ- Wy<b)a + pm-wyp. (3.69)
Из (3.69) следует, что ошибка прогнозирования содержит детерминированную и стохастическую составляющие. Первая из них определяет среднее значение ошибки прогнозирования и, так как вектор а неизвестен, также является величиной неизвестной. Так как вектор Wпока не найден, потребуем
Фт-Фт^=0, (3.70)
где 0 — нулевой (q + 1)-вектор. Соотношение (3.70) обеспечивает равенство М{г\} = 0 и, следовательно, является условием несмещенности. Относительно компонентов вектора W оно представляет собой систему линейных алгебраических уравнений, содержащую q + 1 уравнений с 7V неизвестными. Так как q + 1 < N, то при выполнении условий совместности Кронекера—Капелли система оказывается неопределенной, т.е. имеет бесконечное число решений. Для поиска конкретного решения следует задать до-
141
полнительное условие, которому это решение должно удовлетворять. За таковое примем следующее.
Если выполняется (3.70), то ошибка прогнозирования (3.69) содержит только случайную составляющую. В этом случае точность прогнозирования можно характеризовать дисперсией ошибки прогнозирования D{r|} = М{х|2}, и точность прогнозирования окажется наивысшей, если вектор W9 помимо выполнения условий (3.70), обеспечит минимальное значение дисперсии /){г|}. В результате приходим к следующей оптимизационной задаче поиска вектора W:
Л/{г)2} = ст2(1 + —» min , (3.71)
lVeXcKN
Х= {fffeRN: <рт~ФтУУ= 0}. (3.72)
Смысл задачи (3.71), (3.72), таким образом, следующий: на множестве решений системы (3.70) найти то, которое минимизирует дисперсию ошибки прогнозирования. Подобная задача встречалась ранее при доказательстве теоремы Маркова и, как отмечалось, решается методом неопределенных множителей Лагранжа. Поэтому, не прибегая к подробным комментариям, ограничимся основными этапами решения.
Функция Лагранжа
Ц W, X) = a2WTW+ 2Хт(фт - Фт№).
Необходимые условия рассматриваемого условного минимума o2W-ФХ = 0N, <pm - ФТ\У= о,+1.
Решение:
W= Ф(ФтФ)-1фт. (3.73)
Алгоритм прогнозирования:
Ym = Wry = фтт(ФтФ)-,Фт^. (3.74)
Таким образом, наилучшее линейное прогнозирование временного ряда в сформулированных условиях заключается в линейном преобразовании вектора наблюдений ^ линейным опера-
142
тором, отождествляемым с вектором (3.73). Легко обнаружить, что сомножитель (ФТФ)_1ФТ^ в (3.74) представляет собой не что иное, как МНК-оценку а вектора параметров а, найденную по наблюдениям у. Поэтому кратко можно записать: Ym = <ртта. Точность оптимального прогнозирования определяется минимальным значением дисперсии (3.71), которая в случае (3.73) оказывается равной
ст„2 = min М{ л2} = ст2(1 + 9*T(®T®r Ч,). (3.75)
Предыдущая << 1 .. 38 39 40 41 42 43 < 44 > 45 46 47 48 49 50 .. 73 >> Следующая
Реклама
Авторские права © 2009 AdsNet. Все права защищены.
Rambler's Top100