Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы

Содержание


Регрессия с MA-ошибкой
Оценивание регрессии с MA-ошибкой нелинейным МНК
Подобный материал:
1   ...   11   12   13   14   15   16   17   18   ...   22

Регрессия с MA-ошибкой

Оценивание регрессия с MA(1)-процессом в ошибке полным методом максимального правдоподобия


Будем рассматривать регрессию Y = X  + с MA(1)-про­цес­сом в ошибке:

 i  i +   i–1  i ~ N(0,  2)

2  var( i)  (1 + 2) 2

Ковариационная матрица ошибок  i имеет вид V( 2, )   2 W().

W  (1 + 2) I + ,

где  .

Симметричную положительно определенную матрицу можно представить в виде W H T H , где H — ортогональная матрица собственных векторов (H T   , а — диагональная матрица, диагональ которой состоит из соответствующих собственных чисел. В данном случае, собственные вектора матрицы W совпадают с собственными векторами матрицы , и поэтому не зависят от . Типичный элемент матрицы H равен

Hkl  sin(  )

Типичный диагональный элемент матрицы (собственное число) равен

k 2 + 2  cos(  ) + 1.

Матрица W такова, что

W  H T H.

Несложно также найти определитель матрицы W:

|W|  .

Обозначим Y *DHY, X *DHX, где D1/2 — диагональная матрица.

Пусть e*() — остатки из вспомогательной регрессии,  () — оценки коэффициентов из этой регрессии. Тогда

(Y X ())T W () (Y X  ()) = e*() Te*().

Концентрированная функция правдоподобия после исключения параметров 2 и приобретет вид

c()  – (ln(1–  2N + 2) – ln(1–  2)) – ln(e*() Te*()) + const.

Остается с помощью одномерного поиска максимизировать концентрированную функцию правдоподобия по на отрезке [, 1]. В максимуме функции правдоподобия можно с ненулевой вероятностью получить  = 1 или   = –1.

Можно предложить и другую вспомогательную регрессию, которая применима и в общем случае MA(l)-процесса. Обозначим = 0. Тогда модель можно преобразовать к виду

0 = – + 0,

Y1 = X1 +   + 1,

Y2 Y1 = (X2X1) + 2,

и так далее для i =3,...,N.

Более компактно это можно записать как уравнение регрессии:

+ + .

Здесь , и имеют по N+1 наблюдению и вычисляются по рекуррентным формулам:

i = Yi  i–1, 0 = 0,

i = Xi  i–1, 0 = 0,

i = –  i–1, 0 = –1.

Пусть () — остатки из вспомогательной регрессии,  () — оценки коэффициентов из этой регрессии. Тогда можно показать, что (Y X  ())TW ()(Y X  ()) = ()T(). Соответственно, концентрированная функция правдоподобия равна

c()  – (ln(1–  2N + 2) – ln(1–  2)) – ln(()T()) + const.

Оценивание регрессии с MA-ошибкой нелинейным МНК


Как и в случае регрессии с AR-процессом, можно получить оценку, которая асимптотически эквивалентна точной оценке максимального правдоподобия, если пренебречь первыми наблюдениями. В данном случае удобно считать, что довыборочные ошибки i (i < 1) равны нулю. При этом из функции правдоподобия исчезает мешающий член –1/2 (ln(1–  2N + 2) – ln(1–  2)), и модель сводится к нелинейной регрессии, которую можно оценить с помощью метода Гаусса-Ньютона. Требуется минимизировать сумму квадратов остатков

i2(, )  min.

Остатки вычисляются рекуррентно по формуле

i (, ) = YiXi  i–1(, ) (0(, ) = 0).

Производные функции i (, ), необходимые для использования метода Гаусса-Ньютона также находятся рекуррентно:

 – Xi   ( = 0).

= –   i–1 ( = 0).