Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы

Содержание


Якобиан преобразования плотности распределения в функции правдоподобия
Преобразование зависимой переменной. Модель Бокса-Кокса
Подобный материал:
1   ...   14   15   16   17   18   19   20   21   22

Якобиан преобразования плотности распределения в функции правдоподобия

Функция правдоподобия модели типа = f (Y, 1)


Рассмотрим модель по отношению к которой регрессия является частным случаем:

= f (Y, 1).

Здесь Y — зависимая переменная, — ошибка, причем Y и — вектора-столбцы одинаковой размерности. “Независимые переменные” (рег­рес­со­ры) X неявно содержатся в функции f (.).  1 — неизвестные параметры. Обозначаем их  1, а не  , потому что распределение ошибок само может зависеть от вектора неизвестных параметров ( 2), так что

  = .

В частном случае линейной регрессии

f (Y, 1)  Y X,  1,  2 2.

Как правило, при построении эконометрической модели делают предположение о распределении ошибки, а уже из распределения ошибки выводят распределение зависимой переменной. Таким образом, задача состоит в том, чтобы из плотности распределения получить плотность распределения Y (если мы имеем дело с непрерывным распределением).

Плотности распределения связаны между собой соотношением:

pY(Y, ) = p( f (Y, 1), 2) abs |J( 1)|,

где J( 1) — матрица Якоби (якобиан), соответствующий преобразованию Y в  :

J( 1) = = {}il

— матрица первых производных f  по Y. В выражении для плотности здесь стоит модуль определителя якобиана.

Функция правдоподобия — это по определению плотность распределения Y. Таким образом, логарифмическая функция правдоподобия равна

 = ln p( f (Y, 1), 2) + ln abs |J( 1)|.

Будем второе слагаемое здесь называть якобианным членом. Якобианный член уже присутствовал в логарифмических функциях правдоподобия, которые мы рассматривали выше (см. напр. регрессии с автокоррелированными ошибками). В модели с AR(1)-ошибкой  i =   i–1 +  i, где  i = Yi Xi . Выразим через Y:

fi(Y, 1) =  i = (Yi X i ) –  (Yi–1 Xi–1 ), i =1,...,N.

f1(Y, 1) = (Y1 X1).

Здесь  1  . f1(Y, 1) определена таким образом, чтобы все элементы f имели одинаковую дисперсию. Для этой модели

J( 1) = = , abs |J( 1)| = .

Преобразование зависимой переменной. Модель Бокса-Кокса


В частном случае рассмотренной модели  1 состоит из и и

fi (Yi, 1) = hi(Yi,) – Xi().

Модель является квазирегрессионной. Здесь X() — матрица “рег­рес­со­ров”, — вектор регрессионных коэффициентов. Якобиан J = = зависит только от параметров и является диагональной матрицей.

Такая модель возникает из регрессии, если применить к зависимой переменной преобразование, зависящее от оцениваемых параметров.

Пусть ошибки нормально распределены  i~N(0, 2) и некоррелированы.

p(z) = (2 2) exp(–  zTz).

Логарифмическая функция правдоподобия для такой модели:

 = ln p( f (Y, 1), 2) + ln abs |J( 1)| =

= – ln(2 2) –   f Tf  + ln abs |  | =

= – ln(2 2) –   (h(Y,) – X())2 + ln abs (  ).

Самое популярное преобразование зависимой переменной — это преобразование Бокса-Кокса:

h(Yi,) = .

В общем случае его можно применять при положительных Yi.

Если   0, то  lnYi, поэтому берут h(Y,0) = lnY.

Таким образом, имеем следующую простейшую модель Бокса-Кокса3:

 = Xi  + i .

Здесь регрессоры X детерминированы и не зависят от неизвестных параметров.

Якобиан равен

J = .

Функция правдоподобия для модели Бокса-Кокса равна

 = – ln(2 2) –   ( – X  )2 – (1   )  lnYi.

Концентрируя функцию правдоподобия по  2, получим

 = – ln(2 ) – – (1   )  lnYi.

Обозначим среднее геометрическое Yi:

= (iYi).

Тогда  = – ln(RSS) – N (1   ) ln  + const.

Максимизация  эквивалентна минимизации следующей суммы квадратов:

( ( – X )).

Можно предложить два метода оценивания.

Первый метод заключается в одномерной минимизации по , поскольку при фиксированном задача сводится к ОМНК. Строим регрессию (Y – 1)/  по X.

Второй метод заключается в использовании нелинейного МНК, в котором зависимой переменной является вектор, состоящий из нулей, а в правой части стоит ((Y – 1)/ X  ).

В обоих случаях мы найдем МП-оценки, но не найдем состоятельную оценку матрицы ковариаций оценок (ко­ва­ри­аци­он­ные матрицы из этих вспомогательных регрессий не годятся).