Пособие состоит из двух самостоятельных разделов

Вид материалаДокументы

Содержание


Регрессия с ошибками во всех переменных
Подобный материал:
1   ...   14   15   16   17   18   19   20   21   22

Регрессия с ошибками во всех переменных


В классической регрессионной модели ошибка содержится в единственной переменной — той, которая стоит в левой части (зависимой переменной). Рассмотрим более общий случай.

Пусть имеется матрица ненаблюдаемых исходных переменных X = (X1,..., XM), X = {Xij }, i = 1, ..., N, j = 1, ..., M. Эти переменные связаны между собой линейной зависимостью: X = 0. Требуется оценить коэффициенты . Наблюдаются только переменные Y, которые представляют собой переменные X измеренные с ошибками:

Yj = Xj + j.

Предполагается, что ошибки некоррелированы для разных номеров наблюдений, но ошибки, относящиеся к наблюдениям с одним и тем же номером i коррелированы, причем матрица ковариаций  точно известна. Для того, чтобы можно было воспользоваться методом максимального правдоподобия, делаем предположение, что ошибки распределены нормально.

Логарифмическая функция правдоподобия равна

 = – ln || –  EiEi T+ const  max X,

где Ei = Yj Xji-я строка матрицы остатков.

Максимизируем функцию правдоподобия при ограничении X = 0.

Задачу максимизации можно записать с помощью лагранжиана:

L = – Tr((Y X) (Y X)T) – TX =

= – Tr(Y Y T) + Tr(X Y T) – Tr(X X T) – TX.

= Y T – X T T = 0.

Используем

= B = 2BAT = yxT.


Отсюда получим выражение для X:

X = Y  T.

Если домножить это уравнение на и вспомнить, что X = 0, то

Y =  T ,  = Y.

Подставим эти соотношения в функцию правдоподобия и получим концентрированную функцию правдоподобия (“концентрированный лагранжиан”):

 = – Tr( T  T) = – Tr(T  T ) = – T  T  =

= –

Таким образом, нахождение максимума правдоподобия равносильно минимизации следующей функции:

=  min

Условие первого порядка для минимума:

= 2 Y TY – 2   = 0

 (Y TY – ) = 0

или (Y TY –) = (Y TY) = 0.

Таким образом, должно быть собственным числом матрицы Y TY, а — ее собственным вектором. Проверим, что эти два условия не противоречат друг другу. Пусть k — некоторый собственный вектор, k — соответствующее собственное число этой матрицы:

(Y TY k) k = 0.

Покажем, что k = .

Домножим слева на kT:

kTY TY k k  kT   k = 0.

Отсюда получаем требуемое равенство.

Поскольку требуется минимизировать , то нужно выбрать минимальное собственное число min. Оценкой вектора коэффициентов будет соответствующий собственный вектор min. Отсюда получаем оценки для матрицы исходных переменных X:

X = Y  T = Y Y  T = Y(I   T).

В частном случае, когда ошибка имеется только в первой переменной

 = .

Нужно минимизировать величину

= = (Y1 + Y(1) (1))T(Y1 + Y(1) (1)).

где Y(1) — матрица Y без первого столбца, (1) — вектор без первого элемента. Если обозначить = Y1, = Y(1), = (1) то получим ОМНК:

( – )T( – )  min