Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Эконометрика-методичка для заочников.doc
Скачиваний:
76
Добавлен:
18.11.2019
Размер:
5.91 Mб
Скачать

3.1. Формулы для коэффициентов и стандартных ошибок

Обобщением линейной регрессионной модели с двумя переменными является многомерная регрессионная модель (или модель множественной регрессии). Пусть n раз измерены значения факторов x1 , x2 , ..., xk и соответствующие значения переменной y; предполагается, что

yi = b o + b 1xi1 + ... + b k xik+ e i , i = 1, ..., n, (3.1)

(второй индекс у х относится к номеру фактора, а первый – к номеру наблюдения); предполагается также, что

Me i = 0,

M(e i e j) = 0, i не равно j,   (3.2)

т.е. ei – некоррелированные случайные величины. Соотношения (1) удобно записывать в матричной форме:

Y = Xb +e , (3.3)

где Y = (y1, ..., yk)T – вектор-столбец значений зависимой переменной,

Т – символ транспонирования,

b = (b0, b1, ..., bk)T – вектор-столбец (размерности k) неизвестных коэффициентов регрессии,

e = (e1, ..., en)T – вектор случайных отклонений,

– матрица n x (k + 1); в i-й строке (1, xi1, ...,xik) находятся значения независимых переменных в i-м наблюдении первая переменная – константа, равная 1.

Оценка коэффициентов регрессии. Построим оценку для вектора  так, чтобы вектор оценок = Х зависимой переменной минимально (в смысле квадрата нормы разности) отличался от вектора Y заданных значений:

Решением является (если ранг матрицы Х равен k +1) оценка

= (XTX)-1 XTY (3.4)

Нетрудно проверить, что она несмещенная. Ковариационная (дисперсионная) матрица равна

s2 (XTX) = Z , (3.5)

где обозначено Z = (XTX) .

Справедлива теорема Гаусса – Маркова. В условиях (3.2) оценка (3.4) является наилучшей (в смысле минимума дисперсии) оценкой в классе линейных несмещенных оценок.

Оценка дисперсии s2 ошибок. Обозначим

e = Y – = Y – Х = [I – X (XTX) XT] Y = BY (3.6)

– вектор остатков (или невязок); B = I – X (XTX) XT – матрица.

Для остаточной суммы квадратов справедливо соотношение M = M (n – k -1) s2 , откуда следует, что несмещенной оценкой для s2 является (3.7)

Если предположить, что ei в (2) нормально распределены, то справедливы следующие свойства оценок:

1) (n – k – 1) имеет распределение хи квадрат с (n-k-1) степенями свободы;

2) оценки и s2 независимы.

Как и в случае простой регрессии, справедливо соотношение:

или Tss = Ess + Rss (3.8)

в векторном виде: , где .

Поделив обе части на полную вариацию y:

Tss = , получим коэффициент детерминации

(3.9)

Коэффициент R2 показывает качество подгонки регрессионной модели к наблюдённым значениям yi. Если R2 = 0, то регрессия Y на x1 , ..., xk не улучшает качество предсказания yi по сравнению с тривиальным предсказанием . Другой крайний случай R2 = 1 означает точную подгонку: все ei = 0, т.е. все точки наблюдений лежат на регрессионной плоскости. Однако, значение R2 возрастает с ростом числа переменных (регрессоров) в регрессии, что не означает улучшения качества предсказания, и потому вводится скорректированный (adjusted) коэффициент детерминации

(3.10)

Его использование более корректно для сравнения регрессий при изменении числа переменных (регрессоров).