- •1.2. Типы моделей
- •1.3. Типы данных
- •1.4. История
- •1.5. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •2. Парная регрессия и корреляция. Свойства коэффициентов регрессии и проверка гипотез
- •2.1. Задачи корреляционно-регрессивного анализа
- •Содержательный характер задач корреляционно-регрессивного метода
- •2.2. Вычисление и интерпретация параметров парной линейной корреляции
- •2.3. Статистическая оценка надёжности параметров парной корреляции
- •2.4. Применение парного линейного уравнения регрессии
- •Коэффициент корреляции рангов
- •2.5. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •3. Множественная регрессия
- •3.1. Формулы для коэффициентов и стандартных ошибок
- •3.2. Множественная регрессия и оценка параметров Кобба-Дугласа
- •3.3. Мультиколлинеарность
- •3.4. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •4. Выбор уравнения
- •4.1. Влияние отсутствия необходимой переменной
- •4.2. Лишняя переменная
- •4.3. Замещающие переменные
- •4.4. Лаговые переменные
- •4.5. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •5. Фиктивные переменные
- •5.1. Фиктивные и нефиктивные переменные в регрессии
- •5.2. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •6. Гетероскедастичность
- •6.1. Коэффициент ранговой корреляции Спирмена (кркс)
- •6.2. Тест Голдфелда-Куандта
- •6.3. Тест Глейзера
- •6.4. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •7. Автокорреляция
- •7.1. Поправка Прайса–Уинстена
- •7.2. Процедура Кохрана–Оркатта
- •7.3. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •8. Модели временных рядов
- •8.1. Модели рядов, содержащих сезонную компоненту
- •Ответы к тесту:
- •9. Автоковариационная и автокорреляционная функции, их свойства. Коррелограмма
- •9.1. Спектральная плотность
- •9.2. Спектральный (Фурье) анализ
- •9.3. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •10. Неслучайная составляющая временного ряда
- •10.1. Проверка гипотезы о неизменности среднего значения временного ряда
- •10.2. Метод экспоненциально взвешенного скользящего среднего (метод Брауна [Brown (1963)])
- •10.3. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •11. Стационарные временные ряды и их идентификация
- •11.1. Основные понятия
- •11.2 Модели скользящего среднего сс(1) и сс(2). Двойственность. Обратимость. Идентификация
- •11.3. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •12. Лаговые переменные. Нестационарные временные ряды и их идентификация
- •12.1. Модель авторегрессии-проинтегрированного скользящего среднего (arima(p, k, q)-модель)
- •12.2. Модели рядов, содержащих сезонную компоненту
- •12.3. Полиномиальная лаговая структура Ширли Алмон
- •12.4. Геометрическая лаговая структура Койка
- •12.5. Модель частичного приспособления
- •12.6. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •13. Предсказания
- •13.1 Основные понятия
- •13.2. Доверительные интервалы и интервалы предсказания
- •13.3. Критерий г. Чоу
- •13.4. Коэффициент Тейла
- •13.5. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •14. Модели в виде систем линейных одновременных уравнений и их идентификация
- •14.1. Основные понятия
- •14.2. Тестовые задания для самостоятельной работы
- •Ответы к тесту:
- •14.3. Использование эконометрической модели при исследовании зависимости затрат от объёма производства и структуры продукции на примере конкретного предприятия
- •Расчетное задание 1 «Построение уравнений парной регрессии и оценка их значимости»
- •Варианты лабораторных задач Задание
- •Расчетное задание 2. «Построение уравнений линейной множественной регрессии и оценка его значимости» Задача
- •Варианты лабораторных задач
- •Глоссарий
- •Библиографисеский список
- •Оглавление
- •1.1.Модели 3
- •10.1. Проверка гипотезы о неизменности среднего значения временного ряда 88
- •Эконометрика Учебное пособие
3.1. Формулы для коэффициентов и стандартных ошибок
Обобщением линейной регрессионной модели с двумя переменными является многомерная регрессионная модель (или модель множественной регрессии). Пусть n раз измерены значения факторов x1 , x2 , ..., xk и соответствующие значения переменной y; предполагается, что
yi = b o + b 1xi1 + ... + b k xik+ e i , i = 1, ..., n, (3.1)
(второй индекс у х относится к номеру фактора, а первый – к номеру наблюдения); предполагается также, что
Me i = 0,
M(e i e j) = 0, i не равно j, (3.2)
т.е. ei – некоррелированные случайные величины. Соотношения (1) удобно записывать в матричной форме:
Y = Xb +e , (3.3)
где Y = (y1, ..., yk)T – вектор-столбец значений зависимой переменной,
Т – символ транспонирования,
b = (b0, b1, ..., bk)T – вектор-столбец (размерности k) неизвестных коэффициентов регрессии,
e = (e1, ..., en)T – вектор случайных отклонений,
– матрица n x (k + 1); в i-й строке (1, xi1, ...,xik) находятся значения независимых переменных в i-м наблюдении первая переменная – константа, равная 1.
Оценка коэффициентов регрессии. Построим оценку для вектора так, чтобы вектор оценок = Х зависимой переменной минимально (в смысле квадрата нормы разности) отличался от вектора Y заданных значений:
Решением является (если ранг матрицы Х равен k +1) оценка
= (XTX)-1 XTY (3.4)
Нетрудно проверить, что она несмещенная. Ковариационная (дисперсионная) матрица равна
s2 (XTX) = Z , (3.5)
где обозначено Z = (XTX) .
Справедлива теорема Гаусса – Маркова. В условиях (3.2) оценка (3.4) является наилучшей (в смысле минимума дисперсии) оценкой в классе линейных несмещенных оценок.
Оценка дисперсии s2 ошибок. Обозначим
e = Y – = Y – Х = [I – X (XTX) XT] Y = BY (3.6)
– вектор остатков (или невязок); B = I – X (XTX) XT – матрица.
Для остаточной суммы квадратов справедливо соотношение M = M (n – k -1) s2 , откуда следует, что несмещенной оценкой для s2 является (3.7)
Если предположить, что ei в (2) нормально распределены, то справедливы следующие свойства оценок:
1) (n – k – 1) имеет распределение хи квадрат с (n-k-1) степенями свободы;
2) оценки и s2 независимы.
Как и в случае простой регрессии, справедливо соотношение:
или Tss = Ess + Rss (3.8)
в векторном виде: , где .
Поделив обе части на полную вариацию y:
Tss = , получим коэффициент детерминации
(3.9)
Коэффициент R2 показывает качество подгонки регрессионной модели к наблюдённым значениям yi. Если R2 = 0, то регрессия Y на x1 , ..., xk не улучшает качество предсказания yi по сравнению с тривиальным предсказанием . Другой крайний случай R2 = 1 означает точную подгонку: все ei = 0, т.е. все точки наблюдений лежат на регрессионной плоскости. Однако, значение R2 возрастает с ростом числа переменных (регрессоров) в регрессии, что не означает улучшения качества предсказания, и потому вводится скорректированный (adjusted) коэффициент детерминации
(3.10)
Его использование более корректно для сравнения регрессий при изменении числа переменных (регрессоров).