- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
Тема 2. Множественная регрессия (группа 3.5б)
2.1 Множественная линейная регрессия
2.1.1. Основные понятия
Изменения экономических показателей, как правило, обусловлены большим количеством факторов. В этом случае применяют многофакторное уравнение регрессии. Общий вид:
где
у – зависимые переменные;
x1, …, xp – независимые переменные(объясняющие факторы).
Рассмотрим случай линейной многофакторной регрессии:
(1.1),где
у – зависимая переменная;
хj, ( ) – j-й фактор уравнения (1.1),
b0 – свободный член уравнения
bj – коэффициент регрессии при j-том факторе. Он показывает изменения зависимой переменной у с изменением соответствующего фактора на единицу при условии, что остальные факторы остаются неизменными (фиксированными).
εi – ошибки (случайная компонента)
В матричной форме многогранное регрессионное уравнение записывается так:
(1.2) где
у - случайная вероятность значимой переменной
X – матрица размерности
, где
i – параметр наблюдения
j – параметр фактора
;
2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
Коэффициенты регрессии многофакторной модели имеют следующий экономический смысл: прирост результата (y), приходящийся на единицу прироста j-го фактора при фиксированном значении других факторов.
В большинстве случаев компоненты множественной регрессии оцениваются с помощью МНК.
Для определения параметров множественной регрессии (1.1) с p факторами решают систему из (p+1) уравнений с (p+1) неизвестными.
З апишем минимизируемый функционал в матричной форме min
Дифференцируя данный функционал по , получаем систему обычных линейных уравнений
Оценки вектора b (значения коэффициентов регрессии) находятся по формулам
, где
XT – транспонированная матрица
(XTX)-1 – обратная матрица к матрице XT*X
y = b0+b1x1+b2x2+ε – рассмотрим двухфакторное уравнение
min
Дифференцируем по b0, b1, b2
Разрешая систему относительно b0, b1, b2, получаем значения для определения коэффициентов b0, b1, b2.
Для оценки параметров уравнения множественной регрессий применяют метод наименьших квадратов (МНК). Для линейных уравнений y a b1x1b2x2 bmxm строится следующая система нормальных уравнений, решение которой позволяет получить оценки параметров регрессии:
Метод наименьших квадратов применим и к уравнению множественной регрессии в стандартизированном масштабе: ty=β1tx1 +β2tx2+…+βmtxm+ε
Применяя МНК к уравнению множественной регрессии в стандартизированном масштабе, получим систему нормальных уравнений вида.
Средние коэффициенты эластичности для линейной регрессии рассчитываются по формуле
которые показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.
2.2.Проверка адекватности уравнений линейной множественной регрессии
2.2.1. Проверка качества подборки мнк.
Качество множественной регрессии проверяют на основе следующих критериев:
1) Остаточная дисперсия: чем меньше остаточная дисперсия, тем лучше качество подгонки.
(2.1.), где
yi – фактические значения зависимой переменной
– расчетные значения
n – количество наблюдений
p – количество факторов
2) Коэффициент детерминации
Введение в уравнение дополнительных факторов увеличивает коэффициент детерминации. Поэтому для многофакторной регрессии рассчитывают скорректированных коэффициент детерминации:
(2.2), где
n – количество наблюдений
p – количество факторов