- •Оглавление
- •Тема 0. Введение (группа 3.3б) 4
- •Тема 1. Парная регрессия (группа 3.5а) 23
- •Тема 2. Множественная регрессия (группа 3.5б) 51
- •Тема 3. Нелинейная регрессия (группа 3.3а) 70
- •Тема 4. Системы регрессионных уравнений (группа 3.3б) 91
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ) 102 Тема 0. Введение (группа 3.3б)
- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4. Элементы математической статистики
- •0.4.1.Оценивание «хороших» свойств оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •Тема 1. Парная регрессия (группа 3.5а)
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.2.2.Проверка гипотез относительно параметров ру
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •Тема 2. Множественная регрессия (группа 3.5б)
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •3) Коэффициент эластичности
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •Тема 3. Нелинейная регрессия (группа 3.3а)
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1.Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •Тема 4. Системы регрессионных уравнений (группа 3.3б)
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •Тема 5. Прогнозирование временных рядов (группа 3.7ммэ)
1.1.5 Смысл коэффициента регрессии
Коэффициент регрессии показывает прирост зависимой переменной, приходящийся на единицу прироста независимой переменной.
Если знак положительный, то между и прямая связь;
Если отрицательный, то связь обратная.
Свободный член регрессии а показывает величину зависимой переменной при условии, что независимая переменная равен 0.
Коэффициент n свободный член регрессии является размерным величинами, их абсолютная величина зависит от единиц измерения зависимой и независимой переменной.
1.2 Проверка адекватности ру
Адекватность регрессионного процесса - соответствие его реальному моделируемому процессу, т.е достоверности параметров.
Адекватность исследуется с нескольких позиций:
Анализируется показатели качества подгонки регрессионного уравнения;
Проверяются гипотезы относительно параметров регрессионного уравнения;
Проверяется выполнение условий для получения «хороших» оценок методом наименьших квадратов (МНК);
Производится содержательный анализ регрессионного уравнения.
1.2.1 Показатели качества подгонки
Отражают соответствие расчетных значений зависимой переменной y^ ее фактическими значениями. Эти показатели основываются на расчете суммы квадратов разности между фактическими и расчетными значениями зависимой переменной
Первый из таких показателей - остаточная дисперсия. Для однофакторного уравнения она вычисляется по формуле:
,
n - количество наблюдений
Чем меньше остаточная дисперсия 2, тем лучше качество подгонки регрессионного уравнения. Но остаточная дисперсия является величиной размерной, поэтому сопоставления регрессионных уравнений, отражающих переменные, имеющих различные единицы измерения, невозможно.
Показателем, на основе которого возможно сопоставление различных уравнений является коэффициент детерминации R2
где - среднее значение переменной y.
Коэффициент детерминации принимает значения от 0 до 1.Чем ближе R2 к 1, тем лучше качество подгонки регрессионного уравнения.
Это обстоятельство связано с тем, что R2 приближается к 1при приближение вычитаемой дроби к 0 .Указанная дробь приближается к 0 при приближении числителя к 0, т.е. при небольших отклонениях расчетных значений зависимости.
Показателями связи, выраженным в процентах, является коэффициент эластичности.
При линейной связи X и Y средний коэффициент эластичности по совокупности определяется как
Несмотря на схожесть показателей коэффициента корреляции и коэффициента эластичности, назначение их различно: коэффициент корреляции определяет тесноту связи и является относительным ее показателем, т.е. вычисляется в процентах.
1.2.2.Проверка гипотез относительно параметров ру
См. копии лекций Уразаевой
1.3 Предпосылки мнк (ls)
МНК позволяет получить такие оценки параметров а и b, которых сумма квадратов отклонений фактических значений результативного признака (у) от расчетных (теоретических) минимальна:
Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной. Решается система нормальных уравнений
При оценке параметров уравнения регрессии применяется МНК. При этом делаются определенные предпосылки относительно составляющей, которая представляет собой ненаблюдаемую величину.
Исследования остатков - предполагают проверку наличия следующих пяти предпосылок МНК:
1.случайный характер остатков;
2.нулевая средняя величина остатков, не зависящая от хj;
3.гомоскедастичность—дисперсия каждого отклонения, одинакова для всех значений х;
4.отсутствие автокорреляции остатков. Значения остатков, распределены независимо друг от друга;
5.остатки подчиняются нормальному распределению.
1. Проверяется случайный характер остатков, с этой целью строится
график зависимости остатков от теоретических значений результативного признака. Если на графике получена горизонтальная полоса, то остатки, представляют собой случайные величины и МНК оправдан, теоретические значения ух хорошо аппроксимируют фактические значения y. В других случаях необходимо либо применять другую функцию, либо вводить дополнительную информацию и заново строить уравнение регрессии до тех пор, пока остатки, не будут случайными величинами.
2. Вторая предпосылка МНК относительно нулевой средней величины остатков означает, что (у — ух) = 0. Это выполнимо для линейных моделей и моделей, нелинейных относительно включаемых переменных. С этой целью наряду с изложенным графиком зависимости остатков от теоретических значений результативного признака ух строится график зависимости случайных остатков от факторов, включенных в регрессию хj . Если остатки на графике расположены в виде горизонтальной полосы, то они независимы от значений xj. Если же график показывает наличие зависимости и хj то модель неадекватна. Причины неадекватности могут быть разные.
3. В соответствии с третьей предпосылкой МНК требуется, чтобы дисперсия остатков была гомоскедастичной. Это значит, что для каждого значения фактора xj остатки, имеют одинаковую дисперсию. Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно видеть из поля корреляции.
Гомоскедастичность остатков означает, что дисперсия остатков одинакова для каждого значения х.
4.Отсутствие автокорреляции остатков, т. е. значения остатков распределены независимо друг от друга. Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. Отсутствие автокорреляции остаточных величин обеспечивает состоятельность и эффективность оценок коэффициентов регрессии.