- •0.1. Эконометрика как наука.
- •0.2. История возникновения эконометрики
- •0.3.Элементы теории вероятности.
- •0.3.1. Вероятностные характеристики случайных переменных
- •0.3.2.Законы распределения:
- •0.3.3 Условное математическое ожидание
- •0.4.Элементы математич статистики
- •0.4.1.Оценивание «хороших» св-в оценок
- •1) Состоятельность оценок
- •2) Несмещенность оценок
- •3) Эффективность оценок
- •0.4.2. Проверка гипотез и интервальное оценивание
- •1.1 Определение линейной однофакторной регрессии.
- •1.1.1.Основные понятия регрессионного анализа
- •1.1.2. Линейная однофакторная регрессия
- •1.1.3. Матричная запись линейной регрессии
- •1.1.4 Оценки параметров регрессии
- •1.1.5 Смысл коэффициента регрессии
- •1.2 Проверка адекватности ру
- •1.2.1 Показатели качества подгонки
- •1.3 Предпосылки мнк (ls)
- •1.3.1. Общие положения мнк
- •1.3.2. Выполнение первой предпосылки мнк (случайный характер остатков)
- •1.3.5 Выполнение 4-го условия мнк (отсутствие автокорреляции остатков)
- •1.3.6 Выполнение 5-го условия мнк (нормальность остатков)
- •1.4. Устранение нарушения предпосылок мнк для оценки парной регрессии
- •1.3.4. Выполнение третьей предпосылки мнк (гомоскедастичность остатков)
- •1.4.1. Автокорреляция остатков
- •1.4.2.Гетероскедастичность остатков и избавление от нее
- •1 Подход: преобразование исходных данных
- •2 Подход: применение другого метода оценивания коэф-ов регрессии.
- •3 Подход) включение дисперсии в модель
- •1.4.3. Метод максимального правдоподобия.
- •2.1 Множественная линейная регрессия
- •2.1.1. Основные понятия
- •2.1.2. Методы оценивания коэффициентов линейной многофакторной регрессии.
- •2.2.Проверка адекватности уравнений линейной множественной регрессии
- •2.2.1. Проверка качества подборки мнк.
- •2.2.2.Проверка гипотез для млр
- •2.2.3. Допущение выполнения мнк или получение «хороших» оценок
- •2.3. Мультиколлинеарность факторов
- •2.3.1. Обнаружение мультиколлинеарности
- •2.3.2 Избавление от мультиколлинеарности. Метод главных компонент
- •2.4.Учет качественных факторов
- •2.4.1.Множественные переменные
- •2.4.2. Фиктивные переменные
- •2.4.3. Структурные изменения тенденций. Тест Чоу.
- •2.4.4. Модели бинарного выбора
- •3.1.Виды нелинейной зависимости
- •3.1.1.Основные понятия
- •3.1.2. Методы оценивания линеаризуемых функций:
- •3.2.Проверка адекватности нелинейной регрессии
- •3.2.1. Показатели качества подгонки
- •3.1.3. Нелинеаризуемые функции и методы их оценки
- •1 .Квазиньютоновский
- •2.Симплекс-метод
- •3.Метод Хука-Дживса
- •3.2.2. Проверка гипотезы о значимости нелинейных моделей
- •3.2.3. Проверка выполнения условий для получения «хороших» оценок методом оценивания
- •3.3.Выбор типа зависимости
- •3.3.1. Теоретические предпосылки
- •3.3.2. Процедура Бокса – Кокса и тест Зарембеки
- •Тест Зарембеки
- •3.3.3.Производственные функции (пф)
- •3.3.4. Коэффициент эластичности
- •3.4.Спецификация и прогноз регрессионных уравнений
- •3.4.1. Информационные критерии (критерий Акайке, Шварца)
- •3.4.2. Ложная регрессия
- •3.4.3. Прогноз по регрессионным моделям. Доверительный интервал.
- •3.4.4. Применение регрессионного анализа в хеджировании
- •4.1.Понятие и виды сру
- •4.1.1. Система независимых уравнений
- •4.1.2. Системы рекурсивных уравнений
- •4.2. Структурный и приведенный виды сру
- •4.3 Идентификация модели
- •4.4 Оценка параметров сру
- •4.4.1.Кмнк.
- •4.4.2.Дмнк.
- •4.4.3.Тмнк.
- •5.8.2 Доверительный интервал в прогнозах
- •5.8.3 Общая схема прогнозирования на основе временных рядов
- •5.1 Общие положения о временных рядах
- •§ 5.2.1. Модель Брауна
- •§ 5.2.2. Модель Хольта.
- •5.2.Адаптивные модели.
- •5.2.3. Модель Хольта-Уинтерса
- •5.4Оценка тренда
- •5.4.1Параметрические методы оценки тренда
- •5.4.2. Метод скользящих средних
- •5.5 Оценка сезонной компоненты.
- •Аддитивная сезонная модель:
- •5.5.1 Оценка сезонной компоненты с помощью тригонометрических функций.
- •5.5.2. Метод сезонных индексов.
- •5.5.3. Прогнозирование сезонной компоненты
- •5.6. Моделирование стационарных случайных процессов
- •5.6.1. Авторегрессионные модели
- •Процесс Юла
- •Моделирование стационарных процессов
- •5.6.3Модель скользящей средней.
- •5.6.4Модель арсс (аrма)
- •5.6.5 Модели ap проинтегрированного скользящего среднего (арпсс).
- •Спектральный анализ Фурье.
- •5.7Спектральная плотность случайного процесса.
- •Различные параметры спектров.
- •5.8Прогнозирование временных рядов.
- •5.8.1 Адекватность математических моделей временных рядов.
- •Параметрические
- •Непараметрические
- •5.7. Периодограмма и спектрограмма
- •5.6.2.Понятие автокорреляции и частная автокорреляция
- •Следствия автокорреляции остатков
1.1.5 Смысл коэффициента регрессии
Коэффициент регрессии показывает прирост зависимой переменной, приходящийся на единицу прироста независимой переменной.
-Если знак «+», то м/у Х и У прямая связь;
-Если «-», то связь обратная.
Свободный член регрессии а показывает величину зависимой переменной при условии, что независ. переменная равен 0.
Коэффициент n свободный член регрессии является размерным величинами, их абсолютная величина зависит от единиц измерения зависимой и независимой переменной.
1.2 Проверка адекватности ру
Адекватность регрессионного процесса - соответствие его реальному моделируемому процессу, т.е достоверности параметров.
Адекватность исследуется с нескольких позиций:
1.Анализируется показатели качества подгонки регрессионного уравнения;
2.Проверяются гипотезы относительно параметров регрессионного уравнения;
3.Проверяется выполнение условий для получения «хороших» оценок методом наименьших квадратов (МНК);
4.Производится содержательный анализ регрессионного уравнения.
1.2.1 Показатели качества подгонки
Отражают соответствие расчетных значений зависимой переменной y^ ее фактическими значениями. Эти показатели основываются на расчете суммы квадратов разности между фактическими и расчетными значениями зависимой переменной
Первый из таких показателей - остаточная дисперсия. Для однофакторного уравнения она вычисляется по формуле:
,
n - количество наблюдений
Чем меньше остаточная дисперсия 2, тем лучше качество подгонки регрессионного уравнения. Но остаточная дисперсия является величиной размерной, поэтому сопоставления регрессионных уравнений, отражающих переменные, имеющих различные единицы измерения, невозможно.
Показателем, на основе которого возможно сопоставление различных уравнений является коэффициент детерминации R2
где - среднее значение переменной y.
Коэффициент детерминации принимает значения от 0 до 1.Чем ближе R2 к 1, тем лучше качество подгонки регрессионного уравнения.
Это обстоятельство связано с тем, что R2 приближается к 1при приближение вычитаемой дроби к 0 .Указанная дробь приближается к 0 при приближении числителя к 0, т.е. при небольших отклонениях расчетных значений зависимости.
Показателями связи, выраженным в процентах, является коэффициент эластичности.
При линейной связи X и Y средний коэффициент эластичности по совокупности определяется как
Несмотря на схожесть показателей коэффициента корреляции и коэффициента эластичности, назначение их различно: коэффициент корреляции определяет тесноту связи и является относительным ее показателем, т.е. вычисляется в процентах.
1.3 Предпосылки мнк (ls)
МНК позволяет получить такие оценки параметров а и b, которых сумма квадратов отклонений фактических значений результативного признака (у) от расчетных (теоретических) минимальна:
Иными словами, из всего множества линий линия регрессии на графике выбирается так, чтобы сумма квадратов расстояний по вертикали между точками и этой линией была бы минимальной. Решается система нормальных уравнений
При оценке параметров уравнения регрессии применяется МНК. При этом делаются определенные предпосылки относительно составляющей, которая представляет собой ненаблюдаемую величину.
Исследования остатков - предполагают проверку наличия следующих пяти предпосылок МНК:
1.случайный характер остатков;
2.нулевая средняя величина остатков, не зависящая от хj;
3.гомоскедастичность—дисперсия каждого отклонения, одинакова для всех значений х;
4.отсутствие автокорреляции остатков. Значения остатков, распределены независимо друг от друга;
5.остатки подчиняются нормальному распределению.
1. Проверяется случайный характер остатков, с этой целью строится
график зависимости остатков от теоретических значений результативного признака. Если на графике получена горизонтальная полоса, то остатки, представляют собой случайные величины и МНК оправдан, теоретические значения ух хорошо аппроксимируют фактические значения y. В других случаях необходимо либо применять другую функцию, либо вводить дополнительную информацию и заново строить уравнение регрессии до тех пор, пока остатки, не будут случайными величинами.
2. Вторая предпосылка МНК относительно нулевой средней величины остатков означает, что (у — ух) = 0. Это выполнимо для линейных моделей и моделей, нелинейных относительно включаемых переменных. С этой целью наряду с изложенным графиком зависимости остатков от теоретических значений результативного признака ух строится график зависимости случайных остатков от факторов, включенных в регрессию хj . Если остатки на графике расположены в виде горизонтальной полосы, то они независимы от значений xj. Если же график показывает наличие зависимости и хj то модель неадекватна. Причины неадекватности могут быть разные.
3. В соответствии с третьей предпосылкой МНК требуется, чтобы дисперсия остатков была гомоскедастичной. Это значит, что для каждого значения фактора xj остатки, имеют одинаковую дисперсию. Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность. Наличие гетероскедастичности можно наглядно видеть из поля корреляции.
Гомоскедастичность остатков означает, что дисперсия остатков одинакова для каждого значения х.
4.Отсутствие автокорреляции остатков, т. е. значения остатков распределены независимо друг от друга. Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. Отсутствие автокорреляции остаточных величин обеспечивает состоятельность и эффективность оценок коэффициентов регрессии.