Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УДК 330-8.doc
Скачиваний:
198
Добавлен:
12.03.2015
Размер:
3.55 Mб
Скачать

2.6. Автокорреляция остатков

Важной предпосылкой построения качественной регрессионной модели по МНК является независимость значений случайных отклонений εiот значений отклонений во всех других наблюдениях. Отсутствие зависимости гарантирует отсутствие коррелированности между любыми отклонениями, т.е.covi, εj) ijи, в частности, между соседними отклонениями (cov(εi-1, εi)=0).

Автокорреляция (последовательная корреляция) остатковопределяется как корреляция между соседними значениями случайных отклонений во времени (временные ряды) или в пространстве (перекрестные данные). Она обычно встречается во временных рядах и очень редко - в пространственных данных. В экономических задачах значительно чаще встречается положительная автокорреляция (covi-1, εi,)> 0), чем отрицательная автокорреляция

(cov(εi-1, εi,)<0).

Чаще всего положительная автокорреляция вызывается направленным постоянным воздействием некоторых не учтенных в регрессии факторов. Например, при исследовании спроса уна прохладительные напитки в зависимости от доходахна трендовую зависимость накладываются изменения спроса в летние и зимние периоды. Аналогичная картина может иметь место в макроэкономическом анализе с учетом циклов деловой активности.

Отрицательная автокорреляция фактически означает, что за положительным отклонением следует отрицательное и наоборот. Такая ситуация может иметь место, если ту же зависимость между спросом на прохладительные напитки и доходами рассматривать не ежемесячно, а раз в сезон (зима-лето).

Применение МНК к данным, имеющим автокорреляцию в остатках, приводит к таким последствиям:

1- Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Они перестают быть наилучшими линейными несмещенными оценками.

2-Дисперсии оценок являются смещенными. Часто дисперсии, вычисляемые по стандартным формулам, являются Сниженными, что влечет за собой увеличениеt -статистик. Это может привести к признанию статистически значимыми факторов, которые в действительности таковыми не являются.

3. Оценка дисперсии регрессии является смещенной оценкой истинного значения σ2, во многих случаях занижая его.

4. Выводы по t- иF - статистикам, возможно, будут неверными, что ухудшает прогнозные качества модели.

Для обнаружения автокорреляции используют либо графический метод, либо статистические тесты. Рассмотрим два наиболее популярных теста.

Метод рядов. По этому методу последовательно определяются знаки отклонений от регрессионной зависимости. Например, имеем при 20 наблюдениях

(-----)(+++++++)(---)(++++)(-).

Ряд определяется как непрерывная последовательность одинаковых знаков. Количество знаков в ряду называется длиной ряда. Если рядов слишком мало по сравнению с количеством наблюдений, то вполне вероятна положительная автокорреляция. Если же рядов слишком много, то вероятна отрицательная автокорреляция.

Пусть п- объём выборки,п1- общее количество положительных отклонений;п2- общее количество отрицательных отклонений;k- количество рядов. В приведенном примереn=20,п1=11, п2=5.

При достаточно большом количестве наблюдений (п1>10,п2>10) и отсутствии автокорреляции СВkимеет асимптотически нормальное распределение, в котором

Тогда, если

M(k)-ua/2·D(k)<k<M(k)+ua/2·D(k),

по гипотеза об отсутствии автокорреляции не отклоняется. Если k ≤. M(k)-ua/2·D(k), то констатируется положительная автокорреляция; в случаеk ≥ M(k)+ua/2·D(k)признается наличие отрицательной автокорреляции.

Для небольшого числа наблюдений (n1<20,n2<20) были разработаны таблицы критических значений количества рядов припнаблюдениях. В одной таблице в зависимости отn1 иn2определяется нижняя границаk1 количества рядов, в другой - верхняя границаk2.Еслиk1<k<k2то говорят об отсутствии автокорреляции. Еслиkk1,то говорят о положительной автокорреляции. Еслиkk2, тoговорят об отрицательной автокорреляции. Например, для приведенных выше данныхk1=6,k2=16 при уровне значимости 0,05. Посколькуk=5<k1=6,определяем положительную автокорреляцию.

Критерий Дарбина-Уотсона.Это наиболее известный критерий обнаружения автокорреляции первого порядка. СтатистикаZWДарбина-Уотсона приводится во всех специальных компьютерных программах как одна из важнейших характеристик качества регрессионной модели.

Сначала по построенному эмпирическому уравнению регрессии определяются значения отклонений . Рассчитывается статистика

(65)

Далее по таблице критических точек Дарвина-Уотсона определяется два числа d1 и dии осуществляются выводы по правилу:

0≤DWd1 - положительная автокорреляция;

d1<DW<du - зона неопределенности;

duDW≤4-du - автокорреляция отсутствует;

4-du<DW<4-d1 - зона неопределенности;

4-d1DW≤4 – отрицательная автокорреляция.

Можно сказать, что статистика DW тесно связана с коэффициентом автокорреляции первого порядка:

. (66)

Связь выражается формулой:

(67)

Отсюда вытекает смысл статистического анализа автокорреляции. Поскольку значения rизменяются от -1 до +1,DW изменяется от 0 до 4. Когда автокорреляция отсутствует, коэффициент автокорреляции равен нулю, и статистикаDW равна 2.DW=Oсоответствует положительной автокорреляции, когда выражение в скобках равно нулю(r=1).При отрицательной автокорреляции (r= -1)DW=4,и выражение в скобках равно двум.

Ограничения критерия Дарбина-Уотсона:

1. Критерий DWприменяется лишь для тех моделей, которые содержат свободный член.

2. Предполагается, что случайные отклонения определяются по итерационной схеме

(68)

называемой авторегрессионой схемой первого порядка AR(1).Здесьνt- случайный член.

3. Статистические данные должны иметь одинаковую периодичность (не должно быть пропусков в наблюдениях).

4. Критерий Дарбина - Уотсона не применим к авторегрессионым моделям вида:

(69)

которые содержат в числе факторов также зависимую переменную с временным лагом (запаздыванием) в один период.

Для авторегрессионых моделей предлагается h -статистика Дарбина

(70)

где β- оценка коэффициента автокорреляции первого порядка (66),D(c) -выборочная дисперсия коэффициента при лаговой переменнойyt-1, п -число наблюдений.

При большом пи справедливости нуль - гипотезыН0=0h~N(0,1).Поэтому при заданном уровне значимости определяется критическая точка из условия

,

и h -статистика сравнивается сиα/2.Если|h|> иα/2, то нуль - гипотеза об отсутствии автокорреляции должна быть отклонена. В противном случае она не отклоняется.

Обычно значение рассчитывается по формулеaD(c)равна квадрату стандартной ошибкитс оценки коэффициентас.Следует отметить, что вычислениеh -статистики невозможно приnD(c)>1.

Автокорреляция чаще всего вызывается неправильной спецификацией модели. Поэтому следует попытаться скорректировать саму модель, в частности, ввести какой - нибудь неучтенный фактор или изменить форму модели (например, с линейной на полулогарифмическую или гиперболическую). Если все эти способы не помогают и автокорреляция вызвана какими - то внутренними свойствами ряда {еt},можно воспользоваться преобразованием, которое называется авторегрессионой схемой первого порядкаAR(1).

Рассмотрим AR(1)на примере парной регрессии:

y=a+bx+e. (71)

Тогда соседним наблюдениям соответствует формула:

yt=a+bxt+et, (72)

yt-1=a+bxt-1+et-1. (73)

Если случайные отклонения определяются выражением (68), где коэффициент ризвестен, то можем получить

yt - pyt-1=a(1- p)+b(xt -pxt-1)+(et –pet-1). (74)

Сделаем замены переменных

(75)

получим с учетом (68):

(76)

Поскольку случайные отклонения vtудовлетворяют предпосылкам МНК, оценкиa*иbбудут обладать свойства­ми наилучших линейных несмещенных оценок. По преобразованным значениям всех переменных с помощью обычногоMНKвычисляются оценки параметров а* иb, которые затем можно использовать в регрессии (71).

Однако способ вычисления преобразованных переменных (75) приводит к потере первого наблюдения, если нет информации о предшествующих наблюдениях. Это уменьшает на единицу число степеней свободы, что при больших выборках не очень существенно, однако при малых выборках приводит к потере эффективности. Тогда первое наблюдение восстанавливается с помощью поправки Прайса - Уинстена:

(77)

Авторегрессионое преобразование может быть обобщено на произвольное число объясняющих переменных, т.е. использовано для уравнения множественной регрессии.

Для преобразования АR(1)важно оценить коэффициент автокорреляциир.Это делается несколькими способами. Самое простое - оценитьрна основе статистикиDW:

(78)

где rберется в качестве оценкир. Этот метод хорошо работает при большом числе наблюдений.

Существуют и другие методы оценивания р,например, метод Кокрена - Оркатта и метод Хилдрета - Лу. Они являются итерационными, и их рассмотрение выходит за рамки данного конспекта лекций.

В случае, когда есть основания считать, что автокорреляция отклонений очень велика, можно использовать метод первых разностей.В частности, при высокой положительной автокорреляции полагаютр=1, и уравнение (74) принимает вид

или

(79)

где

Из уравнения (79) по МНК оценивается коэффициент b.Параметраздесь не определяется непосредственно, однако из МНК известно, что

В случае р=-1, сложив (72) и (73) с учетом (68), получаем уравнение регрессии:

или