Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Эконометрика. Начальный курс

.pdf
Скачиваний:
15
Добавлен:
20.11.2023
Размер:
21.93 Mб
Скачать

14.7. Предварительное тестирование и эффект «занижения»

411

Wjj = A(ffj), a MSE(Wr/) = V + dd', где V диагональная т х т матрица, a d — тпх 1 вектор с элементами соответственно

Vjj = V(A( ъ Щ ) ,

dj =

- rjj).

Д о к а з а т е л ь с т в о .

Из теоремы

14.1 получаем P i =

Si(S'iSi)~l Si. Поскольку матрица отбора S' имеет вид [Jrj 0] (или получается из последней перестановкой столбцов), то S^S, = I Ti, и, следовательно, матрица Pi диагональная, с г, единицами и m —Ti нулями на диагонали. Поэтому матрица W* также диаго­ нальная, с m —Ti единицами и г* нулями на диагонали. Из теоремы

14.1 также следует что 7 ^

= W i $ есть оценка вектора парамет­

ров 7 при ограничении SJ7

= 0. Поэтому оценкой параметра т,-

при данном ограничении является j -я компонента вектора 7 ^ , которая равна либо 0 (если переменная Zj исключена из модели), либо Oj (если переменная Zj включена в модель). Таким обра­ зом, все модели, которые включают регрессор Zj, дают ту же оценку 7j, независимо от того, какие еще 7 оцениваются. Однако t-статистика для параметра 7j есть rjj = Oj/a, откуда следует (а). Матрица W — диагональная, поскольку все W* диагональные. Ее j -й диагональный элемент Wjj равен либо 0 (если переменная Zj исключена из модели), либо 1 (если переменная Zj включена в модель). Иначе говоря, Wjj = A(fjj). Отсюда также следует неза­ висимость компонент вектора Wrj, откуда вытекает (б). Теорема доказана.

Поскольку процедура отбора модели может оказать суще­ ственное влияние на оценки интересующих нас параметров, то желательно (если это возможно) выбрать вспомогательные ре­ грессоры так, что Z ' M Z = J m. В большинстве случаев такой выбор позволяет не только сделать pretest-оценку независимой от процедуры отбора модели, но также получить точные аналити­ ческие выражения для моментов оценок и гарантировать ограни­ ченность среднеквадратичною отклонения оценок при всех т. (В общем неортогональном случае среднеквадратичные отклонения оценок ограничены при т = 1 и не обязательно ограничены при т ^ 2 .)

412

Гл. 14. Предварительное тестирование: введение

14.8.Эффект «занижения».

Один вспомогательный параметр

Вслучае одного вспомогательного (необязательного) параметра модель принимает вид: у = Х/3 + y z + е, где скаляр 7 — вспо­ могательный параметр. В этом случае мы^сравниваем только две

модели, модель без ограничения (W\ = 1, /3 ^ = /Зи, Ai = Л) и мо-

аа

дель с ограничением (W2 = 0, /3(2) = /Зг, Аг = 1 - А). В результате мы получаем

 

3 = A3 U + (1 “

А)3г.

 

W = A,

и

 

 

 

 

 

 

 

MSE{WTJ) = MSE(ATJ) = Е(Аrj - rj)2,

Е W = ЕА.

Коэффициент занижения равен

 

 

 

 

 

UR

=

щ )

-

т

 

 

 

а д +

(1/902) ’

 

где

A(fj) = 1, если |7)| > с для некоторого с > 0, и A(fj) = 0 , если

\v\ ^

с, и

 

 

 

 

 

 

R(rj) = E{Xn-ij)2,

2

(х'ЛГ(ЛГ'ЛГ)-М2

 

90

(z'M z)(ш>(Х'Х)-^шУ

 

 

Снова предположим, что дисперсия а1 известна и значение с за­ дано (например, с = 1.96). Тогда А зависит только от rj, R зависит только от г), и поэтому UR зависит от q$ и rj (известных исследо­ вателю) и параметра rj (который неизвестен).

Легко видеть, что UR растет с ростом R(v). Таким образом, случайная величина А77, рассматриваемая в качестве оценки г), играет существенную роль в определении коэффициента заниже­ ния. Графики ее дисперсии, квадрата смещения и среднеквадра­ тичного отклонения представлены на рис. 14.1.

Смещение оценки А77 отрицательно при 7) > 0 и достигает ми­ нимального значения -0.66 при 7) = 1.46. Дисперсия достигает минимального значения 0.28 при rj = 0 и максимального значе­ ния 2.23 при у = 2.34. График среднеквадратичного отклонения

14.8. Эффект «занижения». Один вспомогательный параметр

413

имеет форму, похожую на график дисперсии. Среднеквадратич­ ное отклонение принимает минимальное значение при rj = 0 и максимальное значение 2.46 при ц = 2.16. Дисперсия оценки \rj велика по сравнению с ее смещением, откуда следует, что умень­ шение дисперсии важнее, чем уменьшение смещения.

Приведен также график математического ожидания «сообща­ емого» значения среднеквадратичного отклонения оценки Xrj как функции параметра т)для значения с = 1.96 и график среднеквад­ ратичного отклонения оценки без ограничений, MSE(JJ) (пунктир­ ная линия, константа для А = 1). Поскольку Л принимает только значения 0 и 1, ее ожидаемое значение Е(Л) равно вероятности вы­ бора модели без ограничения (А = 1). Видно, что Е(А) = Р(|т)| > с) монотонно возрастает от 0.05 при т) = 0 до 1 при т) = оо. Проце­ дура предварительного тестирования является естественной, по­ скольку MSE(AJJ) ^ Е(А). Величина E(UR) = 0.18 при rj = 0 и достигает максимального значения 0.57 при т) = 1.73. Величина E(UR) изменяется в широком диапазоне (от 0 до 0.57) при измене­ нии г}, что означает, что среднеквадратичное отклонение pretestоценки может в 2.3 превышать «сообщаемое» значение средне-

414

Гл. 14. Предварительное тестирование: введение

Рис. 14.2. E(UR) и точка максимума max(E(UR)) (m = 1, с = 1.96)

квадратичного отклонения (1/(1 —0.57) = 2.3). Максимальное значение E(UR) зависит от доГрафик приведен на рис. 14.2.

На рис. 14.2 представлены графики E(UR) для пяти различ­ ных значений q$: 0,0.1,1,10 и оо. При gjj = 0 эффект «занижения» отсутствует. При д$ = 00 значение E(UR) достаточно большое; максимум достигается при т)= 0.82 и равен E(UR) = 0.87.

Наконец, поскольку как UR так и E(UR) зависят от т), мы рас­ смотрим также поведение коэффициента занижения при т) — 1. Значение т) — 1 представляет особый интерес, потому что при таком значении исследователь находится в неопределенности, ка­ кую из моделей выбрать —с ограничением или без ограничения (см. упражнение 14.3). Мы приходим к выводу, что эффект «зани­ жения», т. е. то, что не приводятся истинные значения смещения и дисперсии pretest-оценки, может привести к ошибочной интер­ претации результатов даже в случае m = 1. Чем больше (извест­ ное исследователю) значение q%, тем больше ожидаемое значение коэффициента занижения UR. Для заданного значения q$ мы мо­ жем построить график ожидаемого значения UR, как функции т7, как это сделано на рис. 14.2, и рассчитать максимум E(UR).

14.9. Выбор модели

415

Другой способ — рассчитываем величину E(UR) в точке rj

= fj

и используем ее как оценку степени эффекта «занижении». Мак­ симум величины E(UR), равный 0.87, достигается при q% = оо и т) = 0.82. Это означает, что в худшем случае сообщаемая обыч­ но дисперсия pretest-оценки составляет лишь 13% от истинного значения ее среднеквадратичного отклонения.

14.9.Выбор модели: от общего к частному и от частного к общему

Вслучае одного вспомогательного параметра (тп = 1) процеду­ ра предварительного тестирования выглядит просто. Вычисляет­ ся 4-статистика коэффициента ■у в модели без ограничений. Если |4| > с, то выбираем модель без ограничения (и получаем оцен­ ку и), иначе выбираем модель с ограничением (получаем /Зг). В случае m > 1 существует много способов предварительного тести­ рования. Рассмотрим случай m = 2 при следующем условии: вы­ бор модели основан исключительно на 4-статистиках. В выбран­ ной модели все 4-статистики должны быть «значимые». Предпо­ ложим также, что известна дисперсия о2.

Без потери общности можно нормализовать регрессоры zy и Z2 , соответствующие вспомогательным параметрам 7 i и 72, поло­

жив z'xM z \ — z ^ M z 2 = 1. Тогда

Z ' M Z = [ ‘ I].

где |r| < 1, и

<г 'м

г >-,/2 = 7

г Ы

- “, t

где

 

 

 

\ЛТТ \ / l - r

х/Г+Т+УТ^-г

 

« = ----------

2----------

*

р =

---------- 2----------

Теперь у нас четыре 4-статистики, которые мы принимаем во вни­ мание при отборе модели. Две из регрессии без ограничения (обо­ значим их t\ и 4г), одна из модели с ограничением 72 = 0 (обо­

416

Гл. 14. Предварительное тестирование: введение

значим ее Цц) и еще одна из модели с ограничением 71 = О (обозначим ее Цу). Введем обозначения для компонент вектора rj — {f)i, %)'. В соответствии с теоремой 14.1 каждая из четырех t-статистик является линейной функцией тд, ffc:

ti = otJh - pm,

t2 = -prji + afft,

н

 

*(t) = OrtJi + pfft,

t(2) = РП1 + aV2-

Поскольку a 2 + p2 = 1, все четыре t-статистики имеют нор­ мальное распределение, с единичной дисперсией и при соответ­ ствующей нулевой гипотезе нулевым средним. Из тех же сооб­ ражений, но которым мы ранее получили независимость /Зг и «7, получаем, что независимы t^j и t2, t(2) и ti. Далее

C orr(ti,t(,)) = Corr(t2,t(2)) = V l - г 2 > О,

и

 

Corr(ti,t2) = - Г ,

Corr(t(1),t(2)) = г.

Наконец,

 

|tl| > |t2| <==► |t(i)| >

|t(2)| *=> |T?I | > \rh\-

Будем называть t-статистику «значимой», если ее значение по аб­ солютной величине превосходит некоторое заранее выбранное (по­ ложительное) пороговое значение с, например, 1.96.

Рассмотрим две обычно используемые pretest-процедуры: «от общего к частному» и «от частного к общему». Введем следующие обозначения: M Q — модель с ограничением, M i — модель только с одной вспомогательной переменной z\ (72 = 0), М 2 — другая модель только с одной вспомогательной переменной z2 (71 = 0 ) и М \2 — модель без ограничения. Тогда процедура «от общего к частному» (или «сверху вниз») задается следующим порядком действий:

а) оцениваем модель без ограничений, М \2. Получаем t- статистики t\ и t2\

14.9. Выбор модели

417

б) если обе t\ и <2 значимы, то выбираем М \2\

в) в противном случае:

1)

если |ii| > |*21, оцениваем M i и получаем t(i). Бели *(D

 

значима, то выбираем M i, иначе — выбираем М о;

 

2)

если |<i| ^ |*г|» оцениваем М 2 и получаем Ц2)-

Ч*)

 

значима, то выбираем М%, иначе — выбираем Мо-

 

Аналогичным образом задается процедура «от частного к обще­ му» (или «снизу вверх»):

а) оцениваем обе модели с частичным ограничением, M i и М 2 Получаем соответственно две t-статистики Цц и Ц2)>

б)

если обе

и t^) не значимы, то выбираем Мо;

в)

в противном случае оцениваем модель без ограничения, по­

 

лучаем t\

и <2 и выбираем М 12, если t\ и £2 обе значимы;

г)

во всех других случаях выбираем M i (если |t(i)| > |t(2)l) Ш1И

 

М 2 (если

|t(1)| ^ |t(2)|).

Соответствующие области принятия решений для значения г = 0.8 представлены в координатах (^ь% ) на рис. 14.3 и 14.4.

Поскольку два случая

|t(i)| ^ с < |ti|, |<г| ^ с < |t(2)| и

|t(2)| ^ с < |^21>|ti | ^ с <

невозможны, видно, что две проце­

дуры совпадают, за исключением случая, когда t\ и *2 значимы, a и t(2) обе не значимы. В этой ситуации процедура «от об­ щего к частному» приводит к выбору модели без ограничения, а процедура «от частного к общему» приводит к модели с огра­ ничением. В частном случае при г = 0, выполняются равенства h = t(1) = rji и <2 = t(2) = *й> и обе процедуры предварительного отбора совпадают. При |г| —»1 различие между двумя процедура­ ми наибольшее. Вопреки кажущемуся незначительному различию между этими двумя процедурами предварительного тестирования размер эффекта «занижения» среднеквадратичного отклонения pretest-оценки в них может быть существенно различен.

418

Гл. 14 Предварительное тестирование: введение

Рис. 14.3. Области выбора модели: «от общего к частному»

Рис. 14.4. Области выбора модели: «от частного к общему»

14.10. Эффект «занижения». Два вспомогательных параметра

419

14.10.Эффект «занижения».

Два вспомогательных параметра

Вслучае т = 1 математическое ожидание коэффициента «зани­ жения» E(UR) зависит (при фиксированном значении с) от двух параметров: q$ (известен исследователю) и г/ (неизвестен). В слу­ чае т = 2, коэффициент E(UR) зависит (после нормализации) от 5 параметров. Три из них известны исследователю: gg, q (с нор­ мировкой q'q = 1) и г, а два других r)i игц — неизвестны. Кроме того, значение зависит от процедуры предварительного тестиро­ вания.

У нас имеются четыре конкурирующие модели: модель без ограничения, Л4хг; две модели с частичным ограничением, М \

(72 = 0) и М 2 1 = 0); и также модель М о с ограничением

(71 = 72 = 0).

Поскольку E(UR) зависит от 5 параметров, мы не сможем проанализировать зависимости на графике (понадобился бы 6- мерный график). Поэтому для начала мы рассмотрим матрицу среднеквадратичных отклонений R — MSE(WTJ) и ожидаемое значение «сообщаемого» значения матрицы ковариаций E(W ) для двух процедур предварительного тестирования, описанных выше. Обе матрицы зависят от 771, гц и г. Как показано в раз­ деле 14.7, матрица E(W ) всегда ограничена. Матрица R также является ограниченной в процедуре «от общего к частному», но может быть не ограничена в процедуре «от частного к общему», а именно при этой процедуре

m axR(rft,T)2 ,r) -* 00

при г -♦ 1.

Hi.42

 

Такое существенное различие в поведении матрицы R при двух разных процедурах предварительного тестирования отображено на рис. 14.5, на котором построены графики зависимости

E**(UR) = m axЕ*(UR) = 1 -

min min ^ ( R ~ l^ ( E W ) R - 1^

mm

mm

как функции г.

 

420

Гл. 14. Предварительное тестирование: введение

Рис. 14.5. E**(UR) как функция г ( т 2)

Для обеих процедур функция E**(UR) симметрична относи­ тельно точки г = 0. При г = 0 значения функций совпада­ ют и примерно равны 0.90. В случае процедуры «от частно­ го к общему» E**(UR) монотонно возрастает до 1 при возрас­ тании г от 0 до 1. В случае процедуры «от общего к част­ ному» функция E**(UR) равномерно меньше соответствующей функции для процедуры «от частного к общему», она не мо­ нотонна и при т —►1 сходится к величине 0.87, совпадающей с максимальным значением функции для случая m = 1 (от­ мечено горизонтальной пунктирной линией па графике). Разли­ чие между двумя процедурами особенно велико при значениях |г| близких к 1, т.е. в том случае, когда M z\ и M z2 сильно коррелировали.

Пояснить ситуацию можно следующим образом. Пусть г = 1 и пусть, например, щ = -гц = rj. Тогда при большом Щвероят­ ность выбора одной из моделей с частичным ограничением М \ или М 2 близка к 0. В случае процедуры «от частного к общему» мы выберем модель с ограничением М о с вероятностью, близ­ кой к 0.95, и модель М \ 2 с вероятностью, близкой к 0.05. Сле-