2-lek_ekonometr
.pdfМІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ КИЇВСЬКИЙ НАЦІОНАЛЬНИЙ УНІВЕРСИТЕТ ТЕХНОЛОГІЙ ТА ДИЗАЙНУ КАФЕДРА ЕКОНОМІЧНОЇ КІБЕРНЕТИКИ
ОПОРНИЙ КОНСПЕКТ ЛЕКЦІЙ
вивчення дисципліни «Економетрика»
Київ – 2012
1
Змістовний модуль №1
Тема1.1 «Математичне моделювання як метод наукового пізнання економічних явищ і процесів»
На сьогодні широкого поширення одержало математичне моделювання в різних областях знань: механіці, фізиці, біології, хімії, у тому числі в економіці. Розглянемо основні поняття.
Система – це множина взаємопов’язаних елементів, які складають певну єдність. Модель – система, здатна замінити оригінал (тобто реальну систему) так, що її вивчення
дає інформацію про оригінал. Модель може повністю або частково відтворити структуру системи, що моделюється та її функції.
Моделювання – процес побудови, реалізації та дослідження моделі, який здатний замінити реальну систему та дати інформацію про неї.
Математична модель - система математичних і логічних співвідношень, які описують структуру та функції реальної системи. Математична модель відрізняється за своєю природою від оригінала. Дослідження властивостей оригінала за допомогою математичної моделі зручніше, дешевше, займає менше часу порівняно з фізичним моделюванням, яке використовується в техніці (тобто має ту ж природу, що і оригінал). Більш того, цілий ряд економічних систем неможливо зобразити за допомогою фізичних моделей.
XVIII ст. - початок використання математичних методів у економіці з опублікування роботи "Економічні таблиці" французьким економістом Ф.Кене, який вперше зробив спробу формалізації процесу суспільного відтворення. В подальшому наукове обгрунтування суспільного відтворення було здійснено К. Марксом.
XIX ст. — формується економетрія як наука з початку розробки статистичних методів у вигляді парної та множинної регресії, теорії кореляції, теорії помилок, вибіркових методів (Р.Гамільтон, К.Пірсон, Р. Фішер та ін.).
Вперше термін «економетрії» з’явився в німецькій книзі по бух. обліку, автор якої розумів теорію бухгалтерії. В економічну науку цей термін ввів в оборот норвезький статистик Рагнар Фрім в 1928 р. Як самостійна наука «економетрія» сформувалась в 30-х роках XX сторіччя, завдяки працям Шульца.
В той час поставали такі проблеми:
1)Описати рівнянням залежність попиту від пропозиції;
2)Виробничу функцію: залежність випуску продукції та засобів виробництва. В буквальному перекладі «Екометріка» - вимірювання економіки.
В економічних дослідженнях економетрія широко використовується із розвитком
обчислювальної техніки та появою персональних комп’ютерів (ПК).
2
У сучасній літературі має місце ряд трактувань поняття економетрії, або економетрики (що одне і те ж), як наукової дисципліни: від надмірно розширеного з виміру всього, що є в економіці, до вузько орієнтованого з розгляду лише математико-статистичних способів. Широкий спектр економіко-математичних методів і моделей, корисний майбутнім фахівцям, не вивчається ні в одному з циклів фундаментальних та професійно-орієнтованих дисциплін підготовки економістів.
Економетрика – це наука, яка вивчає конкретні кількісні та якісні взаємозв’язки економічних об’єктів і процесів за допомогою математичних та статистичних методів і моделей.
Економетрична модель – це модель яка з певною мірою надійності, математично описує причинно – наслідкові зв’язки між економічними показниками та величинами.
Економетрична модель - різновид економіко-математичної моделі, параметри якої оцінюються за допомогою методів математичної статистики. Одним з основних підходів у вимірі зв'язку між досліджувальними показниками в економетричній моделі є кореляційно- регресивний аналіз. Він являє собою комплекс методів, за допомогою яких визначається вид рівняння для досліджувальних показників та розрахунок їх параметрів (регресивний аналіз), а також встановлення тісноти та значимості зв'язку між змінними у рівнянні або рівняннях (кореляційний аналіз).
Економетрична модель призначена для аналізу і прогнозування розглядаємих економічних процесів і явищ в умовах невизначеності інформації за допомогою методів математичної статистики.
Тема1.2 «Парний регресійний аналіз».
Однією з головних задач економетрії в ринковій економіці є ретельне вивчення кількісних зв’язків між показниками для кращого розуміння господарських явищ і процесів, що в свою чергу дозволяє більш обґрунтовано сформулювати управлінське рішення та дати прогнози на майбутнє. Для вирішення цієї задачі потрібно вміти будувати економетричні моделі.
Зв’язок між різними явищами в економіці складний і різноманітний. На рівень розвитку одного показника можуть впливати багато факторів, рівень впливу яких різний. Ці закономірності потрібно враховувати під час планування, прогнозування і проведення економічного аналізу. Для вивчення форми зв’язку між показником і факторами на основі статистичних даних використовується регресійний аналіз. Причому, об’єктами дослідження стохастичної залежності соціально – економічних процесів можуть бути різні статистичні показники.
3
Розглянемо економетричну модель представлену загальною лінійною регресією вигляд якої наступний: Y = AX + U , (1)
Де Y - матриця значень залежної змінної (пояснювальної змінної);
X - матриця значень незалежних змінних (пояснюючих змінних);
A - матриця параметрів моделі розмірністю m × n ( m - кількість незалежних змінних, n - число спостережень);
U - матриця випадкової складової.
Незалежні змінні Х (пояснюючі змінні) найчастіше бувають детерміністичними і вони є наперед заданими змінними, або вхідними показниками для економетричної моделі.
Випадкові складові U називаються стохастичними складовими, помилками, залишками. Вони є наслідками помилок спостережень, містять у собі вплив усіх випадкових факторів, а також факторів, які не входять у модель.
Залежні змінні Y (пояснювальні змінні) є результативними показниками, які залежать
від факторів X та випадкової складової U . Отже, |
вони також є стохастичними, тобто |
|
випадковими. Тому, економетрична модель є стохастичною. |
||
Розглянемо найпростіший вид |
лінійної регресії: парна лінійна регресійна модель |
|
(лінійна однофакторна регресія). |
|
|
Парною лінійною регресією Y |
на X називається одностороння стохастична лінійна |
|
залежність між випадковими величинами показника Y |
і одного фактора X , які знаходяться |
в причинно – наслідкових відношеннях, причому зміна фактора виключає зміну показника. Загальний вигляд лінійної однофакторної регресії наступний:
Y = α + βX + u , (2)
Де Y - залежна змінна (пояснювальна змінна);
X- незалежна змінна (пояснююча змінна);
α, β - параметри моделі;
u - випадкова складова.
Регресія характеризує тенденцію зміни статистичного показника Y зумовлену впливом
зміни фактора |
X . Позначимо оцінки параметрів регресії |
α , β через a, b . В результаті |
|
ˆ |
Вона вважається побудованою, |
отримаємо рівняння парної лінійної регресії: Y = a + bX . |
||
якщо визначені |
a, b . |
|
Для оцінки параметрів регресії використаємо метод найменших квадратів (1 МНК). Зауваження : Основоположниками методу є математики К. Гаус і П. Лаплас.
4
Суть методу МНК: Оцінки параметрів моделі мають бути такими, щоб мінімізувати суму
n
квадратів залишків кожного спостереження показника, тобто ∑u 2 i ® min .
i=1
Параметри a, b регресії можна визначити із нормальної системи рівнянь:
∑Y = n * a + b * ∑X
|
(3) |
∑X *Y = a * ∑X + b * ∑X 2 |
|
Розв’язавши лінійну систему отримаємо параметри a, b .
Для знаходження оцінок параметрів лінійної однофакторної регресії можна використати функцію «ЛИНЕЙН» в Excel.
Для визначення сили стохастичного зв’язку між економічними показниками використовується коефіцієнт кореляції.
Стохастичний зв’язок між двома величинами Y та X називається кореляцією.
Нехай є два статистичних показника Y та X із значеннями за n спостережень. Обчислимо коефіцієнт кореляції.
Сила кореляційного зв’язку визначається коефіцієнтом кореляції.
|
|
|
|
|
|
|
|
- |
|
|
* |
|
|
|
|
|
|
|
|
r = |
|
|
|
x * y |
x |
y |
; (4) |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
||||||||||||||||||
|
|
x2 |
- ( |
|
|
) 2 * |
y2 |
- ( |
|
)2 |
|
|
|||||||
|
|
x |
y |
Де − 1 < r < 1 .Якщо r → - 1, то зв’язок між показниками Y та X сильний оберненій; якщо r→ 1, то – сильний прямий ; r→ 0, то – зв’язок слабкий.
За допомогою коефіцієнта детермінації визначається якість побудованої регресійної моделі. Коефіцієнт детермінації обчислюється за формулою
R 2 = 1 - (∑u 2 ) (5)
∑ Y - Y
2
Чим ближче значення R2 до 1 тим вища якість побудованої моделі.
За допомогою F-критерію Фішера характеризується значимість зв’язку в регресійній моделі. У випадку парної регресії цей критерій розраховується за наступною формулою:
n
∑(yˆ i - yi )2 × (n - 2)
F = |
i=1 |
|
|
(6), де 1, (n-2) – число ступенів вільності відповідно чисельника та |
n |
- y) |
|
||
|
∑(yi |
2 |
|
|
|
i=1 |
ˆ |
|
|
|
|
|
|
знаменника залежності.
Під терміном «ступінь вільності» (ступень свободи) в економетрії розуміють число, яке показує, скільки незалежних елементів інформації із змінних yi (i = 1...n) потрібно для розрахунку суми квадратів, що розглядається. В кореляційному аналізі існує рівняння, яке
5
пов’язує відхилення загальної суми квадратів із залишковою сумою квадратів та сумою
|
|
|
|
|
n |
2 |
|
|
|
|
|
квадратів, що пояснює регресію: |
S y = Se |
+ Sγ , |
де S y = ∑(yi − |
|
) - |
загальна сума квадратів |
|||||
y |
|||||||||||
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
n |
2 |
|
|
|
|
|
n |
2 |
||
відхилень, Se |
= ∑(yi − yˆ ) - залишкова сума квадратів відхилень, Sγ |
= ∑(yˆ − |
|
) - регресійна |
|||||||
y |
|||||||||||
|
i=1 |
|
|
|
|
|
|
i=1 |
|
|
|
сума квадратів відхилень. |
|
|
|
|
|
|
|
|
|
|
|
Кожна із зазначених сум пов’язана з ступенями вільності: для загальної суми квадратів |
|||||||||||
S y потрібно |
(n-1) незалежних |
чисел, |
тобто |
ступенів вільності; |
для |
залишкової суми |
|||||
квадратів Se |
- (n-m) ступенів вільності; для регресійної суми квадратів |
Sγ - (m-1) ступенів |
вільності.
За статистичними таблицями F-розподілу Фішера із ступенями вільності 1, (n-2) і рівнем довіри (1-α) вибирається Fтабл . Можлива помилка (рівень значущості) α може прийматися 0,05 або 0,01. Це означає, що у 5% або 1% випадків ми можемо помилитися, а у 95% або 99% випадків (рівень довіри) наші висновки будуть правильні. При умові F>Fтабл побудована регресійна модель відповідає реальній дійсності.
Тема1.3: «Множинний регресійний аналіз».
На практиці економічний процес змінюється під впливом багатьох різноманітних факторів, які необхідно вміти виявляти та оцінювати.
Розглянемо деякі приклади.
Описати і дослідити зв’язок між економічними показниками можна за допомогою лінійної множинної регресії. Дані залежності є стохастичними і в класичних регресійних моделях встановлюють зв’язок випадкової результативної змінної Y і незалежних змінних:
Х1 , Х 2 ,....., Х m у випадку n - спостережень.
Стохастична залежність, що визначається лінійною регресією у випадку m пояснюючих змінних може бути виявлена лише при багаторазовому повторенні спостережень. Результати спостереження представляються у вигляді таблиці статистичних даних.
Остання залежність має вигляд лінійної регресії у випадку m пояснюючих змінних.
Y = β 0 Х 0 + β1 Х1 + ..... + β m Х m + U (3.1),
Де Х 0 = 1 - фіктивна змінна; Y - залежна (пояснювальна) змінна; Х1 ,.., Х m − незалежні
(пояснюючі) змінні; U - помилки; β0 , β1 ,.., β m - невідомі параметри, які потрібно оцінити.
Якщо позначити оцінки параметрів β0 , β1 ,.., β m через b0 , b1 ,.., bm , то отримаємо наступне рівняння лінійної багатофакторної регресії:
6
ˆ |
Х 0 |
+ b1 Х1 + ..... + bm Х m |
(3.2). |
Y = b0 |
Враховуючи табличний запис статистичних даних показників рівняння лінійної множинної регресії (3.1) набуде вигляду (3.3)
уi = β0 xi 0 + β1 xi1 + ..... + β m xim + ui , (3.3) де i = 1,2,..., n
Якщо b0 , b1 ,.., bm можливі оцінки β0 , β1 ,.., β m , тоді регресія (3.3) набуде вигляду (3.4) yˆ i = b0 xi 0 + b1 xi1 + ..... + bm xim .
Знаходження МНК - оцінок b0 , b1 ,.., bm лінійної множинної регресії може бути здійснене декількома способами.
1 спосіб. Знаходження МНК - оцінок із системи нормальних рівнянь, яка в багатофакторному випадку має вигляд:
b0 ∑xi20 + b1 ∑xi0 * xi1 + ... + bm ∑xi0 * xim = ∑yi xi 0b0 ∑xi1 xi0 + b1 ∑xi21 + ... + bm ∑xi1 * xim =∑yi xi1
b0 ∑xim xi0 + b1 ∑xim xi1 + ... + bm ∑xim2 =∑yi xim
Розв’язавши систему лінійних рівнянь отримаємо МНК-оцінки множинної b0 , b1 ,.., bm .
Обчислимо надійні зони регресії (довірчі інтервали для математичного сподівання) як
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∑ui2 |
||
|
|
|
|
|
|
−1 |
|
|
|
|
|
|
|
−1 |
|
|
||||
|
|
|
T |
|
T |
|
|
|
|
|
T |
T |
|
|
i=1 |
|
|
|||
( yˆ i − tα / 2,k σˆ u X i |
(X |
|
X ) |
X i ; yˆ i + tα / 2,k σˆ u |
|
X i (X |
|
X ) X i ), |
де |
σˆ u = |
|
|
- незміщена |
|||||||
|
|
|
n − m |
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
− 1 |
||
оцінка дисперсії залишків. |
|
|
|
|
|
|
|
|
|
|
||||||||||
Довірчі |
|
інтервали |
|
|
для |
параметрів |
|
(i = 1...m) |
обчислюються |
|||||||||||
|
|
|
ai |
|||||||||||||||||
(aˆ i − tα / 2,k |
|
; aˆ i + tα / 2,k |
|
|
), де cii - діагональні елементи матриці (X T X )−1 . |
|||||||||||||||
σˆ u2 cii |
σˆ u2 cii |
|||||||||||||||||||
|
|
|
|
Тема1.4: «Поняття мультиколінеарності, методи визначення |
та способи усунення» Мультиколінеарність – це існування тісної лінійної залежності (або сильної кореляції) в
наборі пояснюючих змінних Х1 , Х 2 ,..., Х m .
Наслідки мультиколінеарності:
1.Падає наочність оцінювання, яка виявляється наступним чином:
1.1помилки деяких конкретних оцінок параметрів регресії стають занадто великими;
1.2ці помилки є досить корельовано одна з одною;
1.3дисперсія оцінок параметрів регресії різко збільшується.
7
2. Оцінки параметрів регресійної моделі можуть бути незначущими через наявність
взаємозв’язку між пояснюючими змінними ( Х1 , Х 2 ,..., Х m , де m - кількість пояснюючих змінних).
3.Оцінки параметрів стають досить чутливими до обсягів сукупності спостережень.
1.Інформацію про парну залежність можна отримати із кореляційної матриці, вигляд якої наступний
|
R |
R |
R |
... |
R |
|
|
|
|
|
|
|
|
|
11 |
12 |
13 |
... |
1m |
|
|
|
|
|
|
|
|
R21 |
R22 |
R23 |
R2m |
|
|
|
|
|
|
|
|||
R = |
R |
R |
R |
... |
R |
|
, де R |
|
(i = 1, |
|
, j = 1, |
|
) - коефіцієнти парної кореляції. |
|
m |
m |
|||||||||||
|
31 |
32 |
33 |
|
3m |
|
ij |
|
|
|
|
|
|
... ... ... |
... |
... |
|
|
|
|
|
|
|
|
|||
|
|
Rm2 |
Rm3 |
... |
|
|
|
|
|
|
|
|
|
Rm1 |
Rmm |
|
|
|
|
|
|
|
Явище мультиколінеарності не зводиться до існування лише парної кореляції між пояснюючими змінними. Висновок про присутність або відсутність мультиколінеарності робиться на основі значення визначника кореляційної матриці det(R) [0;1].
1)Якщо det(R) = 0 , то існує повна мультиколінеарність. 2)Якщо det(R) = 1, то мультиколінеарність відсутня. 3)Якщо det(R) → 0 , то існує мультиколінеарність.
2. Якщо в економетричній моделі знайдене мале значення параметра вm в разі високого рівня коефіцієнта детермінації (R 2 ), це також свідчить про наявність мультиколінеарності та ін.
Усі ці методи виявлення мультиколінеарності мають один спільний недолік: жодний із них чітко не розмежовує випадок, коли мультиколінеарність, яку слід вважати „ істотною” та неодмінно враховувати, і випадок, коли мультиколінеарність можна знехтувати.
Алгоритм Феррара – Глобера дозволяє найповніше дослідити мультиколінеарність між пояснюючими змінними. Цей алгоритм містить три види статистичних критеріїв, згідно з якими перевіряється відповідно мультиколінеарність:
а) усього масиву пояснюючих змінних (χ2 – „ хі квадрат”);
б)кожної пояснюючої змінної і рештою пояснюючих змінних (F - критерій); в)кожної пари пояснюючих змінних (t-критерій).
Усі ці критерії при порівнянні з їх критичними значеннями дають змогу зробити конкретні висновки щодо наявності чи відсутності мультиколінеарності пояснюючих змінних.
Перевіримо набір пояснюючих змінних на мультиколінеарність за допомогою алгоритму Феррара – Глобера у випадку трьох пояснюючих змінних Х1 , Х 2 , X 3 .
8
|
|
|
|
|
|
|
|
x |
|
|
x |
|
|
x |
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
11 |
|
|
12 |
|
|
13 |
|
|
|
|
|
|
|
|
|
||||
1.1 |
Запишемо |
матрицю |
X = x21 |
|
|
x22 |
|
|
x23 , |
|
елементи якої |
позначимо |
|
xij |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
xn2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
xn1 |
|
|
|
|
xn3 |
|
|
|
|
|
|
|
|
|
|||||
( i = 1, |
|
|
j = 1,2,3 ), де n - кількість спостережень. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
Обчислимо середні значення та стандартні відхилення пояснюючих змінних X1, X2, X3. |
|
|
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∑xij |
|
|
∑(xij - |
|
j )2 |
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
δ j = |
X |
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
Перший спосіб: Використаємо формули: |
X j = |
, |
де |
X j - |
|||||||||||||||||||||||
|
n |
n |
, |
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
середнє |
значення j |
– |
тої пояснюючої |
змінної; |
|
xij |
- власне значення j – |
тої пояснюючої |
|||||||||||||||||||
змінної; |
j – номер пояснюючої змінної; i |
– номер точки спостереження; |
δ j - |
стандартне |
|||||||||||||||||||||||
відхилення j-тої пояснюючої змінної. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
Другий спосіб: Використовуючи функції «СРЗНАЧ» та «СТАНДОТКЛОН» в Excel. |
|
|
|||||||||||||||||||||||||
1.3 Знайдемо кореляційну матрицю R. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Для знаходження кореляційної матриці R необхідно кожен елемент матриці ( X *T × X * ) |
|||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
R |
R |
R |
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
1 |
|
|
|
11 |
12 |
|
13 |
|
|
|
|
|
|
|
|
|
|
||||||
помножити на |
|
і отримаємо |
R = R |
|
R |
|
|
R |
|
. |
|
|
|
|
|
|
|
|
|
||||||||
n -1 |
21 |
22 |
23 |
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
R31 |
R32 |
R33 |
|
|
|
|
|
|
|
|
|
1.4Знайдемо визначник кореляційної матриці, тобто det(R). Якщо det(R) наближається до нуля, то в масиві пояснюючих змінних може існувати мультиколінеарність. Прологарифмуємо визначник матриці R, тобто знайдемо ln[detR].
1.5Обчислимокритерій χ2 за формулою: χфакт2 = - n -1 - 1 (2m + 5) ln (det R) .
6
Знайдене значення χфакт2 порівняємо з табличним значенням χ табл2 . Табличне значення χ табл2
знаходимо за таблицею розподілу Пірсона, коли маємо 1 m(m -1)ступенів вільності та рівень
|
|
|
|
|
|
|
|
|
2 |
|
|
|
значущості |
α=0,05. |
Якщо χ факт2 |
> χ табл2 , |
то в |
масиві |
пояснюючих |
змінних |
існує |
||||
мультиколінеарність. |
|
|
|
|
|
|
|
|
|
|
|
|
1.6 Обчислимо Fj-критерії. |
|
|
|
|
|
|
|
|||||
Для визначення |
Fj- критеріїв необхідно знайти матрицю R-1=С, яка є оберненою до |
|||||||||||
|
|
|
с |
с |
с |
|
|
|
|
|
|
|
|
|
|
11 |
12 |
13 |
|
|
|
|
|
|
|
матриці R, |
а саме |
С = с21 |
с22 |
с23 |
. |
Безпосередньо |
Fj- критеріїв |
обчислюється за |
||||
|
|
|
с31 |
с32 |
с33 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
n - m |
|
|
(к = 1,2,3)- |
|
|
|
|
|||
формулою: |
F = (ckk |
-1) |
|
|
, |
де |
ckk |
діагональні елементи матриці |
С . |
|||
|
|
|||||||||||
|
|
m -1 |
|
|
|
|
|
|
|
|
9
Обчислені критерії порівнюються з табличним значенням Fтабл . Табличне значення Fтабл
знаходимо за таблицями розподілу Фішера, коли маємо n, m ступенів вільності, та при рівні значущості α=0,05. Якщо Fj > Fтабл , то Х j пояснююча змінна мультиколінеарна з іншими.
1.7 Визначимо частинні коефіцієнти кореляції.
Частинні коефіцієнти кореляції показують тісноту зв’язку між двома пояснюючими змінними за умови, що всі інші змінні не впливають на цей зв’язок і обчислюються за
формулою: rkj,s = |
|
−ckj |
|
. Вважають зв’язок тісним, якщо значення rkj,s |
→ 1 . |
|
|
|
|
||||
ckk c jj |
||||||
|
|
|
|
|
1.8 Визначимо t – критерій.
Ці критерії застосовуються для визначення мультиколінеарності двох пояснюючих
|
|
|
(rkj ,s |
|
|
|
) |
|
змінних і обчислюються за формулою: t |
|
= |
|
n − m |
||||
kj |
|
|
|
|
|
|
||
|
|
( 1 |
− rrj2,s ) |
|||||
|
|
|
Обчислені t – критерії порівнюються з табличним значенням tтабл . Табличне значення tтабл знаходимо за таблицями t-розподілу, коли маємо (n-m) ступенів вільності та при рівні значущості α=0,05. Якщо tkj > tтабл , то Х k і Х j пояснюючі змінні мультиколінеарні між собою.
Для подальшої побудови якісної множинної регресії необхідно позбутися від мультиколінеарності.
Змістовний модуль №2
Тема 2.1: «Поняття гетероскедастичності, методи визначення та способи усунення»
Явище гомоскедастичності виникає в ситуаціях, коли об’єкти, що спостерігаються однорідні, наприклад при дослідженні роботи однотипних підприємств. Якщо ж досліджуються неоднорідні об’єкти, то виникає проблема гетероскедастичності:
Приклад:Вивчається залежність прибутку фірми від розміру основних фондів. Зрозуміло, що для великих фірм коливання прибутку буде вищим ніж для малих.
Отже, гетероскедастичність стає проблемою, коли значення змінних у рівнянні регресії значно відрізняються в різних спостереженнях. При побудові класичної лінійної регресії одне із передумов побудови було постійність дисперсії залишків. Це явище називається гомоскедастичністю. Якщо ж це припущення не задовольняється і дисперсія залишку змінюється для кожного спостереження або групи спостережень то це явище називається гетескедастичністю.
10