Визначення мультиколінеарності. Привіт студент Повна оцінка мультиколінеарності факторів ускладнюється

💖 Подобається?Поділися з друзями посиланням

ПИТАННЯ НА ІСПИТ ПО КУРСУ

«ЕКОНОМЕТРИКА (просунутий рівень)»

1. Модель множинної регресії. Види моделей множинної регресії.

2. Матрична форма запису та матрична формула оцінки параметрів множинної регресії.

3. Оцінка якості рівняння регресії. Пояснена та непояснена складові рівняння регресії.

4. Коефіцієнт детермінації та коефіцієнт кореляції, їх розрахунок у моделі парної регресії.

5. Вибірковий множинний коефіцієнт детермінації та перевірка його значущості за критерієм Фішера.

6. Перевірка значущості множинного рівняння регресії за допомогою – критерію Фішера.

Значущість рівняння регресії, тобто. відповідність економетричної моделі Y= aˆ0 + aˆ 1 X+ eфактичним (емпіричним) даними, дозволяє ус-

тановити, чи придатне рівняння регресії для практичного використання (для аналізу та прогнозу), чи ні.

Для перевірки значущості рівняння використовується F- Критерій Фішера. Він обчислюється за фактичними даними як відношення незміщеною

дисперсії залишкової компоненти до дисперсії вихідного ряду Перевірка значущості коефіцієнта детермінації здійснюється за допомогою критерію Фішера, розрахункове значення якого знаходиться за формулою:

,

де коефіцієнт множинної кореляції - кількість спостережень - кількість змінних - діагональний елемент матриці .

Для перевірки гіпотези за таблицею визначають табличне значення

критерію Фішера F.

F(α ν1 ν2) – це максимально можливе значення критерію залежно від впливу випадкових факторів при даних ступенях свободи

ν = m1, ν2 = nm−1, та рівні значущості α . Тут m– кількість аргументів у моделі.

Рівень значущості α – можливість відкинути правильну гіпотезу, але за умови, що вона вірна (помилка першого роду). Зазвичай приймається рівною 0,05 або 0,01.

Якщо Fф> Fтабл, то H0- гіпотеза про випадкову природу оцінюваних показників відхиляється і визнається їх статистична значимість і надійність. Якщо наобіг, то гіпотеза H0не відхиляється та визнається статистична незначимість, ненадійність рівняння регресії.

7. Оцінка важливості лінійних коефіцієнтів кореляції. -Критерій Стьюдента.

Для оцінки статистичної значущості коефіцієнтів регресії та коефіцієнта кореляції розраховується t-критерій Стьюдента. Висувається гіпотеза H 0 про випадкову природу показників, тобто. про незначне їх відмінність від нуля. Значення t-критерію, що спостерігаються, розраховуються за формулами:

, , ,

де – випадкові помилки параметрів лінійної регресії та коефіцієнта кореляції.


Для лінійної парної регресії виконується рівність , тому перевірки гіпотез про значущість коефіцієнта регресії за чинника і коефіцієнта кореляції рівносильні перевірці гіпотези про статистичної значущості рівняння регресії загалом.

Взагалі випадкові помилки розраховуються за формулами:

, , .

де - Залишкова дисперсія на один ступінь свободи:

.

Табличне (критичне) значення t-статистики знаходять за таблицями розподілу t-Стьюдента при рівні значущості α = 0,05 та числі ступенів свободи. Якщо tтабл< tфакт, то H 0 відхиляється, тобто. коефіцієнти регресії невипадково відрізняються від нуля і сформувалися під впливом систематично діючого чинника.

8. Аналіз впливу факторів на основі багатофакторних регресійних моделей: коефіцієнт еластичності; бета-коефіцієнт та дельта-коефіцієнт.

9. Способи розрахунку параметрів, виробничої функції Кобба-Дугласа.

10. Регресійні рівняння із змінною структурою. Фіктивні змінні. Види фіктивних змінних. Переваги використання фіктивних змінних під час побудови регресійних моделей.

11. Використання фіктивних змінних на дослідження структурних змін. Моделювання сезонності. Кількість бінарних змінних при kградаціях.

Поняття мультиколінеарності. Методи виявлення та усунення мультиколлінеарності.

Кількісна оцінка параметрів рівняння регресії передбачає виконання умови лінійної незалежності між незалежними змінними. Однак на практиці пояснюючі змінні часто мають високий рівень взаємозв'язку між собою, що є порушенням зазначеної умови. Дане явище зветься мультиколлінеарності.

Термін колінеарність (collinear) позначає лінійну кореляцію між двома незалежними змінними, а Мультиколлінеарність (multi-collinear) – між більш ніж двома незалежними змінними. Зазвичай під мультиколлінеарністю розуміють обидва випадки.

Таким чином, мультиколінеарність означає наявність тісної лінійної залежності чи сильної кореляції між двома чи більше пояснювальними (незалежними) змінними.Одним із завдань економетрії є виявлення мультиколінеарності між незалежними змінними.

Розрізняють досконалуі недосконалумультиколлінеарність. Досконаламультиколлінеарність означає, що варіація однієї з незалежних змінних може бути повністю пояснена зміною іншої (інших) змінної.

Інакше взаємозв'язок між ними виражається лінійною функцією

Графічна інтерпретація цього випадку:

Недосконаламультиколлінеарність може бути визначена як лінійний функціональний зв'язок між двома або більше незалежними змінними, який настільки сильний, що може істотно торкнутися оцінки коефіцієнтів при змінних моделі.

Недосконала мультиколлінеарність виникає тоді, коли дві (або більше) незалежні змінні знаходяться між собою у лінійній функціональній залежності, що описується рівнянням

На відміну від раніше розглянутого рівняння, це включає величину стохастичної помилки. Це передбачає, що незважаючи на те, що взаємозв'язок між і може бути дуже сильним, вона не настільки сильна, щоб повністю пояснити зміну змінної зміною, тобто. існує деяка незрозуміла варіація.

Графічно цей випадок представлений таким чином:


У яких випадках може виникнути мультиколлинеарность? Їх принаймні два.

1. Наявна глобальна тенденція одночасної зміни економічних показників. Як приклад можна навести такі показники як обсяги виробництва, дохід, споживання, накопичення, зайнятість, інвестиції тощо, значення яких зростають у період економічного зростання і знижуються в період спаду.

Однією із причин мультиколлінеарності є наявність тренду (тенденції) у динаміці економічних показників.

2. Використання лагових значень змінних економічних моделях.

Як приклад можна розглядати моделі, в яких використовуються як величини прибутку поточного періоду, так і витрати на споживання попереднього.

В цілому при дослідженні економічних процесів та явищ методами економетрії дуже важко уникнути залежності між показниками.

Наслідки мультиколінеарності зводяться до

1. зниження точності оцінювання, яка проявляється через

a. надто великі помилки деяких оцінок,

b. високий рівень кореляції між помилками,

c. Різке збільшення дисперсії оцінок параметрів. Даний прояв мультиколлінеарності може також позначитися на отриманні несподіваного знака за оцінками параметрів;

2. незначущість оцінок параметрів деяких змінних моделей завдяки, в першу чергу, наявності їх взаємозв'язку з іншими змінними, а не через те, що вони не впливають на залежну змінну. Тобто статистика параметрів моделі не відповідає рівню значущості (критерій Стьюдента не витримує перевірки на адекватність);

3. сильному підвищенню чутливості оцінок властивостей до розмірів сукупності спостережень. Тобто збільшення числа спостережень може вплинути на величини оцінок параметрів моделі;

4. збільшення довірчих інтервалів;

5. підвищенню чутливості оцінок до зміни специфікації моделі (наприклад, до додавання в модель або виключення з моделі змінних, що навіть несуттєво впливають).

Ознаки мультиколінеарності:

1. коли серед парних коефіцієнтів кореляції

між пояснювальними (незалежними) змінними є такі, рівень яких або наближається, або дорівнює коефіцієнту множинної кореляції.

Якщо моделі більше двох незалежних змінних, необхідно більш детальне дослідження взаємозв'язків між змінними. Ця процедура може бути здійснена за допомогою алгоритму Фаррара-Глобера;

2. коли визначник матриці коефіцієнтів парної кореляції між незалежними змінними наближається до нуля:

якщо , то має місце повна мультиколлінеарність,

якщо , то мультиколінеарність відсутня;

3. якщо в моделі знайдено невелике значення параметра при високому рівні коефіцієнта приватної детермінації і при цьому критерій істотно відрізняється від нуля;

Відповіді на екзаменаційні квитки з економетрики Яковлєва Ангеліна Віталіївна

37. Визначення мультиколлінеарності. Наслідки мультиколінеарності. Методи виявлення мультиколінеарності

Найбільші труднощі у використанні апарату множинної регресії виникають за наявності мультиколлінеарності факторних змінних, коли більш ніж два фактори пов'язані між собою лінійною залежністю.

Мультиколлінеарність для лінійної множинної регресії називається наявність лінійної залежності між факторними змінними, включеними в модель.

Мультиколлінеарність - порушення однієї з основних умов, що лежать в основі побудови лінійної моделі множинної регресії.

Мультиколлінеарність у матричному вигляді – це залежність між стовпцями матриці факторних змінних Х:

Якщо не зважати на одиничний вектор, то розмірність даної матриці дорівнює n*n.Якщо ранг матриці Хменше n, то в моделі є повна або строга мультиколлінеарність. Але на практиці повна мультиколінеарність майже не зустрічається.

Можна зробити висновок, що однією з основних причин присутності мультиколінеарності в моделі множинної регресії є погана матриця факторних змінних Х.

Чим сильніша мультиколлінеарність факторних змінних, тим менш надійною є оцінка розподілу суми поясненої варіації за окремими факторами за допомогою методу найменших квадратів.

Включення в модель мультиколінеарних факторів небажано з кількох причин:

1) основна гіпотеза про незначущість коефіцієнтів множинної регресії може підтвердитися, але сама модель регресії при перевірці за допомогою F-критерію виявляється значущою, що говорить про завищену величину коефіцієнта множинної кореляції;

2) отримані оцінки коефіцієнтів моделі множинної регресії можуть бути невиправдано завищені чи мати неправильні знаки;

3) додавання або виключення з вихідних даних одного-двох спостережень дуже впливає на оцінки коефіцієнтів моделі;

4) мультиколлінеарні фактори, включені до моделі множинної регресії, здатні зробити її непридатною для подальшого застосування.

Конкретних методів виявлення мультиколлінеарності немає, а прийнято застосовувати ряд емпіричних прийомів. У більшості випадків множинний регресійний аналіз починається з розгляду кореляційної матриці факторних змінних R або матриці ( ХТХ).

Кореляційною матрицею факторних зміннихназивається симетрична щодо головної діагоналі матриця лінійних коефіцієнтів парної кореляції факторних змінних:

де rij- Лінійний коефіцієнт парної кореляції між i-м і j-им факторними змінними,

На діагоналі кореляційної матриці знаходяться одиниці, тому що коефіцієнт кореляції факторної змінної із самою собою дорівнює одиниці.

При розгляді цієї матриці з метою виявлення мультиколінеарних факторів керуються такими правилами:

1) якщо в кореляційній матриці факторних змінних присутні коефіцієнти парної кореляції по абсолютній величині більші 0,8, то роблять висновок, що в даній моделі множинної регресії існує багатоколінеарність;

2) обчислюють власні числа кореляційної матриці факторних змінних ?minі ? max. Якщо ? min‹10-5, то в моделі регресії є мультиколлінеарність. Якщо ставлення

то також роблять висновок про наявність мультиколінеарних факторних змінних;

3) обчислюють визначник кореляційної матриці факторних змінних. Якщо його величина дуже мала, то моделі регресії присутня мультиколлинеарность.

Цей текст є ознайомлювальним фрагментом.З книги 100 великих чудес техніки автора Муський Сергій Анатолійович

Літак далекого радіолокаційного виявлення «Боїнг» E-3 Це було 8 травня 1942 року в Кораловому морі. «О 10 годині 55 хвилин радіолокаційна установка виявила велику групу ворожих літаків, що підходила з північного сходу. Об 11 годині 13 хвилин спостерігачі «Лексінгтону»

З книги Енциклопедія безпеки автора Громов В І

1.3.5. Засоби виявлення та знешкодження мін Виявлення мін, окремих фугасів, а також мінованих ділянок проводиться: - за зовнішніми ознаками; - спеціальними приладами (міношукачі, щупи, стетоскопи); - собаками мінорозшукової служби.

З книги Відповіді на екзаменаційні квитки з економетрики автора Яковлєва Ангеліна Віталіївна

38. Методи усунення мультиколлінеарності Якщо оцінену модель регресії передбачається використовувати для вивчення економічних зв'язків, то усунення мультиколінеарних факторів є обов'язковим, тому що їх наявність у моделі може призвести до неправильних

З книги Судова медицина та психіатрія: Шпаргалка автора Автор невідомий

З книги Цивільний кодекс РФ автора ГАРАНТ

З книги "Шпигунські штучки 2" або як зберегти свої секрети автора Андріанов Володимир Ілліч

4.2. Спеціальні інструменти виявлення схованок 4.2.1. Пошукове дзеркалоОсновним інструментом виявлення схованок є пошукове дзеркало. Воно може бути маленьким, приблизно як у зубного лікаря, може бути набагато більше. Дзеркало (рис. 4.2) кріпиться на

З книги Криміналістика. Шпаргалки автора Петренко Андрій Віталійович

27. Правила та класифікація методів виявлення слідів 1. Першими повинні застосовуватися методи, що не руйнують. Потрібно починати з мікрометодів: чи не залишилося якихось жирових слідів, дрібних клітин відшарованої шкіри.2. Далі застосовуються неруйнівні методи,

Із книги Сила шаманів. Бойова та лікувальна магія індіанців Дикого Заходу автора Стукалін Юрій Вікторович

38. Сліди зубів: особливості виявлення та їх ознаки Досить поширеними є трасологічні дослідження слідів зубів людини. Криміналістика вивчає лише сліди зубів на матеріалах, поверхнях, їжі; сліди на тілі людини - предмет вивчення

З книги Підручник виживання снайпера [Стріляй рідко, але влучно!] автора Федосєєв Семен Леонідович

41. Особливості виявлення, вилучення куль і гільз У більшості випадків гільза залишається на місці злочину, спосіб виявлення може бути: а) вибірковим; б) суцільний. Застосування вибіркового способу для короткоствольної зброї таке: - встановлюється

З книги Обман та провокації у малому та середньому бізнесі автора Гладкий Олексій Анатолійович

57. Засоби для виявлення мікрооб'єктів Мікрооб'єкти - це матеріальні об'єкти, пов'язані з подією злочину, пошук, виявлення, вилучення та дослідження яких через їх малі розміри та маси скрутні або неможливі неозброєним оком.

З книги Базова підготовка спецназу [Екстремальне виживання] автора Ардашев Олексій Миколайович

58. Особливості виявлення мікрооб'єктів Пошук та виявлення мікрооб'єктів повинні здійснюватися з дотриманням запобіжних заходів. Усі об'єкти спочатку оглядаються без будь-яких переміщень; при зміні положення об'єкта під нього поміщають чистий лист кальки,

З книги автора

Методи виявлення чаклунів «Є багато способів відрізнити чаклуна від шамана, хоча більшість людей, які володіють потужною Силою, практикують і те, й інше, – говорили чирикауа апачі. – Людина могла жити поруч із чаклуном і не знати про це. Наприклад, чаклункою могла бути його

З книги автора

З книги автора

Антижучок, або Засоби виявлення шпигунської апаратури Як уже зазначалося, в даний час на російському ринку представлено безліч різних шпигунських пристроїв і розвідувальної апаратури: приховані мікрофони, жучки, системи прихованого

Зазначимо, що у ряді випадків мультиколлінеарність не є таким вже серйозним «злом», щоб докладати суттєвих зусиль щодо її виявлення та усунення. В основному все залежить від цілей дослідження.
Якщо основне завдання моделі - прогноз майбутніх значень залежної змінної, то при досить великому коефіцієнті детермінації R2(gt; 0,9) наявність мультиколлінеарності зазвичай не позначається на прогнозних якостях моделі (якщо в майбутньому між корельованими змінними зберігатимуться ті самі відносини, що й раніше ).
Якщо необхідно визначити ступінь впливу кожної з змінних, що пояснюють, на залежну змінну, то мультиколлінеарність, що призводить до збільшення стандартних помилок, швидше за все, спотворить справжні залежності між змінними. У цій ситуації мультиколінеарність є серйозною проблемою.
Єдиного методу усунення мультиколлінеарності, придатного у будь-якому випадку, не існує. Це пов'язано з тим, що причини та наслідки мультиколінеарності неоднозначні та багато в чому залежать від результатів вибірки.
Виняток змінної з моделі
Найпростішим методом усунення мультиколлінеарності є виняток із моделі однієї або низки корелейованих змінних. При застосуванні цього методу необхідна певна обачність. У цій ситуації можливі помилки специфікації, тому в прикладних економетричних моделях бажано не виключати перемінні, що пояснюють доти, поки мультиколлінеарність не стане серйозною проблемою.
Отримання додаткових даних або нової вибірки
Оскільки мультиколлінеарність безпосередньо залежить від вибірки, то, можливо, при іншій вибірці мультиколлінеарності не буде або вона не буде такою серйозною. Іноді зменшення мультиколлинеарности досить збільшити обсяг вибірки. Наприклад, при використанні щорічних даних можна перейти до поквартальних даних. Збільшення кількості даних скорочує дисперсії коефіцієнтів регресії і цим збільшує їх статистичну значимість. Проте отримання нової вибірки чи розширення старої який завжди можливе чи пов'язані з серйозними витратами. Крім того, такий підхід може посилити автокореляцію. Ці проблеми обмежують можливість використання цього методу.
Зміна специфікації моделі
У ряді випадків проблема мультиколлінеарності може бути вирішена шляхом зміни специфікації моделі: або змінюється форма моделі, або додаються пояснюючі змінні, не враховані в початковій моделі, але які впливають на залежну змінну. Якщо цей метод має підстави, його використання зменшує суму квадратів відхилень, цим скорочуючи стандартну помилку регресії. Це призводить до зменшення стандартних помилок коефіцієнтів.
Використання попередньої інформації про деякі параметри
Іноді при побудові моделі множинної регресії можна скористатися попередньою інформацією, зокрема, відомими значеннями деяких коефіцієнтів регресії.
Цілком ймовірно, що значення коефіцієнтів, розраховані для будь-яких попередніх (зазвичай більш простих) моделей або для аналогічної моделі за раніше отриманою вибіркою, можуть бути використані для моделі, що розробляється в даний момент.
Відбір найбільш істотних змінних, що пояснюють. Процедура послідовного приєднання елементів
Перехід до меншої кількості змін, що пояснюють, може зменшити дублювання інформації, що доставляється сильно взаємозалежними ознаками. Саме з цим ми стикаємося у разі мультиколінеарності змінних, що пояснюють.

36. Методи виявлення мультиколлиарности. приватна кореляція

Найбільші труднощі у використанні апарату множинної регресії виникають за наявності мультиколлінеарності факторних змінних, коли більш ніж два фактори пов'язані між собою лінійною залежністю.

Мультиколлінеарність для лінійної множинної регресії називається наявність лінійної залежності між факторними змінними, включеними в модель.

Мультиколлінеарність - порушення однієї з основних умов, що лежать в основі побудови лінійної моделі множинної регресії.

Мультиколлінеарність у матричному вигляді – це залежність між стовпцями матриці факторних змінних Х:

Якщо не зважати на одиничний вектор, то розмірність даної матриці дорівнює n*n. Якщо ранг матриці Х менше n, то в моделі є повна або строга мультиколлінеарність. Але на практиці повна мультиколінеарність майже не зустрічається.

Можна дійти невтішного висновку, що з основних причин присутності мультиколлинеарности в моделі множинної регресії є погана матриця факторних змінних Х.

Чим сильніша мультиколлінеарність факторних змінних, тим менш надійною є оцінка розподілу суми поясненої варіації за окремими факторами за допомогою методу найменших квадратів.

Включення в модель мультиколінеарних факторів небажано з кількох причин:

1) основна гіпотеза про незначущість коефіцієнтів множинної регресії може підтвердитися, але сама модель регресії при перевірці за допомогою F-критерію виявляється значущою, що говорить про завищену величину коефіцієнта множинної кореляції;

2) отримані оцінки коефіцієнтів моделі множинної регресії можуть бути невиправдано завищені чи мати неправильні знаки;

3) додавання або виключення з вихідних даних одного-двох спостережень дуже впливає на оцінки коефіцієнтів моделі;

4) мультиколлінеарні фактори, включені до моделі множинної регресії, здатні зробити її непридатною для подальшого застосування.

Конкретних методів виявлення мультиколлінеарності немає, а прийнято застосовувати ряд емпіричних прийомів. У більшості випадків множинний регресійний аналіз починається з розгляду кореляційної матриці факторних змінних R або матриці (ХТХ).

Кореляційною матрицею факторних змінних називається симетрична щодо головної діагоналі матриця лінійних коефіцієнтів парної кореляції факторних змінних:

де rij - лінійний коефіцієнт парної кореляції між i-м і j-им факторними змінними,

На діагоналі кореляційної матриці знаходяться одиниці, тому що коефіцієнт кореляції факторної змінної із самою собою дорівнює одиниці.

При розгляді цієї матриці з метою виявлення мультиколінеарних факторів керуються такими правилами:

1) якщо в кореляційній матриці факторних змінних присутні коефіцієнти парної кореляції по абсолютній величині більші 0,8, то роблять висновок, що в даній моделі множинної регресії існує багатоколінеарність;

2) обчислюють власні числа кореляційної матриці факторних змінних λmin і λmax. Якщо λmin‹10-5, то моделі регресії присутня мультиколлинеарность. Якщо ставлення

то також роблять висновок про наявність мультиколінеарних факторних змінних;

3) обчислюють визначник кореляційної матриці факторних змінних. Якщо його величина дуже мала, то моделі регресії присутня мультиколлинеарность.

37. шляхи вирішення проблеми мультиколіарності

Якщо оцінену модель регресії передбачається використовуватиме вивчення економічних зв'язків, то усунення мультиколлинеарных чинників є обов'язковим, оскільки їх наявність моделі може призвести до неправильним знакам коефіцієнтів регресії.

При побудові прогнозу з урахуванням моделі регресії з мультиколлинеарными чинниками необхідно оцінювати ситуацію за величиною помилки прогнозу. Якщо її величина є задовільною, модель можна використовувати, незважаючи на мультиколлінеарність. Якщо ж величина помилки прогнозу велика, усунення мультиколлинеарных чинників з моделі регресії одна із методів підвищення точності прогнозу.

До основних способів усунення мультиколлінеарності в моделі множинної регресії відносяться:

1) один із найпростіших способів усунення мультиколлінеарності полягає в отриманні додаткових даних. Однак на практиці в деяких випадках реалізація цього методу може бути дуже скрутною;

2) спосіб перетворення змінних, наприклад, замість значень всіх змінних, що беруть участь у моделі (і результативної в тому числі) можна взяти їх логарифми:

lny=β0+β1lnx1+β2lnx2+ε.

Однак цей спосіб також не здатний гарантувати повного усунення мультиколінеарності факторів;

Якщо розглянуті способи не допомогли усунути мультиколлінеарність факторів, то переходять до використання зміщених методів оцінки невідомих параметрів моделі регресії, або методів виключення змінних моделей множинної регресії.

Якщо жодну з факторних змінних, включених у модель множинної регресії, виключити не можна, то застосовують один із основних зміщених методів оцінки коефіцієнтів моделі регресії – гребеневу регресію або рідж (ridge).

При використанні методу гребеневої регресії до всіх діагональних елементів матриці (ХТХ) додається невелика кількість τ: 10-6 ‹ τ ‹ 0.1. Оцінювання невідомих параметрів моделі множинної регресії здійснюється за формулою:

де ln - Поодинока матриця.

Результатом застосування гребеневої регресії є зменшення стандартних помилок коефіцієнтів моделі множинної регресії через їх стабілізацію до певного числа.

Метод головних компонент одна із основних методів виключення змінних з моделі множинної регресії.

Даний метод використовується для виключення або зменшення мультиколінеарності факторних змінних моделей регресії. Суть методу полягає у скороченні числа факторних змінних до найбільш суттєвих факторів. Це досягається за допомогою лінійного перетворення всіх факторних змінних xi (i=0,…,n) в нові змінні, які називаються головними компонентами, тобто здійснюється перехід від матриці факторних змінних Х до матриці головних компонент F. При цьому висувається вимога, щоб виділення першої головної компоненти відповідав максимум загальної дисперсії всіх факторних змінних xi (i=0,…,n), другий компоненті – максимум дисперсії, що залишилася, після того як вплив першої головної компоненти виключається і т. д.

Метод покрокового включення змінних полягає у виборі з усього можливого набору факторних змінних саме ті, які істотно впливають на результативну змінну.

Метод покрокового включення здійснюється за таким алгоритмом:

1) зі всіх факторних змінних у модель регресії включаються ті змінні, яким відповідає найбільший модуль лінійного коефіцієнта парної кореляції з результативною змінною;

2) при додаванні до моделі регресії нових факторних змінних перевіряється їх значимість за допомогою F-критерію Фішера. При цьому висувається основна гіпотеза про необґрунтованість включення факторної змінної xk до моделі множинної регресії. Зворотна гіпотеза полягає у твердженні про доцільність включення факторної змінної xk до моделі множинної регресії. Критичне значення F-критерію визначається як Fкрит(a;k1;k2), де а – рівень значущості, k1=1 і k2=n–l – число ступенів свободи, n – обсяг вибіркової сукупності, l – число оцінюваних за вибіркою параметрів. Спостережуване значення F-критерію розраховується за такою формулою:

де q - Число вже включених в модель регресії факторних змінних.

При перевірці основної гіпотези можливі такі ситуації.

Fнабл›Fкрит, то основна гіпотеза про необґрунтованість включення факторної змінної xk в модель множинної регресії відкидається. Отже, включення цієї змінної до моделі множинної регресії є обгрунтованим.

Якщо значення F-критерію (обчислене за вибірковими даними) менше або дорівнює критичного значення F-критерію (визначеного за таблицею розподілу Фішера-Снедекору), тобто Fнабл≤Fкрит, то основна гіпотеза про необґрунтованість включення факторної змінної xk в модель множинної регресії приймається. Отже, цю факторну змінну можна не включати в модель без шкоди для її якості

3) перевірка факторних змінних на значимість здійснюється доти, доки не знайдеться хоча б одна змінна, для якої не виконується умова Fнабл›Fкрит.

38. фіктивні змінні. Тест чоу

Термін "фіктивні змінні" використовується як протилежність "значним" змінним, що показує рівень кількісного показника, що приймає значення безперервного інтервалу. Як правило, фіктивна змінна – це індикаторна змінна, що відображає якісну характеристику. Найчастіше застосовуються бінарні фіктивні змінні, що приймають два значення, 0 та 1, залежно від певної умови. Наприклад, в результаті опитування групи людей 0 може означати, що опитуваний – чоловік, а 1 – жінка. До фіктивних змінних іноді відносять регресор, що складається з одних одиниць (тобто константу, вільний член), а також тимчасовий тренд.

Фіктивні змінні, будучи екзогенними, не створюють жодних труднощів при застосуванні ОМНК. Фіктивні змінні є ефективним інструментом побудови регресійних моделей та перевірки гіпотез.

Припустимо, що на основі зібраних даних було побудовано модель регресії. Перед дослідником стоїть завдання, чи варто вводити в отриману модель додаткові фіктивні змінні чи базисна модель є оптимальною. Це завдання вирішується за допомогою методу або тесту Чоу. Він застосовується у тих ситуаціях, коли основну вибіркову сукупність можна розділити на частини чи підвиборки. І тут можна перевірити припущення про більшу ефективність підвибірок проти загальної моделлю регресії.

Вважатимемо, що загальна модель регресії є модель регресії модель без обмежень. Позначимо цю модель через UN. Окремими підвиборками вважатимемо окремі випадки моделі регресії без обмежень. Позначимо ці приватні вибірки як PR.

Введемо такі позначення:

PR1 – перша підвибірка;

PR2 – друга підвибірка;

ESS (PR1) - сума квадратів залишків для першої підвиборки;

ESS(PR2) – сума квадратів залишків для другої підвиборки;

ESS(UN) – сума квадратів залишків загальної моделі регресії.

– сума квадратів залишків для спостережень першої підвиборки загальної моделі регресії;

– сума квадратів залишків для спостережень другої підвиборки загальної моделі регресії.

Для приватних моделей регресії справедливі такі нерівності:

Умова (ESS(PR1)+ESS(PR2))= ESS(UN)виконується лише тому випадку, якщо коефіцієнти приватних моделей регресії і коефіцієнти загальної моделі регресії без обмежень будуть однакові, але практично такий збіг зустрічається дуже рідко.

Основна гіпотеза формулюється як твердження про те, що якість загальної моделі регресії без обмежень краща за якість приватних моделей регресії або підвиборок.

Альтернативна чи зворотна гіпотеза стверджує, що якість загальної моделі регресії без обмежень гірша за якість приватних моделей регресії чи підвиборок

Ці гіпотези перевіряються за допомогою F-критерію Фішера-Снедекору.

Спостережуване значення F-критерію порівнюють із критичним значенням F-критерію, що визначається за таблицею розподілу Фішера-Снедекору.

а k1=m+1і k2=n-2m-2.

Спостережуване значення F-критерію розраховується за формулою: де ESS(UN) - ESS (PR1) - ESS (PR2)- Величина, що характеризує поліпшення якості моделі регресії після поділу її на підвиборки;

m– кількість факторних змінних (зокрема фіктивних);

n- Обсяг загальної вибіркової сукупності.

Якщо значення F-критерію (обчислене за вибірковими даними) більше критичного значення F-критерію (визначеного за таблицею розподілу Фішера-Снедекору), тобто. Fнабл>Fкріт, то основна гіпотеза відхиляється, і якість приватних моделей регресії перевищує якість загальної моделі регресії.

Якщо значення F-критерію (обчислене за вибірковими даними) менше або дорівнює критичного значення F-критерію (визначеного за таблицею розподілу Фішера-Снедекору), тобто. Fнабл?, то основна гіпотеза приймається, і розбивати загальну регресію на вибірки немає сенсу.

Якщо здійснюється перевірка значимості базисної регресії чи регресії з обмеженнями (restricted regression), то висувається основна гіпотеза виду:

Справедливість цієї гіпотези перевіряється за допомогою F-критерію Фішера-Снедекору.

Критичне значення F-критерію Фішера визначається за таблицею розподілу Фішера-Снедекору залежно від рівня значущості ата двох ступенів свободи свободи k1=m+1і k2=n–k–1.

Спостережуване значення F-критерію перетворюється на вигляд:

При перевірці висунутих гіпотез можливі такі ситуації.

Якщо значення F-критерію (обчислене за вибірковими даними) більше критичного значення F-критерію (визначеного за таблицею розподілу Фішера-Снедекору), тобто. Fнабл›Fкрит,то основна гіпотеза відхиляється, і в модель регресії необхідно вводити додаткові фіктивні змінні, тому що якість моделі регресії з обмеженнями вища за якість базисної або обмеженої моделі регресії.

Якщо значення F-критерію (обчислене за вибірковими даними) менше або дорівнює критичного значення F-критерію (визначеного за таблицею розподілу Фішера-Снедекору), тобто. Fнабл?, то основна гіпотеза приймається, і базисна модель регресії є задовільною, вводити модель додаткові фіктивні змінні немає сенсу.

39. система одночасних рівнянь (ендогенні, екзогенні, лагові змінні). Економічно значущі приклади систем одночасних рівнянь

Досі ми розглядали економетричні моделі, що задаються рівняннями, що виражають залежну (пояснену) змінну через пояснюючі змінні. Однак реальні економічні об'єкти, що досліджуються за допомогою економічних методів, призводять до розширення поняття економічної моделі, що описується системою регресійних рівнянь і тотожностей1.

1 На відміну від регресійних рівнянь тотожності не містять параметрів моделі, що підлягають оцінці, і не включають випадкової складової.

Особливістю цих систем є те, що кожне з рівнянь системи, крім «своїх» змінних, що пояснюють, може включати змінні, що пояснюються, з інших рівнянь. Таким чином, ми маємо не одну залежну змінну, а набір залежних змінних, що пояснюються, пов'язаних рівняннями системи. Таку систему називають також системою одночасних рівнянь, підкреслюючи той факт, що в системі одні й самі змінні одночасно розглядаються як залежні в одних рівняннях і незалежні в інших.

Системи одночасних рівнянь найбільш повно описують економічний об'єкт, що містить безліч взаємопов'язаних ендогенних (формуються всередині функціонування об'єкта) і екзогенних (ззовні, що задаються) змінних. При цьому як ендогенні та екзогенні можуть виступати лагові (взяті в попередній момент часу) змінні.

Класичним прикладом такої системи є модель попиту Qd та пропозиції Qs (див. § 9.1), коли попит на товар визначаться його ціною Р та доходом споживача /, пропозиція товару – його ціною Р і досягається рівновага між попитом та пропозицією:

У цій системі екзогенної змінної виступає дохід споживача /, а ендогенними – попит (пропозиція) товару Qd = Q» = Q та ціна товару (ціна рівноваги) Р.

В іншій моделі попиту та пропозиції як пояснює пропозицію Qf змінної може бути не тільки ціна товару Р у момент часу /, тобто. Рь але ціна товару в попередній момент часу Ptь тобто. лагова ендогенна змінна:

й"=Р4+Р5^+Рб^-1+Є2.

Узагальнюючи викладене, можна сказати, що економетринеська модель дозволяє пояснити поведінку ендогенних змінних залежно від значень екзогенних та лагових ендогенних змінних (інакше – залежно від зумовлених, тобто наперед визначених змінних).

Завершуючи розгляд поняття економетричної моделі, слід зазначити таке. Не всяка економіко-математична модель, що представляє математико-статистичний опис економічного об'єкта, що досліджується, може вважатися економетричною. Вона стає економетричною тільки в тому випадку, якщо буде відображати цей об'єкт на основі емпіричних (статистичних) даних, що характеризують саме його.

40. Непрямий спосіб найменших квадратів

Якщо i -е стохастичне рівняння структурної форми ідентифіковано точно, параметри цього рівняння (коефіцієнти рівняння і дисперсія випадкової помилки) відновлюються за параметрами наведеної системи однозначно. Тому для оцінювання параметрів такого рівняння достатньо оцінити методом найменших квадратів коефіцієнти кожного з рівнянь наведеної форми методом найменших квадратів (окремо для кожного рівняння) і отримати оцінку коварійної матриці Q помилок у наведеній формі, після чого скористатися співвідношеннями ПГ = В і Е = ГТQT у них замість П оцінену матрицю коефіцієнтів наведеної форми П та оцінену ковараційну матрицю помилок у наведеній формі £2. Така процедура називається непрямим методом найменших квадратів (ILS indirect least squares). Отримані внаслідок оцінки коефіцієнтів i-го стохастичного рівняння структурної форми успадковують властивість спроможності оцінок наведеної форми. Однак вони не успадковують таких властивостей оцінок наведеної форми як незміщеність та ефективність через те, що виходять внаслідок деяких нелінійних перетворень. Відповідно, при невеликій кількості спостережень навіть у цих природних оцінок може виникати помітне усунення. У зв'язку з цим під час розгляду різних методів оцінювання коефіцієнтів структурних рівнянь насамперед дбають про забезпечення саме спроможності одержуваних оцінок.

41. проблеми ідентифікованості систем одночасних рівнянь

За правильної специфікації моделі завдання ідентифікація системи рівнянь зводиться до коректної та однозначної оцінки її коефіцієнтів. Безпосередня оцінка коефіцієнтів рівняння можлива лише системах зовні не пов'язаних рівнянь, котрим виконуються основні передумови побудови регресійної моделі, зокрема, умова некоррелированности факторних змінних із залишками.

У рекурсивних системах завжди можливе позбавлення проблеми корелюваності залишків з факторними змінними шляхом підстановки як значень факторних змінних не фактичних, а модельних значень ендогенних змінних, що виступають як факторні змінні. Процес ідентифікації здійснюється так:

1. Ідентифікується рівняння, в якому як факторні не містяться ендогенні змінні. Знаходиться розрахункове значення ендогенної змінної цього рівняння.

2. Розглядається наступне рівняння, в якому як факторну включено ендогенну змінну, знайдену на попередньому кроці. Модельні (розрахункові) значення цієї ендогенної змінної забезпечують можливість ідентифікації цього рівняння тощо.

У системі рівнянь у наведеній формі проблема корелювання факторних змінних з відхиленнями не виникає, тому що в кожному рівнянні як факторні змінні використовуються лише зумовлені змінні. Таким чином, під час виконання інших передумов рекурсивна система завжди ідентифікована.

Під час розгляду системи одночасних рівнянь виникає проблема ідентифікації.

Ідентифікація в даному випадку означає визначення можливості однозначного перерахунку коефіцієнтів системи у наведеній формі у структурні коефіцієнти.

Структурна модель (7.3) у повному вигляді містить параметрів, які потрібно визначити. Наведена форма моделі у вигляді містить параметрів. Отже, для визначення невідомих параметрів структурної моделі можна становити рівнянь. Такі системи є невизначеними і параметри структурної моделі у випадку можуть бути однозначно визначені.

Щоб отримати єдине можливе рішення, необхідно припустити, що деякі зі структурних коефіцієнтів моделі через слабкий їх взаємозв'язок з ендогенною змінною з лівої частини системи дорівнюють нулю. Тим самим зменшиться кількість структурних коефіцієнтів моделі. Зменшення числа структурних коефіцієнтів моделі можливе й іншими шляхами: наприклад, шляхом прирівнювання деяких коефіцієнтів один до одного, тобто шляхом припущень, що їх вплив на ендогенну змінну, що формується, однаково і ін.

З позиції ідентифікованості структурні моделі можна поділити на три види:

· Ідентифіковані;

· Неідентифіковані;

· Надідентифіковані.

Модель ідентифікованаякщо всі структурні її коефіцієнти визначаються однозначно, єдиним чином за коефіцієнтами наведеної форми моделі, тобто якщо число параметрів структурної моделі дорівнює числу параметрів наведеної форми моделі.

Модель неідентифікована, Якщо число коефіцієнтів наведеної моделі менше кількості структурних коефіцієнтів, і в результаті структурні коефіцієнти не можуть бути оцінені через коефіцієнти наведеної форми моделі.

Модель надідентифікована, якщо число коефіцієнтів наведеної моделі більше за кількість структурних коефіцієнтів. У цьому випадку на основі коефіцієнтів наведеної форми можна отримати два або більше значень структурного коефіцієнта. Надидентифицируемая модель на відміну неидентифицируемой моделі практично розв'язувана, але вимагає цього спеціальних методів знаходження параметрів.

Щоб визначити тип структурної моделі, необхідно кожне її рівняння перевірити на ідентифікованість.

Модель вважається ідентифікованою, якщо кожне рівняння системи ідентифікується. Якщо хоча б одне з рівнянь системи не ідентифікується, то і вся модель вважається такою, що не ідентифікується. Надідентифікована модель крім ідентифікованих містить хоча б одне надідентифіковане рівняння.

42. трикроковий метод найменших квадратів

Найбільш ефективна процедура оцінювання систем регресійних рівнянь поєднує метод одночасного оцінювання та метод інструментальних змінних. Відповідний метод називається трикроковим методом найменших квадратів. Він у тому, що у першому кроці до вихідної моделі (9.2) застосовується узагальнений метод найменших квадратів із метою усунення кореляції випадкових членів. Потім до отриманих рівнянь застосовується двокроковий метод найменших квадратів.

Очевидно, що якщо випадкові члени (9.2) не корелюють, трикроковий метод зводиться до двокрокового, в той же час, якщо матриця - одинична, трикроковий метод є процедурою одночасного оцінювання рівнянь як зовні не пов'язаних.

Застосуємо трикроковий метод до розглянутої моделі (9.24):

ai=19,31; Pi = l,77; а2 = 19,98; р2 = 0,05; у = 1,4. (6,98) (0,03) (4,82) (0,08) (0,016)

Оскільки коефіцієнт р2 незначний, то рівняння залежності від X має вигляд:

у = 16,98 + 1,4 х

Зауважимо, що він практично збігається з рівнянням (9.23).

Як відомо, очищення рівняння від кореляції випадкових членів – процес ітеративний. Відповідно до цього під час використання трикрокового методу комп'ютерна програма запитує кількість ітерацій чи необхідну точність. Відзначимо важливу властивість трикрокового методу, що забезпечує його найбільшу ефективність.

При досить значній кількості ітерацій оцінки трикрокового методу найменших квадратів збігаються з оцінками максимальної правдоподібності.

Як відомо, оцінки максимальної правдоподібності на великих вибірках є найкращими.

43. Поняття економічних рядів динаміки. Загальний вигляд мультиплікативної та адитивної моделі часового ряду.

44. моделювання тенденції часового ряду, сезонних та циклічних коливань.

Існує кілька підходів до аналізу структури часових рядів, що містять сезонні чи циклічні коливання.

1 ПІДХІД. Розрахунок значень сезонної компоненти методом ковзної середньої та побудова адитивної або мультиплікативної моделі часового ряду.

Загальний вид адитивної моделі: (Т – трендова компонента, S – сезонна, Е – випадкова).

Загальний вигляд мультиплікативної моделі:

Вибір моделі на основі аналізу структури сезонних коливань (якщо амплітуда коливань приблизно постійна – адитивна, якщо зростає/зменшується – мультиплікативна).

Побудова моделей зводиться до розрахунку значень T,S,E кожному за рівня низки.

Побудова моделі:

1.вирівнювання вихідного ряду методом ковзної середньої;

2.розрахунок значень компоненти S;

3.Усунення сезонної компоненти з вихідних рівнів ряду та отримання вирівняних даних ( T+E) в адитивній або ( T*E) у мультиплікативної моделі.

4.Аналітичне вирівнювання рівнів ( T+E) або ( T*E) та розрахунок значення Тіз використанням отриманого рівня тренду.

5.Розрахунок отриманих за моделлю значень ( T+S) або ( T*S).

6.Розрахунок абсолютних та/або відносних помилок.

Якщо отримані значення помилок не містять автокореляції, ними можна замінити вихідні рівні ряду та надалі використовувати тимчасовий ряд помилок Едля аналізу взаємозв'язку вихідного ряду та ін тимчасових рядів.

2 ПІДХІД.Побудова моделі регресії з включенням фактора часу та фіктивних змінних. Кількість фіктивних змінних у такій моделі має бути на одиницю менша за кількість моментів (періодів) часу всередині одного циклу коливань. Наприклад, при моделюванні поквартальних даних модель повинна включати чотири незалежні змінні – фактор часу та три фіктивні змінні. Кожна фіктивна змінна відбиває сезонну (циклічну) компоненту часового ряду для якогось одного періоду. Вона дорівнює одиниці (1) для цього періоду та нулю (0) для всіх інших. Недолік моделі з фіктивними змінними – наявність великої кількості змінних.

45. Автокореляційна функція. Її використання для виявлення наявності або відсутності трендової та циклічної компоненти

Автокореляція рівнів часового ряду.

За наявності у часовому ряді тенденції та циклічних коливань кожного наступного рівня ряду залежать від попередніх. Кореляційну залежність між послідовними рівнями часового ряду називають автокореляцією рівнів ряду.

Кількісно автокореляцію рівнів ряду вимірюють за допомогою лінійного коефіцієнта кореляції між рівнями вихідного часового ряду та рівнями цього ряду, зрушені на кілька кроків у часі.

Нехай, наприклад, дано тимчасовий ряд . Визначимо коефіцієнт кореляції між рядами та .

Одна з робочих формул розрахунку коефіцієнта кореляції має вигляд:

І часового ряду, тобто. при лазі 2. Він визначається за формулою:

(4)

Зауважимо, що зі збільшенням лага кількість пар значень, якими розраховується коефіцієнт кореляції, зменшується. Зазвичай лаг не допускається рівним числу, що перевищує чверть числа спостережень.

Зазначимо дві важливі властивості коефіцієнтів автокореляції.

По-перше, коефіцієнти автокореляції вважаються за аналогією з лінійним коефіцієнтом кореляції, тобто. вони характеризують лише тісноту лінійного зв'язку двох аналізованих рівнів часового ряду. Тому за коефіцієнтом автокореляції можна судити лише про наявність лінійної (чи близької до лінійної) тенденції. Для тимчасових рядів, що мають сильну нелінійну тенденцію (наприклад, експоненту), коефіцієнт кореляції рівнів може наближатися до нуля.

Явище мультиколлинеарности у разі лінійної моделі регресії – порушення однієї з її передумов, тобто. наявність лінійної залежності між факторами.

Мультиколлінеарність- Це висока взаємна корелюваність змінних, що пояснюють.

_______________________________________________________________________

Мультиколлінеарність може виявлятися у двох формах:

1) при функціональній/явній формі мультиколлінеарності принаймні один із парних зв'язків між пояснювальними змінними є лінійною функціональною залежністю.

2) стохастична / прихована форма в економічних дослідженнях проявляється частіше, коли між двома змінними, що пояснюють, існує тісний кореляційний зв'язок.

Щоб регресійний аналіз, заснований на МНК, давав найкращі результати, передбачається, що значення хє випадковими величинами і що корелювані, тобто. кожна змінна містить унікальну інформацію про у,яка не містить в інших. Коли така ідеальна ситуація існує, то мультиколінеарність відсутня. Повна коллінеарність з'являється у разі, якщо одна з може бути точно виражена в термінах іншої змінної всім елементів набору даних.

Причини мультиколінеарності:

1) спосіб збору даних та відбору змінних у модель без урахування їх сенсу та природи(Облік можливих взаємозв'язків між ними). Наприклад, при оцінці впливу на розмір житла доходів сім'ї та розміру сім'ї якщо ми зберемо дані тільки серед сімей великого розміру та з високими доходами і не включимо до моделі сім'ї малого розміру та з невеликими доходами, то в результаті вийде модель з ефектом мультиколлінеарності. Вирішення проблеми – покращення схеми вибірки. У разі, якщо змінні взаємодоповнюють один одного, припасування вибірки не допоможе. Рішенням буде виключення однієї із змінних;

2) висока потужність змінної.Наприклад, для зміни виду моделі може бути введений додатковий термін у модель, що вже містить $

3) регресори, що вимірюють приблизно те саме:валютний курс на початок та на кінець дня;

4) природні співвідношення між регресорами:вік, стаж та кількість років навчання.

Наслідки мультиколінеарності:

1) при перевірці нульової гіпотези про незначність коефіцієнтів регресії за допомогою t-критерію в більшості випадків вона приймається, проте саме рівняння регресії з перевірки за допомогою F-критерію виявляється значним, що говорить про завищену оцінку коефіцієнта регресії; довірчі інтервали мають надто широкі межі;



2) отримані оцінки параметрів рівняння переважно невиправдано завищені чи мають неправильні знаки;

3) додавання або виключення з вихідних даних 1-2 спостережень дуже впливає на оцінки коефіцієнтів;

4) наявність мультиколлінеарності у моделі може зробити її непридатною для подальшого застосування.

Основна проблема мультиколінеарності – знецінення дисперсії оцінок коефіцієнтів регресії. Для вимірювання ефекту мультиколінеарності використовується показник VIF (variation inflation factor) – коефіцієнт здуття дисперсії в порівнянні з дисперсією, яка була б, якби не мав колінеарності з іншими незалежними змінними в регресії:

де – значення коефіцієнта множинної детермінації для регресора попри всі інші.

Наприклад, значення VIF=6означає, що дисперсія коефіцієнтів у 6 разів більша за ту, що мала б бути при повній відсутності колінеарності. Вважається, що критичне значення становить VIF = 10 -надто велика кореляція між факторами.

приклад.

Для регресії на інші регресори

Для регресії

Для регресії

Чи є мультиколінеарність?

Досить погано пояснюється рештою змінних, змінна лінійно незалежна.

Змінні лінійно залежні, високі.

Зовнішньою ознакою наявності мультиколінеарності є занадто великі значення елементів матриці (Х Т Х) ~ 1 .Докладніше визначення матриці (Х Т Х) Хта її використання див. 4, параграф 4.2.

Основна ознака мультиколінеарності:визначник кореляційної матриці R x x.близький до нуля. Якщо всі перемінні, що пояснюють, некореловані між собою, то R XjX.| = 1, інакше 0 R x . x. |

Існує кілька ознак, якими може бути встановлено наявність мультиколлінеарності.

  • 1. Коефіцієнт детермінації До 2досить високий, висока f-статистика, але деякі (іноді всі) з коефіцієнтів рівняння множинної лінійної регресії статистично незначні (мають низькі 7-статистики).
  • 2. Високі парні коефіцієнти кореляції та високі приватні коефіцієнти кореляції.

Визначення 7.1.Приватним коефіцієнтом кореляціїназивається коефіцієнт кореляції між двома пояснювальними змінними, «очищений» від впливу інших змінних.

Наприклад, при трьох пояснюючих змінних Х 1у Х 2 , Х 3приватний коефіцієнт кореляції між Х (і Х 3 , «очищений» від Х 2 розраховується за формулою

Зауваження 7.2.Приватний коефіцієнт кореляції може суттєво відрізнятись від «звичайного» (парного) коефіцієнта кореляції. Для більш обґрунтованого висновку про кореляцію між парами змінних, що пояснюють, необхідно розраховувати всі приватні коефіцієнти кореляції.

Загальний вираз визначення коефіцієнта приватної кореляції

де Cjj -елементи матриці З = R~ x -матриці, зворотної до матриці міжфакторної парної кореляції R VjX. (7.1).

  • 3. Сильна регресія між пояснювальними змінними. Якась із пояснюючих змінних є комбінацією інших пояснюючих змінних (лінійною або близькою до лінійної).
  • 4. Знаки коефіцієнтів регресії протилежні очікуваним економічних передумов.
  • 5. Додавання чи видалення спостережень із вибірки сильно змінює значення оцінок.

Розглянемо кілька прикладів, що ілюструють сказане вище.

Приклад 7.4

На обсяг випуску продукції увпливають такі основні фактори: х х- кількість співробітників, які працюють на підприємстві; х 2- Вартість основних фондів; х 3- Середня заробітна плата співробітників. Рівняння лінійної множинної регресії має вигляд у = b 0 + b (x x + b 2 x 2 + b 3 x 3).

Матриця коефіцієнтів парної кореляції для даної моделі

Визначник матриці | Д | = 0,302. У цій моделі фактори та х 2 ,а також х (і х 3пов'язані слабко, навпаки, фактори х 2і х 3пов'язані сильно: г^з = 0,8. Можливо, сильний зв'язок між факторами х 2і х лпояснюється тим, що на дорогому устаткуванні працюють висококваліфіковані робітники, які мають вищу заробітну плату.

Парні коефіцієнти кореляції результуючої змінної з факторами виявились рівними: т уГ| =0,7; г ух. =0,8; г ухз=0,75. Повна матриця парних коефіцієнтів кореляції має вигляд

Усі чинники помітно впливають на результат. Так як у модель регресії повинні бути включені фактори, тісно пов'язані з результатом і слабо пов'язані один з одним, то в даному прикладі підходять одночасно дві моделі регресії: у = f(x v х 2)і у 2 = f(x v x 3).

Приклад 7.5

З'ясуємо наявність мультиколлінеарності для вибіркових даних, наведених у таблиці. 7.2.

Вихідні дані для прикладу 7.2

Таблиця 7.2

X,

Рішення.Парні коефіцієнти кореляції, розраховані за формулою (7.2), наведено у табл. 7.3.

Таблиця 73

Парні коефіцієнти кореляції

З даних, наведених у таблиці, ясно, що є сильна кореляція між змінними. х 2 .Коефіцієнти парної кореляції можна визначити, використовуючи засіб «Пакет аналізу» Microsoft Excel(Інструмент "Кореляція"),

Перевіримо кореляцію між змінними, що пояснюються і пояснюють, для цього скористаємося інструментом «Кореляція» Microsoft Excel(можна розрахувати коефіцієнти кореляції г Х1/ ,використовуючи формулу (7.2)). Результати подано на рис. 7.1.


Мал. 7.1.Результати розрахунку кореляції між пояснюється і пояснюють змінними в Microsoft Excel

Розрахуємо приватні коефіцієнти кореляції за формулою (7.4), тому що в цьому прикладі всього три пояснюючі змінні (можна знайти приватні коефіцієнти кореляції і за формулою (7.5), попередньо знайшовши зворотну матрицю З = R ():

Найбільшим виявився окремий коефіцієнт кореляції між змінними х х їх 2 .Приватний коефіцієнт кореляції г ХхХ ^ Х2найменший та протилежний але знаку парному коефіцієнту г х х.

Відповідь.У моделі є сильна кореляція між змінними х хі х 2 .



Розповісти друзям