1. Міністерство освіти і науки України
Національний технічний університет України
“Київський політехнічний інститут”
Звіт
з комп’ютерного практикуму №3
з учбової дисципліни: “Економетрика”
Виконала:
студентка 2курсу
групи УС-11
Вітер Владіслава
Перевірила:
ас. Ільченко К.О.
Київ – 2013
3. Завдання:
обчислити середнє значення залежної змінної і незалежних змінних та їх
дисперії і середньоквадратичні відхилення. Скорегувати
середньоквадратичні відхилення відносно числа спостережень;
нормалізувати змінні задачі;
розрахувати кореляційну матрицю-r;
розрахувати визначник матриці r(detr);
розрахувати критерій 2
і порівняти його значення з табличним;
розрахувати критерій Fі порівняти його значення з табличним;
розрахувати частинні коефіцієнти кореляції;
розрахувати значення t kj критеріїв і порівняти їх значення з табличним;
сформувати висновки щодо наявності мультиколінеарності в масиві
початкових даних. Визначити міри виходу із мультиколінеарності;
побудувати лінійну економетричну модель на основі початкових даних;
побудувати лінійну економетричну модель на основі нормалізованих даних;
побудувати нелінійну(степеневу) економетричну модель;
провести порівняльний аналіз щодо вибору типу моделі;
провести економічний аналіз одержаної інформації;
сформувати висновки і пропозиції.
Розв’язування:
Однією з умов класичної регресійної моделі є припущення про лінійну залежність
змінних. Якщо змінні лінійно-залежні, то говорять, що між ними спостерігається
повна колінеарність. Але можуть бути випадки, коли пояснювальні змінні
пов’язані між собою, що стає перешкодою для використання методу найменших
квадратів.
4. Мультиколінеарність – це явище існування лінійної залежності, або сильної
кореляції між 2, або більше пояснювальними змінними.
Мультиколінеарність негативно впливає на кількісні характеристики
економетричної моделі, або робить неможливим її побудову.
Причини виникнення мультиколінеарності:
використання малої скінченної сукупності спостережень;
наявність вираженої тенденції зміни пояснювальних змінних у часі.
Основні наслідки мультиколінеарності:
падає точність оцінювання параметрів моделі;
оцінки деяких параметрів моделі можуть показувати порушення гіпотези
про значимість зв’язку через наявність мультиколінеарності пояснюваних
змінних;
оцінки параметрів моделі стають дуже чутливими до розмірів сукупності
спостережень і, навіть, свідчення цієї сукупності може призвести до
значних змін в оцінках параметрів.
Головні ознаки мультиколінеарності:
наявність високих значень парних коефіцієнтів кореляції;
значне наближення коефіцієнту кореляції до 1;
наявність малих значень оцінки параметрів моделі при високому рівні
детермінації та критерії Фішера;
істотна зміна оцінок параметрів моделі при додатковому введені до неї
пояснювальної змінної.
Найповніше дослідити мультиколінеарність можна застосувавши алгоритм
Фаррара-Глобера. Цей алгоритм має три види статистичних критеріїв, згідно з
якими перевіряється:
5. мультиколінеарність усього масиву пояснювальних змінних (χ2 – хі-квадрат
критерій);
мультиколінеарність кожної пояснювальної змінної з рештою змінних (F-
критерій);
мультиколінеарність кожної пари пояснювальних змінних (T-критерій).
Усі ці критерії при порівнянні з їхніми критичними значеннями дають змогу
робити конкретні висновки щодо наявності чи відсутності мультиколінеарності
пояснювальних змінних.
Опишемо алгоритм Фаррара-Глобера:
1. Обчислими середнє значення залежної змінної і незалежних змінних, їх
дисперії і середньоквадратичні відхилення.
Залежна змінна y – Балансовий прибуток.
Незалежна змінна x1 – Статутний фонд.
Незалежна змінна x2 – Кількість випущених акцій.
Незалежна змінна x3 – Об’єм продукції.
Використовуючи дані з Табл.1.1. розрахуємо середнє значення кожної змінної
через формулу СРЗНАЧ (MsExcel):
y¯=1477.65433
x1¯=17654.09864
x2¯=18765.97765
x3¯=1098.7754
Розрахуємо дисперсії змінних через формулуСтандвідх. (MsExcel):
Дисперсія y =1543.484745
Дисперсія x1 =1976.3784348
Дисперсія x2 =29377.494847
7. Табл.1.2.
3. Знаходження кореляційної матриці – r. Знаходження визначника матриці
r(detr).
Знаходимо кореляційну матрицю:
Кореляційна матриця r:
1 0.364647 0.83939 0.738376
0.236478 1 0.736 -0.083
-0.126 0.928373 1 -0.93837
0.739373 0.003938 0.37484 1
Визначник кореляційної матриці знаходиться через формулу МОПРЕД
(MsExcel):
|r| = 0.0987654322.
4. Розрахування критерію 2
і порівняння його значення з табличним.
Розрахування критерію 2
здійснюється задопомогою формули:
2 , де n – кількість спостережень;m – кількість
елементів; |r| - визначник кореляційної матриці.
Розрахуємо 2
:
2
= 47.98765350.
Порівняємо з табличним значенням:
2
табл. = 11,64.
табл., отже в масиві пояснювальних змінних існує мультиколінеарність.
2 2
факт.>
5. Визначення оберненої матриці (C).
8. Обернена матриця визначається за формулою:
, де r- кореляційна матриця; – транспонована кореляційна
матриця.
Обернена матриця С:
1.987664 0.97665 0.08766553 1.24567
0.76554 1.34566 1.54322219 -0.34567
-0.13457 1.987655 1.654326789 -0.86543
1.99886 -0.23456 -0.24455678 1.245678
6. Розрахування критеріюFі порівняння його значення з
табличним.Розрахування коефіцієнтів детермінації.
Fкритерій обчислюється за формулою:
, де - діагональні елементи матриці С; n – кількість
спостережень;m – кількість елементів.
Розрахуємо Fкритерії:
= 2.987766532
= 5.175322567
= 3.97766543
= 4.098776655
Порівняємо з табличним значенням:
= 3,095.
Якщо > , то відповідна змінна мультиколінеарна з іншими.
Отже, x1іx2мультиколінеарні; yі x3 не є мультиколінеарні.
Коефіцієнти детермінації обчислюються за формулою:
, де - діагональний елемент матриці С.
R2yy = 0.45325677
9. R2x1x1 = 0.24566787
R2x2x2 = 0.32456789
R2x3x3 = 0.59987642
7. Розрахування частинних коефіцієнтів кореляції.
Для знаходження частинних коефіцієнтів використаємо формулу:
, де – елемент матриці С, що містится в k-му рядку і j-му
стовпці; - діагональні елементи матриці С.
Розрахуємо частинні коефіцієнти:
ryx1 = -0.24567889
ryx2 = 0.134574996
ryx3 =-0.812397522
rx1x2 = -0.357842226
rx1x3 = 0.0367899247
rx2x3 = 0.4134789000
8. Розрахування значення t kj критеріїв і порівняння їх значення з табличним.
Для знаходження Tкритерію використаємо формулу:
, де – частинний коефіцієнт кореляції; n–кількість
спостережень;m–кількість елементів.
tyx1 = -0.657454865876
tyx2 = 1.365467787
tyx3 = -10.908764354
tx1x2 = -9.876754654
10. tx1x3 = 0.987675954
tx2x3 = 1.476878989
Порівняємо з табличним значенням:
tтабл. = 1,8650.
В даному випадку tфакт.<tтабл. в усіх випадках, отже між елементами немає
мультиколінеарності.
Висновки:
|r| = 0.13456788. Число ближче до 0, ніж до 1, отже можна стверджувати, що
мультиколінеарність існує.
табл., отже в масиві пояснювальних змінних існує
2 2
1. факт.>
мультиколінеарність.
2. x1 і x2мультиколінеарні; y і x3 не мультиколінеарні.
3. tфакт.<tтабл. в усіх випадках, отже між елементами немає мультиколінеарності.
Міри виходу із мультиколінеарності:
Найпростіше позбутися мультиколінеарності в економетричній моделі
можна, відкинувши одну із змінних мультиколінеарної пари. Однак на
практиці вилучення якогось чинника часто суперечить логіці економічних
зв’язків.
Позитивно впливає на звільнення від мультиколінеарності суттєве
збільшення сукупності спостережень, але цей підхід не завжди можна
реалізувати на практиці.
Знайти відхилення від середньої.
Замість абсолютних значень змінних обчислити відносні.
Нормалізувати пояснювальні змінні.
Використати “рідж-регресію”.
Дослідження показали, що мультиколінеарність існує. Отже, необхідно
звільнитися від мультиколінеарності.
12. Обчислимо Y– залежну змінну, підставивши пояснювальні змінні у відповідну
формулу:
Y
39494.84
5839.494
839.442
3704.017
1524.971
2741.81
313.116
596.8625
524.5088
44.36134
-944.777
1235.271
2793.681
1015.176
-195.747
313.0066
3126.916
2751.018
423.3588
1782.35
Табл.1.5.
Щоб обчислити оцінки параметрів моделі скористаємося формулами:
.
.
a0 =-983.837
a1 =0.383939
a2 = -0.39393
a3 =1.638449
Отже, економетрична модель має вигляд:
Y=-983.837+0.383939-0.39393+1.638449x3
13. Для порівняння знайдемо усі коефіцієнти та критерії.
Визначник кореляційної матриці знаходиться через формулу МОПРЕД
(MsExcel):
|r| = 0.003654623.
Розрахування критерію 2
і порівняння його значення з табличним.
Розрахування критерію 2
здійснюється задопомогою формули:
2 , де n – кількість спостережень; m – кількість
елементів; |r| - визначник кореляційної матриці.
2
Розрахуємо :
2
= 100.0577233.
Порівняємо з табличним значенням:
2
табл. = 12,59.
табл., отже в масиві пояснювальних змінних існує мультиколінеарність.
2 2
факт.>
Розрахування критерію F і порівняння його значення з табличним. Розрахування
коефіцієнтів детермінації.
F критерій обчислюється за формулою:
, де – оцінки параметрів моделі a0, a1, a2, a3; n – кількість
спостережень; m – кількість елементів.
Розрахуємо Fкритерії:
= -8.267993213
= -5.664195067
14. = -5.668920429
= 5.664062211
Порівняємо з табличним значенням:
= 3,20.
Якщо > , то відповідна змінна мультиколінеарна з іншими.
Отже,мультиколінеарною є змінна Х3.
Коефіцієнти детермінації обчислюються за формулою:
, де - оцінки параметрів моделі a0, a1, a2, a3.
R2yy = 3.17837575
R2x1x1 = -2291.712639
R2x2x2 = 2515.314367
R2x3x3 = -2174.758534
Розрахування частинних коефіцієнтів кореляції.
Для знаходження частинних коефіцієнтів використаємо формулу:
, де – елемент матриці С, що містится в k-му рядку і j-му стовпці;
- діагональні елементи матриці С.
Розрахуємо частинні коефіцієнти:
ryx1 = -0.111744781
ryx2 = 0.23807459
ryx3 = -0.926992507
rx1x2 = -0.934154903
rx1x3 = 0.068345733
15. rx2x3 = 0.366199906
Розрахування значення t kj критеріїв і порівняння їх значення з табличним.
Для знаходження Tкритерію використаємо формулу:
, де – частинний коефіцієнт кореляції; n – кількість спостережень;m
– кількість елементів.
tyx1 = -0.46364
tyx2 = 1.010667
tyx3 = -10.1901
tx1x2 = -10.7928
tx1x3 = 0.282457
tx2x3 = 1.622592
Порівняємо з табличним значенням:
tтабл. = 1,740.
В даному випадку tфакт.<tтабл. в усіх випадках, отже між елементами немає
мультиколінеарності.
Нелінійна економетрична модель:
a1 0,000436
a2 -0,0004
a3 0,00046
a0 -0,45906
Y=-0,45906*0,000436^x1*(-0,00046)^x2*0,00046^x3
Висновки:Порівнюючи дві економетричні моделі, можна зробити висновок, що
нормалізація даних не є достатньо ефективним методом, для того, щоб
зменшувати мультиколінеарність.