31. Оцінка моделей з лаговими змінними. Перетворення Койка.
де - ковзка середня між
.
Це перетворення знімає проблему мультиколінеарності і дозволяє аналізувати короткотермінові і довготермінові властивості змінних:
- у коротко термінованому періоді значення розглядається як фіксоване і короткотерміновий мультиплікатор =
, а довго терміновий – обчислюється як сума нескінченно спадної геометричної прогресії. - у довго терміновому періоді
до деякого свого рівнозваженого значення
, то значення
і
теж прямують до свого рівноважного
:
;
- крім того як сума нескінченно спадної геометричної прогресії є довготерміновим мультиплікатором;
- при довготерміновий вплив буде сильнішим за короткотерміновий
Але: серед пояснюючих змінних є змінна , яка має випадковий характер, що порушує одну з передумов МНК, та ще й може корелювати із випадковими відхиленням
.
32. Оцінка параметрів лінійного рівняння багатофакторної регресії за допомогою МНК.
Оцінка значущості параметрів лінійного рівняння багатофакторної регресії проводиться за наступним алгоритмом t - тесту Стьюдента:
1) для кожного параметра
розраховується t - відношення:
,
де - дисперсії оцінок коефіцієнтів
;
- діагональний елемент матриці
;
- незміщена оцінка дисперсії відхилень,
- кількість пояснюючих змінних;
2) з таблиць критичних точок t - розподілу Стьюдента знаходять ;
3) якщо - коефіцієнт
є статистично значущим,
якщо - коефіцієнт
вважається статистично незначущим і змінну
рекомендується виключити з рівняння.
33. Оцінка параметрів парної лінійної регресії за допомогою МНК.
Для того, щоб мати явний вид залежності ,(4), необхідно оцінити невідомі параметри
. Для визначення параметрів
застосовують метод найменших квадратів (МНК).
Можна припустити, що між даними існує лінійна залежність. У цьому випадку їх можна апроксимувати прямою лінією. Апроксимуюча пряма повинна проходити через точки таким чином, щоб сума квадратів помилок була мінімальною. Запишемо критерій найменших квадратів: (6)
Необхідними умовами екстремуму функції (6) є умови рівності нулю значень частинних похідних першого порядку: (7)
З умов екстремуму функції (7) одержимо систему лінійних рівнянь:
(8)
З (8): (9)
де
Запишемо рівняння прямої в наступному вигляді: ,
34. Перевірка статистичної значущості коефіцієнтів b0 та b1 лінійної регресії за допомогою t-теста Стьюдента.
Для перевірки значущості параметрів ,
парної лінійної регресії за t -тестом Стьюдента необхідно:
1) розрахувати t - відношення:
де
- дисперсії параметрів
,
;
- незміщена оцінка дисперсії відхилень;
2) з таблиць критичних точок розподілу Стьюдента знайти (
- рівень значущості);
3) якщо - коефіцієнт
є статистично значущим.
Для перевірки статистичної значущості коефіцієнта кореляції за t-тестом Стьюдента необхідно:
1) розрахувати -відношення:
;
2) з таблиць критичних точок розподілу Стьюдента знайти ;
3) якщо - коефіцієнт
є статистично значущий.
35. Передумови МНК, теорема Гаусса -Маркова.
Можна показати, що властивості оцінок коефіцієнтів регресії ( ), а також і якість побудованої регресії істотно залежать від властивостей випадкового відхилення (
). Доведено, що для одержання за МНК найкращих результатів необхідно, щоб виконувався ряд передумов щодо випадкового відхилення.
Передумови МНК (умови Гаусса – Маркова):
1°. Математичне сподівання випадкового відхилення дорівнює нулю:
для всіх спостережень.
2°. Дисперсія випадкових відхилень постійна:
для будь-яких спостережень
і
.
Здійсненність даної передумови називається гомоскедастичністю, нездійсненність – гетероскедастичністю.
3°. Випадкові відхилення і
є незалежними (
):
(3)
У випадку, якщо дана умова виконується, то говорять про відсутність автокореляції.
4°. Випадкове відхилення незалежне від пояснюючих змінних:
(4)
5°. Модель є лінійною щодо параметрів.
Теорема Гаусса-Маркова. Якщо передумови 1° – 5° виконані, то оцінки, отримані за МНК, мають наступні властивості:
1. Оцінки є незміщеними, тобто ,
.
2. Оцінки спроможні (обґрунтовані), тобто дисперсія оцінок параметрів при зростанні числа спостережень прагне до нуля:
,
.
3. Оцінки ефективні, тобто вони мають найменшу дисперсію в порівнянні з будь-якими іншими оцінками даних параметрів, лінійними щодо величин .
В англомовній літературі такі оцінки називаються BLUE – найкращі лінійні незміщені оцінки. Якщо передумови 2° і 3° порушені, то властивості незміщеності і спроможності зберігаються, а властивість ефективності – ні.
36. Поняття гетероскедастичності та її наслідки.
Однією з таких передумов МНК є умова сталості дисперсій випадкових відхилень :
для будь-яких спостережень
і
.
Якщо дана передумова виконується, то має місце гомоскедастичністъ (сталість дисперсії відхилень). Невиконання даної передумови називається гетероскедастичністю (дисперсія відхилень не є сталою). Наведемо приклади гомо- і гетероскедастичності на рис. 1, 2 .
Рис. 1 Гомоскедастичність Рис. 2 Гетероскедастичність
37. Поняття мультиколінеарності та її наслідки .
Мультиколінеарність означає існування тісної лінійної залежності, або сильної кореляції, між двома чи більше пояснюючими змінними.
Наслідки мультиколінеарності:
1) великі дисперсії (стандартні помилки) оцінок теоретичних параметрів;
2) зменшуються t - статистики коефіцієнтів, що може привести до невірного висновку про вплив відповідної пояснюючої змінної на залежну змінну;
3) оцінки теоретичних параметрів і їхні стандартні помилки стають дуже чуттєвими до найменшої зміни даних, тобто вони стають нестійкими;
4) можливе одержання невірного знака коефіцієнта регресії.