31. Оцінка моделей з лаговими змінними. Перетворення Койка.




де
- ковзка середня між
.
Це перетворення знімає проблему мультиколінеарності і дозволяє аналізувати короткотермінові і довготермінові властивості змінних:
- у коротко термінованому періоді значення
розглядається як фіксоване і короткотерміновий мультиплікатор =
, а довго терміновий – обчислюється як сума нескінченно спадної геометричної прогресії. - у довго терміновому періоді
до деякого свого рівнозваженого значення
, то значення
і
теж прямують до свого рівноважного
:


;
- крім того як сума нескінченно спадної геометричної прогресії
є довготерміновим мультиплікатором;
- при
довготерміновий вплив буде сильнішим за короткотерміновий 
Але: серед пояснюючих змінних є змінна
, яка має випадковий характер, що порушує одну з передумов МНК, та ще й може корелювати із випадковими відхиленням
.
32. Оцінка параметрів лінійного рівняння багатофакторної регресії за допомогою МНК.
Оцінка значущості параметрів лінійного рівняння багатофакторної регресії проводиться за наступним алгоритмом t - тесту Стьюдента:
1) для кожного параметра
розраховується t - відношення:
,
де
- дисперсії оцінок коефіцієнтів
;
- діагональний елемент матриці
;
- незміщена оцінка дисперсії відхилень,
- кількість пояснюючих змінних;
2) з таблиць критичних точок t - розподілу Стьюдента знаходять
;
3) якщо
- коефіцієнт
є статистично значущим,
якщо
- коефіцієнт
вважається статистично незначущим і змінну
рекомендується виключити з рівняння.
33. Оцінка параметрів парної лінійної регресії за допомогою МНК.
Для того, щоб мати явний вид залежності
,(4), необхідно оцінити невідомі параметри
. Для визначення параметрів
застосовують метод найменших квадратів (МНК).
Можна припустити, що між даними існує лінійна залежність. У цьому випадку їх можна апроксимувати прямою лінією. Апроксимуюча пряма повинна проходити через точки таким чином, щоб сума квадратів помилок була мінімальною. Запишемо критерій найменших квадратів:
(6)
Необхідними умовами екстремуму функції (6) є умови рівності нулю значень частинних похідних першого порядку:
(7)
З умов екстремуму функції (7) одержимо систему лінійних рівнянь:
(8)
З (8):
(9)
де

Запишемо рівняння прямої в наступному вигляді:
,
34. Перевірка статистичної значущості коефіцієнтів b0 та b1 лінійної регресії за допомогою t-теста Стьюдента.
Для перевірки значущості параметрів
,
парної лінійної регресії за t -тестом Стьюдента необхідно:
1) розрахувати t - відношення:

де
- дисперсії параметрів
,
;
- незміщена оцінка дисперсії відхилень;
2) з таблиць критичних точок розподілу Стьюдента знайти
(
- рівень значущості);
3) якщо
- коефіцієнт
є статистично значущим.
Для перевірки статистичної значущості коефіцієнта кореляції за t-тестом Стьюдента необхідно:
1) розрахувати
-відношення:
;
2) з таблиць критичних точок розподілу Стьюдента знайти
;
3) якщо
- коефіцієнт
є статистично значущий.
35. Передумови МНК, теорема Гаусса -Маркова.
Можна показати, що властивості оцінок коефіцієнтів регресії (
), а також і якість побудованої регресії істотно залежать від властивостей випадкового відхилення (
). Доведено, що для одержання за МНК найкращих результатів необхідно, щоб виконувався ряд передумов щодо випадкового відхилення.
Передумови МНК (умови Гаусса – Маркова):
1°. Математичне сподівання випадкового відхилення
дорівнює нулю:
для всіх спостережень.
2°. Дисперсія випадкових відхилень
постійна:
для будь-яких спостережень
і
.
Здійсненність даної передумови називається гомоскедастичністю, нездійсненність – гетероскедастичністю.
3°. Випадкові відхилення
і
є незалежними (
):
(3)
У випадку, якщо дана умова виконується, то говорять про відсутність автокореляції.
4°. Випадкове відхилення незалежне від пояснюючих змінних:
(4)
5°. Модель є лінійною щодо параметрів.
Теорема Гаусса-Маркова. Якщо передумови 1° – 5° виконані, то оцінки, отримані за МНК, мають наступні властивості:
1. Оцінки є незміщеними, тобто
,
.
2. Оцінки спроможні (обґрунтовані), тобто дисперсія оцінок параметрів при зростанні числа
спостережень прагне до нуля:
,
.
3. Оцінки ефективні, тобто вони мають найменшу дисперсію в порівнянні з будь-якими іншими оцінками даних параметрів, лінійними щодо величин
.
В англомовній літературі такі оцінки називаються BLUE – найкращі лінійні незміщені оцінки. Якщо передумови 2° і 3° порушені, то властивості незміщеності і спроможності зберігаються, а властивість ефективності – ні.
36. Поняття гетероскедастичності та її наслідки.
Однією з таких передумов МНК є умова сталості дисперсій випадкових відхилень
:
для будь-яких спостережень
і
.
Якщо дана передумова виконується, то має місце гомоскедастичністъ (сталість дисперсії відхилень). Невиконання даної передумови називається гетероскедастичністю (дисперсія відхилень не є сталою). Наведемо приклади гомо- і гетероскедастичності на рис. 1, 2 .

Рис. 1 Гомоскедастичність Рис. 2 Гетероскедастичність
37. Поняття мультиколінеарності та її наслідки .
Мультиколінеарність означає існування тісної лінійної залежності, або сильної кореляції, між двома чи більше пояснюючими змінними.
Наслідки мультиколінеарності:
1) великі дисперсії (стандартні помилки) оцінок теоретичних параметрів;
2) зменшуються t - статистики коефіцієнтів, що може привести до невірного висновку про вплив відповідної пояснюючої змінної на залежну змінну;
3) оцінки теоретичних параметрів і їхні стандартні помилки стають дуже чуттєвими до найменшої зміни даних, тобто вони стають нестійкими;
4) можливе одержання невірного знака коефіцієнта регресії.
