Специфікація моделі

Парну регресію застосовують, якщо існує домінуючий фактор, який і виступає пояснювальною змінною. Аналітична форма моделі може бути різною залежно від економічної сутності зв’язків. Розглядають лінійні та нелінійні регресії.

Лінійну регресію описують рівнянням Y = a 0 + a 1 X. Нелінійні регресії поділяються на два класи (табл. 3):

· регресії, нелінійні відносно включених в аналіз пояснювальних змінних, але лінійні за параметрами;

· регресії, нелінійні за параметрами.

 

Таблиця 3

Вид регресії Приклад

Регресії, лінійні за параметрами

Поліноми різних степенів
Рівностороння гіпербола

Регресії, нелінійні за параметрами

Степенева
Показникова
Експоненціальна

 

У випадку парної регресії вибір специфікації моделі можна виконати візуально, використовуючи графічне зображення емпіричних даних як точок (xi, yi) на кореляційному полі в декартовій системі координат, які утворюють так звану діаграму розсіювання (рис. 2, ав). Так, виходячи з рис.2,а можна припустити, що зв’язок між Y та Х є лінійний: ; зображена на
рис.2,б залежність близька до параболічної: ; на рис.2,в явної залежності між Y та Х не спостерігаємо.

 

 

у у y

 

0 х 0 х 0 х

а б в

Рис. 2. Діаграми розсіювання

Визначення параметрів моделі

Для оцінки параметрів регресій, лінійних за параметрами, застосовують МНК. Метод дозволяє отримати такі оцінки параметрів, за яких сума квадратів відхилень фактичних значень результативної ознаки у від теоретичних значень за тих самих значень фактора х мінімальна, тобто

.

Геометричну ілюстрацію МНК показано на рис. 3.

 

y i
 
ei

Рис. 3. Геометрична ілюстрація методу найменших квадратів

 

У випадку лінійної регресії параметри знаходять із такої системи нормальних рівнянь:

де n – кількість спостережень; , , , – величини, які можна розрахувати на основі вихідних спостережень за змінними Y і X.

Розв’язавши подану систему, одержимо оцінки невідомих параметрів
і :

Зауваження .

1. МНК доцільно застосовувати тоді, коли виконуються такі передумови (гіпотези):

а) математичне сподівання залишків дорівнює нулю;

б) значення вектора залишків ε незалежні між собою й мають сталу дисперсію;

в) незалежна змінна моделі не зв’язана із залишками.

Ці гіпотези відомі як умови Гаусса – Маркова. У разі виконання цих умов МНК дозволяє створити найбільш відповідну емпіричним даним модель. Якщо деякі умови не виконуються, то необхідно застосовувати більш складні методи оцінювання.

2. Для нелінійних регресійних моделей, що є нелінійні відносно пояснювальної змінної, але лінійні за параметрами, МНК застосовують так само, як і у випадку лінійної регресії. До регресії, нелінійної за оцінюваними параметрами, залежно від вигляду функції можна застосовувати лінеаризуюче перетворення (буде описано далі).