Рекурсивный МНК | это... Что такое Рекурсивный МНК? (original) (raw)

Рекурсивный или рекуррентный МНК (англ. Recursive Least Squares) - применяемая в эконометрике итеративная процедура оценки параметров регрессионной модели. Данный метод применяется при мультиколлинеарности факторов (в этом случае матрица X^TX близка к вырожденной и при ее обращении могут возникнуть большие вычислительные неточности). Также получающиеся в результате применения рекурсивного МНК (рекурсивные остатки) используются при тестировании стабильности параметров модели.

Описание метода

В данном методе вместо обращения плохо обусловленной матрицы X^TX производится расчет матрицы W_t согласно следующей реккурентной формуле:

W_t=W_{t-1}-\frac {W_{t-1}x_tx^T_tW_{t-1}} {1+x^T_tW_{t-1}x_t}~,~~t=k+1,...,n

То есть на каждом шаге вместо обращения производится деление на число. Для "запуска" процедуры нужно задать начальное значение матрицы.

Параметры модели оцениваются согласно следующему реккурентному соотношению:

\hat{b}_{t}=\hat{b}_{t-1}+(y_t-x^T_t \hat{b}_{t-1})W_tx_t

Выражение в скобках представляет собой ошибку прогноза на один период. Известно, что дисперсия ошибки такого прогноза будет равна \sigma^2 (1+x^T_tW_{t-1}x_t), где \sigma^2 - дисперсия случайных ошибок модели (предполагается классическая регрессионная модель). Для выравнивания дисперсии дисперсий ошибок прогнозов ошибки прогноза делят на квадратный корень из 1+x^T_tW_{t-1}x_t. Полученные величины и называют обычно рекурсивными остатками:

w_t=\frac {y_t-x^T_t \hat{b}_{t-1}}{\sqrt{1+x^T_tW_{t-1}x_t}}

Если регрессионная модель правильная (то есть соответствует моделируемой зависимости) и выполняются классические предположения, то полученные рекурсивные остатки являются независимыми случайными величинами с нулевым математическим ожиданием и постоянной дисперсией - iid(0,\sigma^2). Это позволяет использовать их для тестирования стабильности параметров модели.

См. также