Понятие мультиколлинеарности факторов. способы устранения

Под мультиколлинеарностью понимается высокая обоюдная коррелированность растолковывающих переменных. Мультиколлинеарность может проявляться в функциональной (явной) и стохастической (скрытой) формах. При функциональной форме мультиколлинеарности по крайней мере одна из парных связей между растолковывающими переменными есть линейной функциональной зависимостью. В этом случае матрица X`X особая, поскольку содержит линейно зависимые векторы-столбцы, и её определитель равен нулю, т.е. нарушается предпосылка регрессионного анализа, это ведет к неосуществимости ответа соответствующей совокупности обычных получения и уравнений оценок параметров регрессионной модели. Но в экономических изучениях мультиколлинеарность чаще проявляется в стохастической форме, в то время, когда между хотя бы двумя растолковывающими переменными существует тесная корреляционная сообщение. Матрица X`X в этом случае есть неособенной, но её определитель мал. Одновременно с этим вектор оценок b и его ковариционная матрица ?b пропорциональны обратной матрице (X`X)-1, соответственно, их элементы обратно пропорциональны величине определителя |X`X|. В следствии получаются большие средние квадратические отклонения (стандартные неточности) коэффициентов регрессии b0, b1,…,bp и оценка их значимости по t-критерию не имеет смысла, не смотря на то, что в целом регрессионная модель может оказаться значимой по F-критерию. Оценки становятся весьма чувствительными к малому трансформации объёма выборки и результатов наблюдений. Уравнения регрессии в этом случае, в большинстве случаев, не имеют настоящего смысла, поскольку кое-какие из его коэффициентов смогут иметь неправильные с позиций экономической теории символы и неоправданно громадные значения. Существует два главных способа устранения мультиколлинарности факторов: 1.Способ дополнительных регрессий: -Строятся уравнения регрессии, каковые связывают любой из регрессоров со всеми остальными; — Вычисляются коэффициенты детерминации для каждого уравнения регрессии; — Проверяется статистическая догадка посредством F-теста. Вывод: в случае если догадка не отвергается, то этот регрессор не ведет к мультиколлинеарности. 2. Способ последовательного присоединения: — Строится регрессионная модель с учетом всех предполагаемых регрессоров. По показателям делается вывод о вероятном присутствии мультиколлинеарности; — Рассчитывается матрица корреляций и выбирается регрессор, имеющий громаднейшую корреляцию с выходной переменной; — К выбранному регрессору последовательно добавляются любой из оставшихся регрессоров и вычисляются скорректированные коэффициенты детерминации для каждой из моделей. К модели присоединяется тот регрессор, что снабжает громаднейшее значение скорректированного . Процесс присоединения регрессоров заканчивается, в то время, когда значение скорректированного делается меньше достигнутого на прошлом шаге. Каким бы образом не осуществлялся отбор факторов, уменьшение их числа ведет к улучшению обусловленности матрицы , а, следовательно, и к увеличению качества оценок параметров модели. Кроме перечисленных способов существует ещё один, более простой, дающий достаточно прекрасные результаты — это способ предварительного центрирования. Сущность способа сводится к тому, что перед нахождением параметров математической модели проводится центрирование данных: из каждого значения в ряде данных вычитается среднее по последовательности: . Эта процедура разрешает так развести гиперплоскости условий МНК, дабы углы между ними были перпендикулярны. В следствии этого оценки модели становятся устойчивыми

Определение мультиколлинеарности


Также читать:

Понравилась статья? Поделиться с друзьями: