Методы устранения гетероскедастичности остатков в уравнении регрессии

Видео:Часть 2. Множественная регрессия в Microsoft Excel. Автокорреляция, гетероскедастичность.Скачать

Часть 2. Множественная регрессия в Microsoft Excel. Автокорреляция, гетероскедастичность.

Устранение гетероскедастичности

В случае, когда присутствие гетероскедастичности установлено, возникает необходимость преобразования регрессионной модели с целью устранения данного нежелательного явления. Вид преобразования зависит от того, известны или нет дисперсии случайных отклонений Методы устранения гетероскедастичности остатков в уравнении регрессии

Предположим, что рассматриваемая модель гетероскедастична, и нам известны значения дисперсий остатков Методы устранения гетероскедастичности остатков в уравнении регрессиидля каждого t-го наблюдения. При отсутствии автокорреляции это означает, что ковариационная матрица случайных отклонений V(e) = W — диагональная. В данном случае можно устранить гетероскедастичность, разделив каждое значение зависимой и объясняющих переменных на соответствующее стандартное отклонение Методы устранения гетероскедастичности остатков в уравнении регрессииНормируя («взвешивая») переменные по σi, мы стремимся получить более точные оценки. В этом заключается суть так называемого взвешенного метода наименьших квадратов (ВМНК).

Для простоты изложения опишем ВМНК на примере парной регрессии:

Разделим каждый член модели (5.7) на известное σi:

Методы устранения гетероскедастичности остатков в уравнении регрессии(5.8)

Введем обозначения Методы устранения гетероскедастичности остатков в уравнении регрессииТогда уравнение модели (5.7) примет вид:

Методы устранения гетероскедастичности остатков в уравнении регрессии(5.9)

Полученное уравнение представляет собой регрессию без свободного члена, но с дополнительной объясняющей переменной U и с преобразованным случайным отклонением e*. Для преобразованной модели (5.9) дисперсия остатков Методы устранения гетероскедастичности остатков в уравнении регрессиит. е. имеет место гомоскедастичность. Действительно, можно записать Методы устранения гетероскедастичности остатков в уравнении регрессии Методы устранения гетероскедастичности остатков в уравнении регрессииТак как, согласно первой предпосылке МНК, математическое ожидание М(ei) = 0, то Методы устранения гетероскедастичности остатков в уравнении регрессииСледовательно, Методы устранения гетероскедастичности остатков в уравнении регрессии

Таким образом, ковариационная матрица W в выражении (5.1) становится единичной, а сама преобразованная модель (5.9) – классической, к которой применим «обычный» МНК. Другими словами, в данном случае обобщенным методом наименьших квадратов для модели с гетероскедастичностью является взвешенный метод наименьших квадратов (ВМНК). «Взвешивая» каждый остаток Методы устранения гетероскедастичности остатков в уравнении регрессиис помощью коэффициента 1/σi, мы добиваемся равномерного вклада остатков в общую дисперсию и, в конечном счете, получения эффективных оценок параметров модели.

Рассмотренная выше процедура применения ВМНК предполагает, что фактические значения дисперсий Методы устранения гетероскедастичности остатков в уравнении регрессиинам известны. Как уже было отмечено, такое предположение реализуется крайне редко. Для применения ВМНК на практике необходимо сделать некоторые достаточно реалистические предположения о значениях Методы устранения гетероскедастичности остатков в уравнении регрессии. Например, может оказаться целесообразным предположить, что дисперсии Методы устранения гетероскедастичности остатков в уравнении регрессииостатков ei пропорциональны значениям Методы устранения гетероскедастичности остатков в уравнении регрессии(стандартное отклонение остатков пропорционально независимой переменной) или значениям хi. Тогда необходимым преобразованием будет деление уравнения регрессии (5.7) на хi или Методы устранения гетероскедастичности остатков в уравнении регрессиисоответственно, что позволит нам получить «преобразованные» случайные отклонения Методы устранения гетероскедастичности остатков в уравнении регрессиии Методы устранения гетероскедастичности остатков в уравнении регрессии, для которых выполняется условие гомоскедастичности. Например, определим дисперсию случайного члена для случая пропорциональности стандартного отклонения значениям независимой переменной (σi = σ(ei) = lхi, где l — коэффициент пропорциональности). В силу выполнимости предпосылки МНК имеем:

Методы устранения гетероскедастичности остатков в уравнении регрессии

Несложно показать, что для отклонений Методы устранения гетероскедастичности остатков в уравнении регрессиитакже выполняется условие гомоскедастичности. Таким образом, для оценки преобразованных регрессий возможно применение МНК.

Рассматривая проведенные выше преобразования и их результаты, следует отметить, что применение обобщенного метода наименьших квадратов для моделей с гетероскедастичностью остатков заключается в минимизации суммы взвешенных квадратов отклонений выборочных данных от их оценок.

Автокорреляция

При анализе временных рядов часто приходится учитывать статистическую зависимость (коррелированность) наблюдений в разные моменты времени. Следовательно, в данном случае для регрессионных моделей Cov(ei, ej) ¹ 0, i ¹ j, т. е. третья предпосылка Гаусса-Маркова о некоррелированности остатков не выполняется. Такие регрессионные зависимости называются моделями с автокорреляцией (сериальной корреляцией) остатков. Для обобщенной линейной регрессионной модели с автокорреляцией ковариационная матрица случайных отклонений W не может быть диагональной.

Последствия автокорреляции остатков во многом сходны с последствиями гетероскедастичности (см. раздел 5.2). Среди них особенно следует выделить ухудшение прогнозных качеств моделей временных рядов.

Поскольку автокорреляция рассматривается в регрессионном анализе при использовании данных временных рядов, в дальнейших выкладках вместо символа i порядкового номера наблюдения будем использовать символ t отражающий момент наблюдения во времени (t = 1, 2, …, n). В экономических задачах более часто встречается так называемая положительная автокорреляция (Cov(et 1, et) > 0 для соседних отклонений), нежели отрицательная автокорреляция (Cov(et 1, et)

Дата добавления: 2016-06-02 ; просмотров: 2636 ; ЗАКАЗАТЬ НАПИСАНИЕ РАБОТЫ

Видео:Сравнение оценок при гетероскедастичностиСкачать

Сравнение оценок при гетероскедастичности

Устранение гетероскедастичности. Метод взвешенных наименьших квадратов.

Одной из ключевых предпосылок МНК является условие постоянства дисперсий случайных отклонений для любых наблюдений. Выполнимость данной предпосылки называетсягомоскедастичностью; невыполнимость данной предпосылки называется гетероскедастичностью.

В качестве примера реальной гетероскедастичности можно сказать, что люди с большим доходом не только тратят в среднем больше, чем люди с меньшим доходом, но и разброс в их потреблении также больше, поскольку они имеют больше простора для распределения дохода.

При гетероскедастичности последствия применения МНК будут следующими:

1. Оценки параметров останутся по-прежнему несмещенными и линейными.

2. Оценки не будут эффективными, т.е. не будут иметь наименьшую дисперсию по сравнению с другими оценками данного параметра. Они не будут даже асимптотически эффективными. Увеличение дисперсии оценок снижает вероятность получения максимально точных оценок.

3. Дисперсии оценок параметров будут рассчитываться со смещением.

4. Все выводы, получаемые на основе соответствующих t – и F – статистик, а также интервальные оценки будут ненадежными. Вполне вероятно, что стандартные ошибки коэффициентов будут занижены, а t – статистики завышены. Это может привести к признанию статистически значимыми коэффициентов, которые таковыми на самом деле не являются.

При установлении гетероскедастичности возникает необходимость преобразования модели с целью устранения данного недостатка. Вид преобразования зависит от того, известны или нет дисперсии отклонений Методы устранения гетероскедастичности остатков в уравнении регрессии.

В случае, если дисперсии отклонений известны для каждого наблюдения, применяется методвзвешенных наименьших квадратов(ВНК). Гетероскедастичность устраняется, если разделить каждое наблюдаемое значение на соответствующее ему значение дисперсии.

Рассмотрим для простоты ВНК на примере парной регрессии:

Методы устранения гетероскедастичности остатков в уравнении регрессии(57)

Разделим обе части (57) на известное Методы устранения гетероскедастичности остатков в уравнении регрессии:

Методы устранения гетероскедастичности остатков в уравнении регрессии(58)

Сделаем замены переменных:

Методы устранения гетероскедастичности остатков в уравнении регрессии(59)

получим уравнение регрессии без свободного члена, но с двумя факторами и с преобразованным отклонением:

Методы устранения гетероскедастичности остатков в уравнении регрессии(60)

Можно показать, что для vi выполняется условие гомоскедастичности. Поэтому для модели (60) выполняются все предпосылки МНК, и оценки, полученные по МНК, будут наилучшими линейными несмещенными оценками.

Таким образом, наблюдения с наименьшими дисперсиями получают наибольшие «веса», а наблюдения с наибольшими дисперсиями – наименьшие «веса». Поэтому наблюдения с меньшими дисперсиями отклонений будут более значимыми при оценке параметров регрессии, чем наблюдения с большими дисперсиями. При этом повышается вероятность получения более точных оценок.

Полученные по МНК оценки параметров модели (60) можно использовать в первоначальной модели (57).

Для применения ВНК необходимо знать фактические значения дисперсий отклонений Методы устранения гетероскедастичности остатков в уравнении регрессии. На практике такие значения известны крайне редко. Поэтому, чтобы применить ВНК, необходимо сделать реалистические предположения о значениях Методы устранения гетероскедастичности остатков в уравнении регрессии. Чаще всего предполагается, что дисперсии отклонений пропорциональны или значениям xi, или значениям Методы устранения гетероскедастичности остатков в уравнении регрессии.

Если предположить, что дисперсии пропорциональны значениям фактора x, т.е.

Методы устранения гетероскедастичности остатков в уравнении регрессии(61)

тогда уравнение (57) преобразуется делением его левой и правой частей на Методы устранения гетероскедастичности остатков в уравнении регрессии:

Методы устранения гетероскедастичности остатков в уравнении регрессии

Методы устранения гетероскедастичности остатков в уравнении регрессии(62)

Здесь для случайных отклонений Методы устранения гетероскедастичности остатков в уравнении регрессиивыполняется условие гомоскедастичности. Следовательно, для регрессии (62) применим обычный МНК. Следует отметить, что регрессия (62) не имеет свободного члена, но зависит от двух факторов. Оценив для (62) по МНК коэффициенты а и b, возвращаемся к исходному уравнению регрессии.

Если в уравнении регрессии присутствует несколько объясняющих переменных, вместо конкретной переменной xj используется исходное уравнение множественной регрессии

Методы устранения гетероскедастичности остатков в уравнении регрессии

т.е. фактически линейная комбинация факторов. В этом случае получают следующую регрессию:

Методы устранения гетероскедастичности остатков в уравнении регрессии(63)

Если предположить, что дисперсии Методы устранения гетероскедастичности остатков в уравнении регрессиипропорциональны Методы устранения гетероскедастичности остатков в уравнении регрессии, то соответствующим преобразованием будет деление уравнения регрессии (57) на xi:

Методы устранения гетероскедастичности остатков в уравнении регрессии

или, если переобозначить остатки как Методы устранения гетероскедастичности остатков в уравнении регрессии:

Методы устранения гетероскедастичности остатков в уравнении регрессии(64)

Здесь для отклонений vi также выполняется условие гомоскедастичности. Применяя обычный МНК к регрессии (64) в преобразованных переменных

Методы устранения гетероскедастичности остатков в уравнении регрессии,

получим оценки параметров, после чего возвращаемся к исходному уравнению (57). Отметим, что в регрессии (64) по сравнению с исходным уравнением параметры поменялись ролями: свободный член а стал коэффициентом, а коэффициент b – свободным членом.

🎬 Видео

Робастные стандартные ошибки и обнаружение гетероскедастичностиСкачать

Робастные стандартные ошибки и обнаружение гетероскедастичности

Тест Голдфелда-Квандта в Microsoft Excel. Гетероскедастичность.Скачать

Тест Голдфелда-Квандта в Microsoft Excel. Гетероскедастичность.

Что такое Гомоскедастичность и ГетероскедастичностьСкачать

Что такое Гомоскедастичность и Гетероскедастичность

Метод наименьших квадратов. Регрессионный анализ.Скачать

Метод наименьших квадратов. Регрессионный анализ.

Парная регрессия: линейная зависимостьСкачать

Парная регрессия: линейная зависимость

Множественная регрессия в Excel и мультиколлинеарностьСкачать

Множественная регрессия в Excel и мультиколлинеарность

тестируем остатки на гетероскедастичность в EViewsСкачать

тестируем остатки на гетероскедастичность в EViews

Математика #1 | Корреляция и регрессияСкачать

Математика #1 | Корреляция и регрессия

Линейная регрессия. Что спросят на собеседовании? ч.1Скачать

Линейная регрессия. Что спросят на собеседовании? ч.1

Множественная регрессия в ExcelСкачать

Множественная регрессия в Excel

Эконометрика Линейная регрессия и корреляцияСкачать

Эконометрика  Линейная регрессия и корреляция

Как работает метод наименьших квадратов? Душкин объяснитСкачать

Как работает метод наименьших квадратов? Душкин объяснит

Последствия гетероскедастичности для малых выборокСкачать

Последствия гетероскедастичности для малых выборок

Регрессия в ExcelСкачать

Регрессия в Excel

Мораль лекции о гетероскедастичностиСкачать

Мораль лекции о гетероскедастичности

Проверка на наличие гетероскедастичности (гомоскедастичности)Скачать

Проверка на наличие гетероскедастичности (гомоскедастичности)

Пример теста УайтаСкачать

Пример теста Уайта

Множественная регрессия в программе SPSS (Multiple regression)Скачать

Множественная регрессия в программе SPSS (Multiple regression)
Поделиться или сохранить к себе: