Коэффициент a и b линейного уравнения регрессии y ax b

Содержание
  1. Основы линейной регрессии
  2. Что такое регрессия?
  3. Линия регрессии
  4. Метод наименьших квадратов
  5. Предположения линейной регрессии
  6. Аномальные значения (выбросы) и точки влияния
  7. Гипотеза линейной регрессии
  8. Оценка качества линейной регрессии: коэффициент детерминации R 2
  9. Применение линии регрессии для прогноза
  10. Простые регрессионные планы
  11. Пример: простой регрессионный анализ
  12. Задача исследования
  13. Просмотр результатов
  14. Коэффициенты регрессии
  15. Распределение переменных
  16. Диаграмма рассеяния
  17. Критерии значимости
  18. Парная линейная регрессия. Задачи регрессионного анализа
  19. Понятие линейной регрессии. Парная линейная регрессия
  20. Уравнение парной линейной регрессии и метод наименьших квадратов
  21. Определение коэффициентов уравнения парной линейной регрессии
  22. Составить уравнение парной линейной регрессии самостоятельно, а затем посмотреть решение
  23. Анализ качества модели линейной регрессии
  24. Коэффициент детерминации
  25. F-статистика (статистика Фишера) для проверки качества модели линейной регрессии
  26. Сумма квадратов остатков
  27. Стандартная ошибка регрессии
  28. Интерпретация коэффициентов уравнения парной линейной регрессии и прогноз значений зависимой переменной
  29. Задачи регрессионного анализа
  30. Проверка гипотезы о равенстве нулю коэффициента направления прямой парной линейной регрессии
  31. Решаем уравнение простой линейной регрессии
  32. Условия примера
  33. Метод наименьших квадратов
  34. Дифференцирование
  35. Загрузка и форматирование данных
  36. Визуализация
  37. Аналитическое решение
  38. Градиентный спуск
  39. Стохастический градиентный спуск
  40. Резюмируем
  41. 💡 Видео

Видео:Эконометрика. Линейная парная регрессияСкачать

Эконометрика. Линейная парная регрессия

Основы линейной регрессии

Видео:Парная регрессия: линейная зависимостьСкачать

Парная регрессия: линейная зависимость

Что такое регрессия?

Разместим точки на двумерном графике рассеяния и скажем, что мы имеем линейное соотношение, если данные аппроксимируются прямой линией.

Если мы полагаем, что y зависит от x, причём изменения в y вызываются именно изменениями в x, мы можем определить линию регрессии (регрессия y на x), которая лучше всего описывает прямолинейное соотношение между этими двумя переменными.

Статистическое использование слова «регрессия» исходит из явления, известного как регрессия к среднему, приписываемого сэру Френсису Гальтону (1889).

Он показал, что, хотя высокие отцы имеют тенденцию иметь высоких сыновей, средний рост сыновей меньше, чем у их высоких отцов. Средний рост сыновей «регрессировал» и «двигался вспять» к среднему росту всех отцов в популяции. Таким образом, в среднем высокие отцы имеют более низких (но всё-таки высоких) сыновей, а низкие отцы имеют сыновей более высоких (но всё-таки довольно низких).

Видео:Метод наименьших квадратов. Линейная аппроксимацияСкачать

Метод наименьших квадратов. Линейная аппроксимация

Линия регрессии

Математическое уравнение, которое оценивает линию простой (парной) линейной регрессии:

x называется независимой переменной или предиктором.

Y – зависимая переменная или переменная отклика. Это значение, которое мы ожидаем для y (в среднем), если мы знаем величину x, т.е. это «предсказанное значение y»

  • a – свободный член (пересечение) линии оценки; это значение Y, когда x=0 (Рис.1).
  • b – угловой коэффициент или градиент оценённой линии; она представляет собой величину, на которую Y увеличивается в среднем, если мы увеличиваем x на одну единицу.
  • a и b называют коэффициентами регрессии оценённой линии, хотя этот термин часто используют только для b.

Парную линейную регрессию можно расширить, включив в нее более одной независимой переменной; в этом случае она известна как множественная регрессия.

Коэффициент a и b линейного уравнения регрессии y ax b

Рис.1. Линия линейной регрессии, показывающая пересечение a и угловой коэффициент b (величину возрастания Y при увеличении x на одну единицу)

Видео:Коэффициент регрессии и регрессионной зависимости.Скачать

Коэффициент регрессии и регрессионной зависимости.

Метод наименьших квадратов

Мы выполняем регрессионный анализ, используя выборку наблюдений, где a и b – выборочные оценки истинных (генеральных) параметров, α и β , которые определяют линию линейной регрессии в популяции (генеральной совокупности).

Наиболее простым методом определения коэффициентов a и b является метод наименьших квадратов (МНК).

Подгонка оценивается, рассматривая остатки (вертикальное расстояние каждой точки от линии, например, остаток = наблюдаемому y – предсказанный y, Рис. 2).

Линию лучшей подгонки выбирают так, чтобы сумма квадратов остатков была минимальной.

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 2. Линия линейной регрессии с изображенными остатками (вертикальные пунктирные линии) для каждой точки.

Видео:Коэффициент линейной регрессии, 2 способаСкачать

Коэффициент линейной регрессии, 2 способа

Предположения линейной регрессии

Итак, для каждой наблюдаемой величины Коэффициент a и b линейного уравнения регрессии y ax bостаток равен разнице Коэффициент a и b линейного уравнения регрессии y ax bи соответствующего предсказанного Коэффициент a и b линейного уравнения регрессии y ax bКаждый остаток может быть положительным или отрицательным.

Можно использовать остатки для проверки следующих предположений, лежащих в основе линейной регрессии:

  • Между Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bсуществует линейное соотношение: для любых пар Коэффициент a и b линейного уравнения регрессии y ax bданные должны аппроксимировать прямую линию. Если нанести на двумерный график остатки, то мы должны наблюдать случайное рассеяние точек, а не какую-либо систематическую картину.
  • Остатки нормально распределены с нулевым средним значением;
  • Остатки имеют одну и ту же вариабельность (постоянную дисперсию) для всех предсказанных величин Коэффициент a и b линейного уравнения регрессии y ax bЕсли нанести остатки против предсказанных величин Коэффициент a и b линейного уравнения регрессии y ax bот Коэффициент a и b линейного уравнения регрессии y ax bмы должны наблюдать случайное рассеяние точек. Если график рассеяния остатков увеличивается или уменьшается с увеличением Коэффициент a и b линейного уравнения регрессии y ax bто это допущение не выполняется;

Если допущения линейности, нормальности и/или постоянной дисперсии сомнительны, мы можем преобразовать Коэффициент a и b линейного уравнения регрессии y ax bили Коэффициент a и b линейного уравнения регрессии y ax bи рассчитать новую линию регрессии, для которой эти допущения удовлетворяются (например, использовать логарифмическое преобразование или др.).

Видео:Уравнение линейной регрессии. Интерпретация стандартной табличкиСкачать

Уравнение линейной регрессии. Интерпретация стандартной таблички

Аномальные значения (выбросы) и точки влияния

«Влиятельное» наблюдение, если оно опущено, изменяет одну или больше оценок параметров модели (т.е. угловой коэффициент или свободный член).

Выброс (наблюдение, которое противоречит большинству значений в наборе данных) может быть «влиятельным» наблюдением и может хорошо обнаруживаться визуально, при осмотре двумерной диаграммы рассеяния или графика остатков.

И для выбросов, и для «влиятельных» наблюдений (точек) используют модели, как с их включением, так и без них, обращают внимание на изменение оценки (коэффициентов регрессии).

При проведении анализа не стоит отбрасывать выбросы или точки влияния автоматически, поскольку простое игнорирование может повлиять на полученные результаты. Всегда изучайте причины появления этих выбросов и анализируйте их.

Видео:Математика #1 | Корреляция и регрессияСкачать

Математика #1 | Корреляция и регрессия

Гипотеза линейной регрессии

При построении линейной регрессии проверяется нулевая гипотеза о том, что генеральный угловой коэффициент линии регрессии β равен нулю.

Если угловой коэффициент линии равен нулю, между Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bнет линейного соотношения: изменение Коэффициент a и b линейного уравнения регрессии y ax bне влияет на Коэффициент a и b линейного уравнения регрессии y ax b

Для тестирования нулевой гипотезы о том, что истинный угловой коэффициент Коэффициент a и b линейного уравнения регрессии y ax bравен нулю можно воспользоваться следующим алгоритмом:

Вычислить статистику критерия, равную отношению Коэффициент a и b линейного уравнения регрессии y ax b, которая подчиняется Коэффициент a и b линейного уравнения регрессии y ax bраспределению с Коэффициент a и b линейного уравнения регрессии y ax bстепенями свободы, где Коэффициент a и b линейного уравнения регрессии y ax bстандартная ошибка коэффициента Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b,

Коэффициент a и b линейного уравнения регрессии y ax b— оценка дисперсии остатков.

Обычно если достигнутый уровень значимости Коэффициент a и b линейного уравнения регрессии y ax bнулевая гипотеза отклоняется.

Можно рассчитать 95% доверительный интервал для генерального углового коэффициента Коэффициент a и b линейного уравнения регрессии y ax b:

Коэффициент a и b линейного уравнения регрессии y ax b

где Коэффициент a и b линейного уравнения регрессии y ax bпроцентная точка Коэффициент a и b линейного уравнения регрессии y ax bраспределения со степенями свободы Коэффициент a и b линейного уравнения регрессии y ax bчто дает вероятность двустороннего критерия Коэффициент a и b линейного уравнения регрессии y ax b

Это тот интервал, который содержит генеральный угловой коэффициент с вероятностью 95%.

Для больших выборок, скажем, Коэффициент a и b линейного уравнения регрессии y ax bмы можем аппроксимировать Коэффициент a и b линейного уравнения регрессии y ax bзначением 1,96 (то есть статистика критерия будет стремиться к нормальному распределению)

Видео:Как вычислить линейный коэффициент корреляции в MS Excel и построить уравнение регрессии?Скачать

Как вычислить линейный коэффициент корреляции в MS Excel  и построить уравнение регрессии?

Оценка качества линейной регрессии: коэффициент детерминации R 2

Из-за линейного соотношения Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bмы ожидаем, что Коэффициент a и b линейного уравнения регрессии y ax bизменяется, по мере того как изменяется Коэффициент a и b линейного уравнения регрессии y ax b, и называем это вариацией, которая обусловлена или объясняется регрессией. Остаточная вариация должна быть как можно меньше.

Если это так, то большая часть вариации Коэффициент a и b линейного уравнения регрессии y ax bбудет объясняться регрессией, а точки будут лежать близко к линии регрессии, т.е. линия хорошо соответствует данным.

Долю общей дисперсии Коэффициент a и b линейного уравнения регрессии y ax b, которая объясняется регрессией называют коэффициентом детерминации, обычно выражают через процентное соотношение и обозначают R 2 (в парной линейной регрессии это величина r 2 , квадрат коэффициента корреляции), позволяет субъективно оценить качество уравнения регрессии.

Разность Коэффициент a и b линейного уравнения регрессии y ax bпредставляет собой процент дисперсии который нельзя объяснить регрессией.

Нет формального теста для оценки Коэффициент a и b линейного уравнения регрессии y ax bмы вынуждены положиться на субъективное суждение, чтобы определить качество подгонки линии регрессии.

Видео:Лекция 8. Линейная регрессияСкачать

Лекция 8. Линейная регрессия

Применение линии регрессии для прогноза

Можно применять регрессионную линию для прогнозирования Коэффициент a и b линейного уравнения регрессии y ax bзначения по значению Коэффициент a и b линейного уравнения регрессии y ax bв пределе наблюдаемого диапазона (никогда не экстраполируйте вне этих пределов).

Мы предсказываем среднюю величину Коэффициент a и b линейного уравнения регрессии y ax bдля наблюдаемых, которые имеют определенное значение Коэффициент a и b линейного уравнения регрессии y ax bпутем подстановки этого значения Коэффициент a и b линейного уравнения регрессии y ax bв уравнение линии регрессии.

Итак, если Коэффициент a и b линейного уравнения регрессии y ax bпрогнозируем Коэффициент a и b линейного уравнения регрессии y ax bкак Коэффициент a и b линейного уравнения регрессии y ax bИспользуем эту предсказанную величину и ее стандартную ошибку, чтобы оценить доверительный интервал для истинной средней величины Коэффициент a и b линейного уравнения регрессии y ax bв популяции.

Повторение этой процедуры для различных величин Коэффициент a и b линейного уравнения регрессии y ax bпозволяет построить доверительные границы для этой линии. Это полоса или область, которая содержит истинную линию, например, с 95% доверительной вероятностью.

Подобным образом можно рассчитать более широкую область, внутри которой, как мы ожидаем, лежит наибольшее число (обычно 95%) наблюдений.

Видео:Линейная регрессияСкачать

Линейная регрессия

Простые регрессионные планы

Простые регрессионные планы содержат один непрерывный предиктор. Если существует 3 наблюдения со значениями предиктора P , например, 7, 4 и 9, а план включает эффект первого порядка P , то матрица плана X будет иметь вид

Коэффициент a и b линейного уравнения регрессии y ax b

а регрессионное уравнение с использованием P для X1 выглядит как

Если простой регрессионный план содержит эффект высшего порядка для P , например квадратичный эффект, то значения в столбце X1 в матрице плана будут возведены во вторую степень:

Коэффициент a и b линейного уравнения регрессии y ax b

а уравнение примет вид

Y = b 0 + b 1 P 2

Сигма -ограниченные и сверхпараметризованные методы кодирования не применяются по отношению к простым регрессионным планам и другим планам, содержащим только непрерывные предикторы (поскольку, просто не существует категориальных предикторов). Независимо от выбранного метода кодирования, значения непрерывных переменных увеличиваются в соответствующей степени и используются как значения для переменных X . При этом перекодировка не выполняется. Кроме того, при описании регрессионных планов можно опустить рассмотрение матрицы плана X , а работать только с регрессионным уравнением.

Видео:Эконометрика. Оценка значимости параметров уравнения регрессии. Критерий Стьюдента.Скачать

Эконометрика. Оценка значимости параметров уравнения регрессии. Критерий Стьюдента.

Пример: простой регрессионный анализ

Этот пример использует данные, представленные в таблице:

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 3. Таблица исходных данных.

Данные составлены на основе сравнения переписей 1960 и 1970 в произвольно выбранных 30 округах. Названия округов представлены в виде имен наблюдений. Информация относительно каждой переменной представлена ниже:

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 4. Таблица спецификаций переменных.

Задача исследования

Для этого примера будут анализироваться корреляция уровня бедности и степень, которая предсказывает процент семей, которые находятся за чертой бедности. Следовательно мы будем трактовать переменную 3 ( Pt_Poor ) как зависимую переменную.

Можно выдвинуть гипотезу: изменение численности населения и процент семей, которые находятся за чертой бедности, связаны между собой. Кажется разумным ожидать, что бедность ведет к оттоку населения, следовательно, здесь будет отрицательная корреляция между процентом людей за чертой бедности и изменением численности населения. Следовательно мы будем трактовать переменную 1 ( Pop_Chng ) как переменную-предиктор.

Просмотр результатов

Коэффициенты регрессии

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 5. Коэффициенты регрессии Pt_Poor на Pop_Chng.

На пересечении строки Pop_Chng и столбца Парам. не стандартизованный коэффициент для регрессии Pt_Poor на Pop_Chng равен -0.40374 . Это означает, что для каждого уменьшения численности населения на единицу, имеется увеличение уровня бедности на .40374. Верхний и нижний (по умолчанию) 95% доверительные пределы для этого не стандартизованного коэффициента не включают ноль, так что коэффициент регрессии значим на уровне p . Обратите внимание на не стандартизованный коэффициент, который также является коэффициентом корреляции Пирсона для простых регрессионных планов, равен -.65, который означает, что для каждого уменьшения стандартного отклонения численности населения происходит увеличение стандартного отклонения уровня бедности на .65.

Распределение переменных

Коэффициенты корреляции могут стать существенно завышены или занижены, если в данных присутствуют большие выбросы. Изучим распределение зависимой переменной Pt_Poor по округам. Для этого построим гистограмму переменной Pt_Poor .

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 6. Гистограмма переменной Pt_Poor.

Как вы можете заметить, распределение этой переменной заметно отличается от нормального распределения. Тем не менее, хотя даже два округа (два правых столбца) имеют высокий процент семей, которые находятся за чертой бедности, чем ожидалось в случае нормального распределения, кажется, что они находятся «внутри диапазона.»

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 7. Гистограмма переменной Pt_Poor.

Это суждение в некоторой степени субъективно. Эмпирическое правило гласит, что выбросы необходимо учитывать, если наблюдение (или наблюдения) не попадают в интервал (среднее ± 3 умноженное на стандартное отклонение). В этом случае стоит повторить анализ с выбросами и без, чтобы убедиться, что они не оказывают серьезного эффекта на корреляцию между членами совокупности.

Диаграмма рассеяния

Если одна из гипотез априори о взаимосвязи между заданными переменными, то ее полезно проверить на графике соответствующей диаграммы рассеяния.

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 8. Диаграмма рассеяния.

Диаграмма рассеяния показывает явную отрицательную корреляцию ( -.65 ) между двумя переменными. На ней также показан 95% доверительный интервал для линии регрессии, т.е., с 95% вероятностью линия регрессии проходит между двумя пунктирными кривыми.

Критерии значимости

Коэффициент a и b линейного уравнения регрессии y ax b

Рис. 9. Таблица, содержащая критерии значимости.

Критерий для коэффициента регрессии Pop_Chng подтверждает, что Pop_Chng сильно связано с Pt_Poor , p .

На этом примере было показано, как проанализировать простой регрессионный план. Была также представлена интерпретация не стандартизованных и стандартизованных коэффициентов регрессии. Обсуждена важность изучения распределения откликов зависимой переменной, продемонстрирована техника определения направления и силы взаимосвязи между предиктором и зависимой переменной.

Видео:Коэффициент детерминации. Основы эконометрикиСкачать

Коэффициент детерминации. Основы эконометрики

Парная линейная регрессия. Задачи регрессионного анализа

Будут и задачи для самостоятельного решения, к которым можно посмотреть ответы.

Видео:Регрессия - как строить и интерпретировать. Примеры линейной и множественной регрессии.Скачать

Регрессия - как строить и интерпретировать. Примеры линейной и множественной регрессии.

Понятие линейной регрессии. Парная линейная регрессия

Линейная регрессия — выраженная в виде прямой зависимость среднего значения какой-либо величины от некоторой другой величины. В отличие от функциональной зависимости y = f(x) , когда каждому значению независимой переменной x соответствует одно определённое значение величины y, при линейной регрессии одному и тому же значению x могут соответствовать в зависимости от случая различные значения величины y.

Если в результате наблюдения установлено, что при каждом определённом значении x существует сколько-то (n) значений переменной y, то зависимость средних арифметических значений y от x и является регрессией в статистическом понимании.

Если установленная зависимость может быть записана в виде уравнения прямой

то эта регрессионная зависимость называется линейной регрессией.

О парной линейной регрессии говорят, когда установлена зависимость между двумя переменными величинами (x и y). Парная линейная регрессия называется также однофакторной линейной регрессией, так как один фактор (независимая переменная x) влияет на результирующую переменную (зависимую переменную y).

В уроке о корреляционной зависимости были разобраны примеры того, как цена на квартиры зависит от общей площади квартиры и от площади кухни (две различные независимые переменные) и о том, что результаты наблюдений расположены в некотором приближении к прямой, хотя и не на самой прямой. Если точки корреляционной диаграммы соединить ломанной линией, то будет получена линия эмпирической регрессии. А если эта линия будет выровнена в прямую, то полученная прямая будет прямой теоретической регрессии. На рисунке ниже она красного цвета (для увеличения рисунка щёлкнуть по нему левой кнопкой мыши).

Коэффициент a и b линейного уравнения регрессии y ax b

По этой прямой теоретической регрессии может быть сделан прогноз или восстановление неизвестных значений зависимой переменной по заданным значениям независимой переменной.

В случае парной линейной регрессии для данных генеральной совокупности связь между независимой переменной (факториальным признаком) X и зависимой переменной (результативным признаком) Y описывает модель

Коэффициент a и b линейного уравнения регрессии y ax b,

Коэффициент a и b линейного уравнения регрессии y ax b— свободный член прямой парной линейной регрессии,

Коэффициент a и b линейного уравнения регрессии y ax b— коэффициент направления прямой парной линейной регрессии,

Коэффициент a и b линейного уравнения регрессии y ax b— случайная погрешность,

N — число элементов генеральной совокупности.

Уравнение парной линейной регрессии для генеральной совокупности можно построить, если доступны данные обо всех элементах генеральной совокупности. На практике данные всей генеральной совокупности недоступны, но доступны данные об элементах некоторой выборки.

Поэтому параметры генеральной совокупности оценивают при помощи соответствующих параметров соответствующей выборки: свободный член прямой парной линейной регрессии генеральной совокупности Коэффициент a и b линейного уравнения регрессии y ax bзаменяют на свободный член прямой парной линейной регрессии выборки Коэффициент a и b линейного уравнения регрессии y ax b, а коэффициент направления прямой парной линейной регрессии генеральной совокупности Коэффициент a и b линейного уравнения регрессии y ax b— на коэффициент направления прямой парной линейной регрессии выборки Коэффициент a и b линейного уравнения регрессии y ax b.

В результате получаем уравнение парной линейной регрессии выборки

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b— оценка полученной с помощью модели линейной регрессии зависимой переменной Y,

Коэффициент a и b линейного уравнения регрессии y ax b— погрешность,

n — размер выборки.

Чтобы уравнение парной линейной регрессии было более похоже на привычное уравнение прямой, его часто также записывают в виде

Коэффициент a и b линейного уравнения регрессии y ax b.

Видео:Линейная регрессия в Python за 13 МИН для чайников [#Машинное Обучения от 16 летнего Школьника]Скачать

Линейная регрессия в Python за 13 МИН для чайников [#Машинное Обучения от 16 летнего Школьника]

Уравнение парной линейной регрессии и метод наименьших квадратов

Определение коэффициентов уравнения парной линейной регрессии

Если заранее известно, что зависимость между факториальным признаком x и результативным признаком y должна быть линейной, выражающейся в виде уравнения типа Коэффициент a и b линейного уравнения регрессии y ax b, задача сводится к нахождению по некоторой группе точек наилучшей прямой, называемой прямой парной линейной регрессии. Следует найти такие значения коэффициентов a и b , чтобы сумма квадратов отклонений Коэффициент a и b линейного уравнения регрессии y ax bбыла наименьшей:

Коэффициент a и b линейного уравнения регрессии y ax b.

Если через Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bобозначить средние значения признаков X и Y,то полученная с помощью метода наименьших квадратов функция регрессии удовлетворяет следующим условиям:

  • прямая парной линейной регрессии проходит через точку Коэффициент a и b линейного уравнения регрессии y ax b;
  • среднее значение отклонений равна нулю: Коэффициент a и b линейного уравнения регрессии y ax b;
  • значения Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bне связаны: Коэффициент a и b линейного уравнения регрессии y ax b.

Условие метода наименьших квадратов выполняется, если значения коэффициентов равны:

Коэффициент a и b линейного уравнения регрессии y ax b,

Коэффициент a и b линейного уравнения регрессии y ax b.

Пример 1. Найти уравнение парной линейной регрессии зависимости между валовым внутренним продуктом (ВВП) и частным потреблением на основе данных примера урока о корреляционной зависимости (эта ссылка, которая откроется в новом окне, потребуется и при разборе следующих примеров).

Решение. Используем рассчитанные в решении названного выше примера суммы:

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Используя эти суммы, вычислим коэффициенты:

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

Таким образом получили уравнение прямой парной линейной регрессии:

Коэффициент a и b линейного уравнения регрессии y ax b

Составить уравнение парной линейной регрессии самостоятельно, а затем посмотреть решение

Пример 2. Найти уравнение парной линейной регрессии для выборки из 6 наблюдений, если уже вычислены следующие промежуточные результаты:

Коэффициент a и b линейного уравнения регрессии y ax b;

Коэффициент a и b линейного уравнения регрессии y ax b;

Коэффициент a и b линейного уравнения регрессии y ax b;

Коэффициент a и b линейного уравнения регрессии y ax b;

Видео:Что такое линейная регрессия? Душкин объяснитСкачать

Что такое линейная регрессия? Душкин объяснит

Анализ качества модели линейной регрессии

Метод наименьших квадратов имеет по меньшей мере один существенный недостаток: с его помощью можно найти уравнение линейной регрессии и в тех случаях, когда данные наблюдений значительно рассеяны вокруг прямой регрессии, то есть находятся на значительном расстоянии от этой прямой. В таких случаях за точность прогноза значений зависимой переменной ручаться нельзя. Существуют показатели, которые позволяют оценить качество уравнения линейной регрессии прежде чем использовать модели линейной регрессии для практических целей. Разберём важнейшие из этих показателей.

Коэффициент детерминации

Коэффициент детерминации Коэффициент a и b линейного уравнения регрессии y ax bпринимает значения от 0 до 1 и в случае качественной модели линейной регрессии стремится к единице. Коэффициент детерминации показывает, какую часть общего рассеяния зависимой переменной объясняет независимая переменная:

Коэффициент a и b линейного уравнения регрессии y ax b,

Коэффициент a и b линейного уравнения регрессии y ax b— сумма квадратов отклонений, объясняемых моделью линейной регрессии, которая характеризует рассеяние точек прямой регрессии относительно арифметического среднего,

Коэффициент a и b линейного уравнения регрессии y ax b— общая сумма квадратов отклонений, которая характеризует рассеяние зависимой переменной Y относительно арифметического среднего,

Коэффициент a и b линейного уравнения регрессии y ax b— сумма квадратов отклонений ошибки (не объясняемых моделью линейной регрессии), которая характеризует рассеяние зависимой переменной Y относительно прямой регресии.

Пример 3. Даны сумма квадратов отклонений, объясняемых моделью линейной регрессии (3500), общая сумма квадратов отклонений (5000) и сумма квадратов отклонений ошибки (1500). Найти коэффициент детерминации двумя способами.

F-статистика (статистика Фишера) для проверки качества модели линейной регрессии

Минимальное возможное значение F-статистики — 0. Чем выше значение статистики Фишера, тем качественнее модель линейной регрессии. Этот показатель представляет собой отношение объясненной суммы квадратов (в расчете на одну независимую переменную) к остаточной сумме квадратов (в расчете на одну степень свободы):

Коэффициент a и b линейного уравнения регрессии y ax b

где m — число объясняющих переменных.

Сумма квадратов остатков

Сумма квадратов остатков (RSS) измеряет необъясненную часть дисперсии зависимой переменной:

Коэффициент a и b линейного уравнения регрессии y ax b

Коэффициент a и b линейного уравнения регрессии y ax b

остатки — разности между реальными значениями зависимой переменной и значениями, оценёнными уравнением линейной регрессии.

В случае качественной модели линейной регрессии сумма квадратов остатков стремится к нулю.

Стандартная ошибка регрессии

Стандартная ошибка регрессии (SEE) измеряет величину квадрата ошибки, приходящейся на одну степень свободы модели:

Коэффициент a и b линейного уравнения регрессии y ax b

Чем меньше значение SEE, тем качественнее модель.

Пример 4. Рассчитать коэффициент детерминации для данных из примера 1.

Решение. На основании данных таблицы (она была приведена в примере урока о корреляционной зависимости) получаем, что SST = 63 770,593 , SSE = 10 459,587 , SSR = 53 311,007 .

Можем убедиться, что выполняется закономерность SSR = SSTSSE :

Получаем коэффициент детерминации:

Коэффициент a и b линейного уравнения регрессии y ax b.

Таким образом, 83,6% изменений частного потребления можно объяснить моделью линейной регресии.

Видео:Как вычислить линейный коэффициент корреляции по таблице? Корреляционное поле и прямая регрессииСкачать

Как вычислить линейный коэффициент корреляции по таблице? Корреляционное поле и прямая регрессии

Интерпретация коэффициентов уравнения парной линейной регрессии и прогноз значений зависимой переменной

Итак, уравнение парной линейной регрессии:

Коэффициент a и b линейного уравнения регрессии y ax b.

В этом уравнении a — свободный член, b — коэффициент при независимой переменной.

Интерпретация свободного члена: a показывает, на сколько единиц график регрессии смещён вверх при x=0, то есть значение переменной y при нулевом значении переменной x.

Интерпретация коэффициента при независимой переменной: b показывает, на сколько единиц изменится значение зависимой переменной y при изменении x на одну единицу.

Пример 5. Зависимость частного потребления граждан от ВВП (истолкуем это просто: от дохода) описывается уравнением парной линейной регрессии Коэффициент a и b линейного уравнения регрессии y ax b. Сделать прогноз потребления при доходе в 20 000 у.е. Выяснить, на сколько увеливается потребление при увеличении дохода на 5000 у.е. Меняется ли потребление, если доход не меняется?

Решение. Подставляем в уравнение парной линейной регрессии x i = 20000 и получаем прогноз потребления при доходе в 20 000 у.е. y i = 17036,4662 .

Подставляем в уравнение парной линейной регрессии x i = 5000 и получаем прогноз увеличения потребления при увеличении дохода на 5000 у.е. y i = 4161,9662 .

Если доход не меняется, то x i = 0 и получаем, что потребление уменьшается на 129,5338 у.е.

Видео:Как работает метод наименьших квадратов? Душкин объяснитСкачать

Как работает метод наименьших квадратов? Душкин объяснит

Задачи регрессионного анализа

Регрессионный анализ — раздел математической статистики, объединяющий практические методы исследования регрессионной зависимости между величинами по статистическим данным.

Наиболее частые задачи регрессионного анализа:

  • установление факта наличия или отсутствия статистических зависимостей между переменными величинами;
  • выявление причинных связей между переменными величинами;
  • прогноз или восстановление неизвестных значений зависимых переменных по заданным значениям независимых переменных.

Также делаются проверки статистических гипотез о регрессии. Кроме того, при изучении связи между двумя величинами по результатам наблюдений в соответствии с теорией регрессии предполагается, что зависимая переменная имеет некоторое распределение вероятностей при фиксированном значении независимой переменной.

В исследованиях поведения человека, чтобы они претендовали на объективность, важно не только установить зависимость между факторами, но и получить все необходимые статистические показатели для результата проверки соответствующей гипотезы.

Видео:Эконометрика Линейная регрессия и корреляцияСкачать

Эконометрика  Линейная регрессия и корреляция

Проверка гипотезы о равенстве нулю коэффициента направления прямой парной линейной регрессии

Одна из важнейших гипотез в регрессионном анализе — гипотеза о том, что коэффициент направления прямой регрессии генеральной совокупности Коэффициент a и b линейного уравнения регрессии y ax bравен нулю.

Если это предположение верно, то изменения независимой переменной X не влияют на изменения зависимой переменной Y: переменные X и Y не коррелированы, то есть линейной зависимости Y от X нет.

Коэффициент a и b линейного уравнения регрессии y ax b

рассматривают во взаимосвязи с альтернативной гипотезой

Коэффициент a и b линейного уравнения регрессии y ax b.

Статистика коэффициента направления

Коэффициент a и b линейного уравнения регрессии y ax b

соответствует распределению Стьюдента с числом степеней свободы v = n — 2 ,

где Коэффициент a и b линейного уравнения регрессии y ax b— стандартная погрешность коэффициента направления прямой линейной регресии b 1 .

Доверительный интервал коэффициента направления прямой линейной регрессии:

Коэффициент a и b линейного уравнения регрессии y ax b.

Критическая область, в которой с вероятностью P = 1 — α отвергают нулевую гипотезу и принимают альтернативную гипотезу:

Коэффициент a и b линейного уравнения регрессии y ax b

Пример 6. На основе данных из предыдущих примеров (о ВВП и частном потреблении) определить доверительный интервал коэффициента направления прямой линейной регресии 95% и проверить гипотезу о равенстве нулю коэффициента направления прямой парной линейной регрессии.

Можем рассчитать, что Коэффициент a и b линейного уравнения регрессии y ax b, а стандартная погрешность регрессии Коэффициент a и b линейного уравнения регрессии y ax b.

Таким образом, стандартная погрешность коэффициента направления прямой линейной регресии b 1 :

Коэффициент a и b линейного уравнения регрессии y ax b.

Так как Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b(находим по таблице в приложениях к учебникам по статистике), то доверительный интервал 95% коэффициента направления прямой парной линейной регрессии:

Коэффициент a и b линейного уравнения регрессии y ax b.

Так как гипотетическое значение коэффициента — нуль — не принадлежит доверительному интервалу, с вероятностью 95% можем отвергнуть основную гипотезу и принять альтернативную гипотезу, то есть считать, что зависимая переменная Y линейно зависит от независимой переменной X.

Видео:Эконометрика. Оценка значимости уравнения регрессии. Критерий ФишераСкачать

Эконометрика. Оценка значимости уравнения регрессии. Критерий Фишера

Решаем уравнение простой линейной регрессии

В статье рассматривается несколько способов определения математического уравнения линии простой (парной) регрессии.

Все рассматриваемые здесь способы решения уравнения основаны на методе наименьших квадратов. Обозначим способы следующим образом:

  • Аналитическое решение
  • Градиентный спуск
  • Стохастический градиентный спуск

Для каждого из способов решения уравнения прямой, в статье приведены различные функции, которые в основном делятся на те, которые написаны без использования библиотеки NumPy и те, которые для проведения расчетов применяют NumPy. Считается, что умелое использование NumPy позволит сократить затраты на вычисления.

Весь код, приведенный в статье, написан на языке python 2.7 с использованием Jupyter Notebook. Исходный код и файл с данными выборки выложен на гитхабе

Статья в большей степени ориентирована как на начинающих, так и на тех, кто уже понемногу начал осваивать изучение весьма обширного раздела в искусственном интеллекте — машинного обучения.

Для иллюстрации материала используем очень простой пример.

Условия примера

У нас есть пять значений, которые характеризуют зависимость Y от X (Таблица №1):

Таблица №1 «Условия примера»

Коэффициент a и b линейного уравнения регрессии y ax b

Будем считать, что значения Коэффициент a и b линейного уравнения регрессии y ax b— это месяц года, а Коэффициент a и b линейного уравнения регрессии y ax b— выручка в этом месяце. Другими словами, выручка зависит от месяца года, а Коэффициент a и b линейного уравнения регрессии y ax b— единственный признак, от которого зависит выручка.

Пример так себе, как с точки зрения условной зависимости выручки от месяца года, так и с точки зрения количества значений — их очень мало. Однако такое упрощение позволит, что называется на пальцах, объяснить, не всегда с легкостью, усваиваемый новичками материал. А также простота чисел позволит без весомых трудозатрат, желающим, порешать пример на «бумаге».

Предположим, что приведенная в примере зависимость, может быть достаточно хорошо аппроксимирована математическим уравнением линии простой (парной) регрессии вида:

Коэффициент a и b линейного уравнения регрессии y ax b

где Коэффициент a и b линейного уравнения регрессии y ax b— это месяц, в котором была получена выручка, Коэффициент a и b линейного уравнения регрессии y ax b— выручка, соответствующая месяцу, Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b— коэффициенты регрессии оцененной линии.

Отметим, что коэффициент Коэффициент a и b линейного уравнения регрессии y ax bчасто называют угловым коэффициентом или градиентом оцененной линии; представляет собой величину, на которую изменится Коэффициент a и b линейного уравнения регрессии y ax bпри изменении Коэффициент a и b линейного уравнения регрессии y ax b.

Очевидно, что наша задача в примере — подобрать в уравнении такие коэффициенты Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, при которых отклонения наших расчетных значений выручки по месяцам от истинных ответов, т.е. значений, представленных в выборке, будут минимальны.

Метод наименьших квадратов

В соответствии с методом наименьших квадратов, отклонение стоит рассчитывать, возводя его в квадрат. Подобный прием позволяет избежать взаимного погашения отклонений, в том случае, если они имеют противоположные знаки. Например, если в одном случае, отклонение составляет +5 (плюс пять), а в другом -5 (минус пять), то сумма отклонений взаимно погасится и составит 0 (ноль). Можно и не возводить отклонение в квадрат, а воспользоваться свойством модуля и тогда у нас все отклонения будут положительными и будут накапливаться. Мы не будем останавливаться на этом моменте подробно, а просто обозначим, что для удобства расчетов, принято возводить отклонение в квадрат.

Вот так выглядит формула, с помощью которой мы определим наименьшую сумму квадратов отклонений (ошибки):

Коэффициент a и b линейного уравнения регрессии y ax b

где Коэффициент a и b линейного уравнения регрессии y ax b— это функция аппроксимации истинных ответов (то есть посчитанная нами выручка),

Коэффициент a и b линейного уравнения регрессии y ax b— это истинные ответы (предоставленная в выборке выручка),

Коэффициент a и b линейного уравнения регрессии y ax b— это индекс выборки (номер месяца, в котором происходит определение отклонения)

Продифференцируем функцию, определим уравнения частных производных и будем готовы перейти к аналитическому решению. Но для начала проведем небольшой экскурс о том, что такое дифференцирование и вспомним геометрический смысл производной.

Дифференцирование

Дифференцированием называется операция по нахождению производной функции.

Для чего нужна производная? Производная функции характеризует скорость изменения функции и указывает нам ее направление. Если производная в заданной точке положительна, то функция возрастает, в обратном случае — функция убывает. И чем больше значение производной по модулю, тем выше скорость изменения значений функции, а также круче угол наклона графика функции.

Например, в условиях декартовой системы координат, значение производной в точке M(0,0) равное +25 означает, что в заданной точке, при смещении значения Коэффициент a и b линейного уравнения регрессии y ax bвправо на условную единицу, значение Коэффициент a и b линейного уравнения регрессии y ax bвозрастает на 25 условных единиц. На графике это выглядит, как достаточно крутой угол подъема значений Коэффициент a и b линейного уравнения регрессии y ax bс заданной точки.

Другой пример. Значение производной равное -0,1 означает, что при смещении Коэффициент a и b линейного уравнения регрессии y ax bна одну условную единицу, значение Коэффициент a и b линейного уравнения регрессии y ax bубывает всего лишь на 0,1 условную единицу. При этом, на графике функции, мы можем наблюдать едва заметный наклон вниз. Проводя аналогию с горой, то мы как будто очень медленно спускаемся по пологому склону с горы, в отличие от предыдущего примера, где нам приходилось брать очень крутые вершины:)

Таким образом, проведя дифференцирование функции Коэффициент a и b линейного уравнения регрессии y ax bпо коэффициентам Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, определим уравнения частных производных 1-го порядка. После определения уравнений, мы получим систему из двух уравнений, решив которую мы сможем подобрать такие значения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, при которых значения соответствующих производных в заданных точках изменяются на очень и очень малую величину, а в случае с аналитическим решением не изменяются вовсе. Другими словами, функция ошибки при найденных коэффициентах достигнет минимума, так как значения частных производных в этих точках будут равны нулю.

Итак, по правилам дифференцирования уравнение частной производной 1-го порядка по коэффициенту Коэффициент a и b линейного уравнения регрессии y ax bпримет вид:

Коэффициент a и b линейного уравнения регрессии y ax b

уравнение частной производной 1-го порядка по Коэффициент a и b линейного уравнения регрессии y ax bпримет вид:

Коэффициент a и b линейного уравнения регрессии y ax b

В итоге мы получили систему уравнений, которая имеет достаточно простое аналитическое решение:

begin
begin
na + bsumlimits_^nx_i — sumlimits_^ny_i = 0
\
sumlimits_^nx_i(a +bsumlimits_^nx_i — sumlimits_^ny_i) = 0
end
end

Прежде чем решать уравнение, предварительно загрузим, проверим правильность загрузки и отформатируем данные.

Загрузка и форматирование данных

Необходимо отметить, что в связи с тем, что для аналитического решения, а в дальнейшем для градиентного и стохастического градиентного спуска, мы будем применять код в двух вариациях: с использованием библиотеки NumPy и без её использования, то нам потребуется соответствующее форматирование данных (см. код).

Визуализация

Теперь, после того, как мы, во-первых, загрузили данные, во-вторых, проверили правильность загрузки и наконец отформатировали данные, проведем первую визуализацию. Часто для этого используют метод pairplot библиотеки Seaborn. В нашем примере, ввиду ограниченности цифр нет смысла применять библиотеку Seaborn. Мы воспользуемся обычной библиотекой Matplotlib и посмотрим только на диаграмму рассеяния.

График №1 «Зависимость выручки от месяца года»

Коэффициент a и b линейного уравнения регрессии y ax b

Аналитическое решение

Воспользуемся самыми обычными инструментами в python и решим систему уравнений:

begin
begin
na + bsumlimits_^nx_i — sumlimits_^ny_i = 0
\
sumlimits_^nx_i(a +bsumlimits_^nx_i — sumlimits_^ny_i) = 0
end
end

По правилу Крамера найдем общий определитель, а также определители по Коэффициент a и b линейного уравнения регрессии y ax bи по Коэффициент a и b линейного уравнения регрессии y ax b, после чего, разделив определитель по Коэффициент a и b линейного уравнения регрессии y ax bна общий определитель — найдем коэффициент Коэффициент a и b линейного уравнения регрессии y ax b, аналогично найдем коэффициент Коэффициент a и b линейного уравнения регрессии y ax b.

Вот, что у нас получилось:

Коэффициент a и b линейного уравнения регрессии y ax b

Итак, значения коэффициентов найдены, сумма квадратов отклонений установлена. Нарисуем на гистограмме рассеяния прямую линию в соответствии с найденными коэффициентами.

График №2 «Правильные и расчетные ответы»

Коэффициент a и b линейного уравнения регрессии y ax b

Можно посмотреть на график отклонений за каждый месяц. В нашем случае, какой-либо значимой практической ценности мы из него не вынесем, но удовлетворим любопытство в том, насколько хорошо, уравнение простой линейной регрессии характеризует зависимость выручки от месяца года.

График №3 «Отклонения, %»

Коэффициент a и b линейного уравнения регрессии y ax b

Не идеально, но нашу задачу мы выполнили.

Напишем функцию, которая для определения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bиспользует библиотеку NumPy, точнее — напишем две функции: одну с использованием псевдообратной матрицы (не рекомендуется на практике, так как процесс вычислительно сложный и нестабильный), другую с использованием матричного уравнения.

Сравним время, которое было затрачено на определение коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, в соответствии с 3-мя представленными способами.

Коэффициент a и b линейного уравнения регрессии y ax b

На небольшом количестве данных, вперед выходит «самописная» функция, которая находит коэффициенты методом Крамера.

Теперь можно перейти к другим способам нахождения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b.

Градиентный спуск

Для начала определим, что такое градиент. По-простому, градиент — это отрезок, который указывает направление максимального роста функции. По аналогии с подъемом в гору, то куда смотрит градиент, там и есть самый крутой подъем к вершине горы. Развивая пример с горой, вспоминаем, что на самом деле нам нужен самый крутой спуск, чтобы как можно быстрее достичь низины, то есть минимума — места где функция не возрастает и не убывает. В этом месте производная будет равна нулю. Следовательно, нам нужен не градиент, а антиградиент. Для нахождения антиградиента нужно всего лишь умножить градиент на -1 (минус один).

Обратим внимание на то, что функция может иметь несколько минимумов, и опустившись в один из них по предложенному далее алгоритму, мы не сможем найти другой минимум, который возможно находится ниже найденного. Расслабимся, нам это не грозит! В нашем случае мы имеем дело с единственным минимумом, так как наша функция Коэффициент a и b линейного уравнения регрессии y ax bна графике представляет собой обычную параболу. А как мы все должны прекрасно знать из школьного курса математики — у параболы существует только один минимум.

После того, как мы выяснили для чего нам потребовался градиент, а также то, что градиент — это отрезок, то есть вектор с заданными координатами, которые как раз являются теми самыми коэффициентами Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bмы можем реализовать градиентный спуск.

Перед запуском, предлагаю прочитать буквально несколько предложений об алгоритме спуска:

  • Определяем псевдослучайным образом координаты коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b. В нашем примере, мы будем определять коэффициенты вблизи нуля. Это является распространённой практикой, однако для каждого случая может быть предусмотрена своя практика.
  • От координаты Коэффициент a и b линейного уравнения регрессии y ax bвычитаем значение частной производной 1-го порядка в точке Коэффициент a и b линейного уравнения регрессии y ax b. Так, если производная будет положительная, то функция возрастает. Следовательно, отнимая значение производной, мы будем двигаться в обратную сторону роста, то есть в сторону спуска. Если производная отрицательна, значит функция в этой точке убывает и отнимая значение производной мы двигаемся в сторону спуска.
  • Проводим аналогичную операцию с координатой Коэффициент a и b линейного уравнения регрессии y ax b: вычитаем значение частной производной в точке Коэффициент a и b линейного уравнения регрессии y ax b.
  • Для того, чтобы не перескочить минимум и не улететь в далекий космос, необходимо установить размер шага в сторону спуска. В общем и целом, можно написать целую статью о том, как правильнее установить шаг и как его менять в процессе спуска, чтобы снизить затраты на вычисления. Но сейчас перед нами несколько иная задача, и мы научным методом «тыка» или как говорят в простонародье, эмпирическим путем, установим размер шага.
  • После того, как мы из заданных координат Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bвычли значения производных, получаем новые координаты Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b. Делаем следующий шаг (вычитание), уже из рассчитанных координат. И так цикл запускается вновь и вновь, до тех пор, пока не будет достигнута требуемая сходимость.

Все! Теперь мы готовы отправиться на поиски самого глубокого ущелья Марианской впадины. Приступаем.

Коэффициент a и b линейного уравнения регрессии y ax b

Мы погрузились на самое дно Марианской впадины и там обнаружили все те же значения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, что собственно и следовало ожидать.

Совершим еще одно погружение, только на этот раз, начинкой нашего глубоководного аппарата будут иные технологии, а именно библиотека NumPy.

Коэффициент a и b линейного уравнения регрессии y ax b
Значения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bнеизменны.

Посмотрим на то, как изменялась ошибка при градиентном спуске, то есть как изменялась сумма квадратов отклонений с каждым шагом.

График №4 «Сумма квадратов отклонений при градиентном спуске»

Коэффициент a и b линейного уравнения регрессии y ax b

На графике мы видим, что с каждым шагом ошибка уменьшается, а спустя какое-то количество итераций наблюдаем практически горизонтальную линию.

Напоследок оценим разницу во времени исполнения кода:

Коэффициент a и b линейного уравнения регрессии y ax b

Возможно мы делаем что-то не то, но опять простая «самописная» функция, которая не использует библиотеку NumPy опережает по времени выполнения расчетов функцию, использующую библиотеку NumPy.

Но мы не стоим на месте, а двигаемся в сторону изучения еще одного увлекательного способа решения уравнения простой линейной регрессии. Встречайте!

Стохастический градиентный спуск

Для того, чтобы быстрее понять принцип работы стохастического градиентного спуска, лучше определить его отличия от обычного градиентного спуска. Мы, в случае с градиентным спуском, в уравнениях производных от Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bиспользовали суммы значений всех признаков и истинных ответов, имеющихся в выборке (то есть суммы всех Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b). В стохастическом градиентном спуске мы не будем использовать все значения, имеющиеся в выборке, а вместо этого, псевдослучайным образом выберем так называемый индекс выборки и используем его значения.

Например, если индекс определился за номером 3 (три), то мы берем значения Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, далее подставляем значения в уравнения производных и определяем новые координаты. Затем, определив координаты, мы опять псевдослучайным образом определяем индекс выборки, подставляем значения, соответствующие индексу в уравнения частных производных, по новому определяем координаты Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax bи т.д. до позеленения сходимости. На первый взгляд, может показаться, как это вообще может работать, однако работает. Правда стоит отметить, что не с каждым шагом уменьшается ошибка, но тенденция безусловно имеется.

Каковы преимущества стохастического градиентного спуска перед обычным? В случае, если у нас размер выборки очень велик и измеряется десятками тысяч значений, то значительно проще обработать, допустим случайную тысячу из них, нежели всю выборку. Вот в этом случае и запускается стохастический градиентный спуск. В нашем случае мы конечно же большой разницы не заметим.

Коэффициент a и b линейного уравнения регрессии y ax b

Смотрим внимательно на коэффициенты и ловим себя на вопросе «Как же так?». У нас получились другие значения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b. Может быть стохастический градиентный спуск нашел более оптимальные параметры уравнения? Увы, нет. Достаточно посмотреть на сумму квадратов отклонений и увидеть, что при новых значениях коэффициентов, ошибка больше. Не спешим отчаиваться. Построим график изменения ошибки.

График №5 «Сумма квадратов отклонений при стохастическом градиентном спуске»

Коэффициент a и b линейного уравнения регрессии y ax b

Посмотрев на график, все становится на свои места и сейчас мы все исправим.

Итак, что же произошло? Произошло следующее. Когда мы выбираем случайным образом месяц, то именно для выбранного месяца наш алгоритм стремится уменьшить ошибку в расчете выручки. Затем выбираем другой месяц и повторяем расчет, но ошибку уменьшаем уже для второго выбранного месяца. А теперь вспомним, что у нас первые два месяца существенно отклоняются от линии уравнения простой линейной регрессии. Это значит, что когда выбирается любой из этих двух месяцев, то уменьшая ошибку каждого из них, наш алгоритм серьезно увеличивает ошибку по всей выборке. Так что же делать? Ответ простой: надо уменьшить шаг спуска. Ведь уменьшив шаг спуска, ошибка так же перестанет «скакать» то вверх, то вниз. Вернее, ошибка «скакать» не перестанет, но будет это делать не так прытко:) Проверим.

Коэффициент a и b линейного уравнения регрессии y ax b

График №6 «Сумма квадратов отклонений при стохастическом градиентном спуске (80 тыс. шагов)»

Коэффициент a и b линейного уравнения регрессии y ax b

Значения коэффициентов улучшились, но все равно не идеальны. Гипотетически это можно поправить таким образом. Выбираем, например, на последних 1000 итерациях значения коэффициентов, с которыми была допущена минимальная ошибка. Правда нам для этого придется записывать еще и сами значения коэффициентов. Мы не будем этого делать, а лучше обратим внимание на график. Он выглядит гладким, и ошибка как будто уменьшается равномерно. На самом деле это не так. Посмотрим на первые 1000 итераций и сравним их с последними.

График №7 «Сумма квадратов отклонений SGD (первые 1000 шагов)»

Коэффициент a и b линейного уравнения регрессии y ax b

График №8 «Сумма квадратов отклонений SGD (последние 1000 шагов)»

Коэффициент a и b линейного уравнения регрессии y ax b

В самом начале спуска мы наблюдаем достаточно равномерное и крутое уменьшение ошибки. На последних итерациях мы видим, что ошибка ходит вокруг да около значения в 1,475 и в некоторые моменты даже равняется этому оптимальному значению, но потом все равно уходит ввысь… Повторюсь, можно записывать значения коэффициентов Коэффициент a и b линейного уравнения регрессии y ax bи Коэффициент a и b линейного уравнения регрессии y ax b, а потом выбрать те, при которых ошибка минимальна. Однако у нас возникла проблема посерьезнее: нам пришлось сделать 80 тыс. шагов (см. код), чтобы получить значения, близкие к оптимальным. А это, уже противоречит идее об экономии времени вычислений при стохастическом градиентном спуске относительно градиентного. Что можно поправить и улучшить? Не трудно заметить, что на первых итерациях мы уверенно идем вниз и, следовательно, нам стоит оставить большой шаг на первых итерациях и по мере продвижения вперед шаг уменьшать. Мы не будем этого делать в этой статье — она и так уже затянулась. Желающие могут и сами подумать, как это сделать, это не сложно 🙂

Теперь выполним стохастический градиентный спуск, используя библиотеку NumPy (и не будем спотыкаться о камни, которые мы выявили раннее)

Коэффициент a и b линейного уравнения регрессии y ax b

Значения получились почти такими же, как и при спуске без использования NumPy. Впрочем, это логично.

Узнаем сколько же времени занимали у нас стохастические градиентные спуски.

Коэффициент a и b линейного уравнения регрессии y ax b

Чем дальше в лес, тем темнее тучи: опять «самописная» формула показывает лучший результат. Все это наводит на мысли о том, что должны существовать еще более тонкие способы использования библиотеки NumPy, которые действительно ускоряют операции вычислений. В этой статье мы о них уже не узнаем. Будет о чем подумать на досуге:)

Резюмируем

Перед тем как резюмировать, хотелось бы ответить на вопрос, который скорее всего, возник у нашего дорогого читателя. Для чего, собственно, такие «мучения» со спусками, зачем нам ходить по горе вверх и вниз (преимущественно вниз), чтобы найти заветную низину, если в наших руках такой мощный и простой прибор, в виде аналитического решения, который мгновенно телепортирует нас в нужное место?

Ответ на этот вопрос лежит на поверхности. Сейчас мы разбирали очень простой пример, в котором истинный ответ Коэффициент a и b линейного уравнения регрессии y ax bзависит от одного признака Коэффициент a и b линейного уравнения регрессии y ax b. В жизни такое встретишь не часто, поэтому представим, что у нас признаков 2, 30, 50 или более. Добавим к этому тысячи, а то и десятки тысяч значений для каждого признака. В этом случае аналитическое решение может не выдержать испытания и дать сбой. В свою очередь градиентный спуск и его вариации будут медленно, но верно приближать нас к цели — минимуму функции. А на счет скорости не волнуйтесь — мы наверняка еще разберем способы, которые позволят нам задавать и регулировать длину шага (то есть скорость).

А теперь собственно краткое резюме.

Во-первых, надеюсь, что изложенный в статье материал, поможет начинающим «дата сайнтистам» в понимании того, как решать уравнения простой (и не только) линейной регрессии.

Во-вторых, мы рассмотрели несколько способов решения уравнения. Теперь, в зависимости от ситуации, мы можем выбрать тот, который лучше всего подходит для решения поставленной задачи.

В-третьих, мы увидели силу дополнительных настроек, а именно длины шага градиентного спуска. Этим параметром нельзя пренебрегать. Как было подмечено выше, с целью сокращения затрат на проведение вычислений, длину шага стоит изменять по ходу спуска.

В-четвертых, в нашем случае, «самописные» функции показали лучший временной результат вычислений. Вероятно, это связано с не самым профессиональным применением возможностей библиотеки NumPy. Но как бы то ни было, вывод напрашивается следующий. С одной стороны, иногда стоит подвергать сомнению устоявшиеся мнения, а с другой — не всегда стоит все усложнять — наоборот иногда эффективнее оказывается более простой способ решения задачи. А так как цель у нас была разобрать три подхода в решении уравнения простой линейной регрессии, то использование «самописных» функций нам вполне хватило.

Коэффициент a и b линейного уравнения регрессии y ax b Предыдущая работа автора — «Исследуем утверждение центральной предельной теоремы с помощью экспоненциального распределения»
Коэффициент a и b линейного уравнения регрессии y ax b Следующая работа автора — «Приводим уравнение линейной регрессии в матричный вид»

💡 Видео

Множественная регрессия в ExcelСкачать

Множественная регрессия в Excel
Поделиться или сохранить к себе: