Матрица системы нормальных уравнений мнк

Содержание
  1. Метод наименьших квадратов
  2. В чем именно заключается МНК (метод наименьших квадратов)
  3. Как вывести формулы для вычисления коэффициентов
  4. Как изобразить МНК на графике функций
  5. Доказательство метода МНК
  6. Методы наименьших квадратов: текст, написанный программистом для программистов
  7. Матрицы и числа
  8. Различные интерпретации матриц
  9. Что такое положительное число?
  10. Определение 1
  11. Определение 2
  12. Лирическое отступление о симметричности матриц квадратичных форм
  13. Ищем минимум квадратичной функции
  14. Три теоремы, или дифференцируем матричные выражения
  15. Теорема 1
  16. Теорема 2
  17. Теорема 3
  18. Минимум квадратичной функции и решение линейной системы
  19. Переходим к наименьшим квадратам
  20. Теорема 4
  21. Теорема 5
  22. Переходим к практике
  23. Пример первый, одномерный
  24. Пример второй, трёхмерный
  25. Усиляем характеристические черты
  26. Последний пример на сегодня
  27. Заключение
  28. VMath
  29. Инструменты сайта
  30. Основное
  31. Навигация
  32. Информация
  33. Действия
  34. Содержание
  35. Метод наименьших квадратов
  36. Влияние систематических ошибок
  37. Псевдорешение системы линейных уравнений
  38. Геометрическая интерпретация
  39. Псевдообратная матрица
  40. Источники
  41. 💡 Видео

Видео:Матричный метод решения систем уравненийСкачать

Матричный метод решения систем уравнений

Метод наименьших квадратов

Начнем статью сразу с примера. У нас есть некие экспериментальные данные о значениях двух переменных – x и y . Занесем их в таблицу.

i = 1i = 2i = 3i = 4i = 5
x i01245
y i2 , 12 , 42 , 62 , 83 , 0

После выравнивания получим функцию следующего вида: g ( x ) = x + 1 3 + 1 .

Мы можем аппроксимировать эти данные с помощью линейной зависимости y = a x + b , вычислив соответствующие параметры. Для этого нам нужно будет применить так называемый метод наименьших квадратов. Также потребуется сделать чертеж, чтобы проверить, какая линия будет лучше выравнивать экспериментальные данные.

Видео:11 4 Применение МНК к решению систем линейных уравненийСкачать

11 4  Применение МНК к решению систем линейных уравнений

В чем именно заключается МНК (метод наименьших квадратов)

Главное, что нам нужно сделать, – это найти такие коэффициенты линейной зависимости, при которых значение функции двух переменных F ( a , b ) = ∑ i = 1 n ( y i — ( a x i + b ) ) 2 будет наименьшим. Иначе говоря, при определенных значениях a и b сумма квадратов отклонений представленных данных от получившейся прямой будет иметь минимальное значение. В этом и состоит смысл метода наименьших квадратов. Все, что нам надо сделать для решения примера – это найти экстремум функции двух переменных.

Видео:Как работает метод наименьших квадратов? Душкин объяснитСкачать

Как работает метод наименьших квадратов? Душкин объяснит

Как вывести формулы для вычисления коэффициентов

Для того чтобы вывести формулы для вычисления коэффициентов, нужно составить и решить систему уравнений с двумя переменными. Для этого мы вычисляем частные производные выражения F ( a , b ) = ∑ i = 1 n ( y i — ( a x i + b ) ) 2 по a и b и приравниваем их к 0 .

δ F ( a , b ) δ a = 0 δ F ( a , b ) δ b = 0 ⇔ — 2 ∑ i = 1 n ( y i — ( a x i + b ) ) x i = 0 — 2 ∑ i = 1 n ( y i — ( a x i + b ) ) = 0 ⇔ a ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y i a ∑ i = 1 n x i + ∑ i = 1 n b = ∑ i = 1 n y i ⇔ a ∑ i = 1 n x i 2 + b ∑ i = 1 n x i = ∑ i = 1 n x i y i a ∑ i = 1 n x i + n b = ∑ i = 1 n y i

Для решения системы уравнений можно использовать любые методы, например, подстановку или метод Крамера. В результате у нас должны получиться формулы, с помощью которых вычисляются коэффициенты по методу наименьших квадратов.

n ∑ i = 1 n x i y i — ∑ i = 1 n x i ∑ i = 1 n y i n ∑ i = 1 n — ∑ i = 1 n x i 2 b = ∑ i = 1 n y i — a ∑ i = 1 n x i n

Мы вычислили значения переменных, при который функция
F ( a , b ) = ∑ i = 1 n ( y i — ( a x i + b ) ) 2 примет минимальное значение. В третьем пункте мы докажем, почему оно является именно таким.

Это и есть применение метода наименьших квадратов на практике. Его формула, которая применяется для поиска параметра a , включает в себя ∑ i = 1 n x i , ∑ i = 1 n y i , ∑ i = 1 n x i y i , ∑ i = 1 n x i 2 , а также параметр
n – им обозначено количество экспериментальных данных. Советуем вам вычислять каждую сумму отдельно. Значение коэффициента b вычисляется сразу после a .

Обратимся вновь к исходному примеру.

Здесь у нас n равен пяти. Чтобы было удобнее вычислять нужные суммы, входящие в формулы коэффициентов, заполним таблицу.

i = 1i = 2i = 3i = 4i = 5∑ i = 1 5
x i0124512
y i2 , 12 , 42 , 62 , 8312 , 9
x i y i02 , 45 , 211 , 21533 , 8
x i 2014162546

Решение

Четвертая строка включает в себя данные, полученные при умножении значений из второй строки на значения третьей для каждого отдельного i . Пятая строка содержит данные из второй, возведенные в квадрат. В последнем столбце приводятся суммы значений отдельных строчек.

Воспользуемся методом наименьших квадратов, чтобы вычислить нужные нам коэффициенты a и b . Для этого подставим нужные значения из последнего столбца и подсчитаем суммы:

n ∑ i = 1 n x i y i — ∑ i = 1 n x i ∑ i = 1 n y i n ∑ i = 1 n — ∑ i = 1 n x i 2 b = ∑ i = 1 n y i — a ∑ i = 1 n x i n ⇒ a = 5 · 33 , 8 — 12 · 12 , 9 5 · 46 — 12 2 b = 12 , 9 — a · 12 5 ⇒ a ≈ 0 , 165 b ≈ 2 , 184

У нас получилось, что нужная аппроксимирующая прямая будет выглядеть как y = 0 , 165 x + 2 , 184 . Теперь нам надо определить, какая линия будет лучше аппроксимировать данные – g ( x ) = x + 1 3 + 1 или 0 , 165 x + 2 , 184 . Произведем оценку с помощью метода наименьших квадратов.

Чтобы вычислить погрешность, нам надо найти суммы квадратов отклонений данных от прямых σ 1 = ∑ i = 1 n ( y i — ( a x i + b i ) ) 2 и σ 2 = ∑ i = 1 n ( y i — g ( x i ) ) 2 , минимальное значение будет соответствовать более подходящей линии.

σ 1 = ∑ i = 1 n ( y i — ( a x i + b i ) ) 2 = = ∑ i = 1 5 ( y i — ( 0 , 165 x i + 2 , 184 ) ) 2 ≈ 0 , 019 σ 2 = ∑ i = 1 n ( y i — g ( x i ) ) 2 = = ∑ i = 1 5 ( y i — ( x i + 1 3 + 1 ) ) 2 ≈ 0 , 096

Ответ: поскольку σ 1 σ 2 , то прямой, наилучшим образом аппроксимирующей исходные данные, будет
y = 0 , 165 x + 2 , 184 .

Видео:Решение системы уравнений методом обратной матрицы.Скачать

Решение системы уравнений методом обратной матрицы.

Как изобразить МНК на графике функций

Метод наименьших квадратов наглядно показан на графической иллюстрации. С помощью красной линии отмечена прямая g ( x ) = x + 1 3 + 1 , синей – y = 0 , 165 x + 2 , 184 . Исходные данные обозначены розовыми точками.

Матрица системы нормальных уравнений мнк

Поясним, для чего именно нужны приближения подобного вида.

Они могут быть использованы в задачах, требующих сглаживания данных, а также в тех, где данные надо интерполировать или экстраполировать. Например, в задаче, разобранной выше, можно было бы найти значение наблюдаемой величины y при x = 3 или при x = 6 . Таким примерам мы посвятили отдельную статью.

Видео:Метод наименьших квадратов. Линейная аппроксимацияСкачать

Метод наименьших квадратов. Линейная аппроксимация

Доказательство метода МНК

Чтобы функция приняла минимальное значение при вычисленных a и b , нужно, чтобы в данной точке матрица квадратичной формы дифференциала функции вида F ( a , b ) = ∑ i = 1 n ( y i — ( a x i + b ) ) 2 была положительно определенной. Покажем, как это должно выглядеть.

У нас есть дифференциал второго порядка следующего вида:

d 2 F ( a ; b ) = δ 2 F ( a ; b ) δ a 2 d 2 a + 2 δ 2 F ( a ; b ) δ a δ b d a d b + δ 2 F ( a ; b ) δ b 2 d 2 b

Решение

δ 2 F ( a ; b ) δ a 2 = δ δ F ( a ; b ) δ a δ a = = δ — 2 ∑ i = 1 n ( y i — ( a x i + b ) ) x i δ a = 2 ∑ i = 1 n ( x i ) 2 δ 2 F ( a ; b ) δ a δ b = δ δ F ( a ; b ) δ a δ b = = δ — 2 ∑ i = 1 n ( y i — ( a x i + b ) ) x i δ b = 2 ∑ i = 1 n x i δ 2 F ( a ; b ) δ b 2 = δ δ F ( a ; b ) δ b δ b = δ — 2 ∑ i = 1 n ( y i — ( a x i + b ) ) δ b = 2 ∑ i = 1 n ( 1 ) = 2 n

Иначе говоря, можно записать так: d 2 F ( a ; b ) = 2 ∑ i = 1 n ( x i ) 2 d 2 a + 2 · 2 ∑ x i i = 1 n d a d b + ( 2 n ) d 2 b .

Мы получили матрицу квадратичной формы вида M = 2 ∑ i = 1 n ( x i ) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n .

В этом случае значения отдельных элементов не будут меняться в зависимости от a и b . Является ли эта матрица положительно определенной? Чтобы ответить на этот вопрос, проверим, являются ли ее угловые миноры положительными.

Вычисляем угловой минор первого порядка: 2 ∑ i = 1 n ( x i ) 2 > 0 . Поскольку точки x i не совпадают, то неравенство является строгим. Будем иметь это в виду при дальнейших расчетах.

Вычисляем угловой минор второго порядка:

d e t ( M ) = 2 ∑ i = 1 n ( x i ) 2 2 ∑ i = 1 n x i 2 ∑ i = 1 n x i 2 n = 4 n ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2

После этого переходим к доказательству неравенства n ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 > 0 с помощью математической индукции.

  1. Проверим, будет ли данное неравенство справедливым при произвольном n . Возьмем 2 и подсчитаем:

2 ∑ i = 1 2 ( x i ) 2 — ∑ i = 1 2 x i 2 = 2 x 1 2 + x 2 2 — x 1 + x 2 2 = = x 1 2 — 2 x 1 x 2 + x 2 2 = x 1 + x 2 2 > 0

У нас получилось верное равенство (если значения x 1 и x 2 не будут совпадать).

  1. Сделаем предположение, что данное неравенство будет верным для n , т.е. n ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 > 0 – справедливо.
  2. Теперь докажем справедливость при n + 1 , т.е. что ( n + 1 ) ∑ i = 1 n + 1 ( x i ) 2 — ∑ i = 1 n + 1 x i 2 > 0 , если верно n ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 > 0 .

( n + 1 ) ∑ i = 1 n + 1 ( x i ) 2 — ∑ i = 1 n + 1 x i 2 = = ( n + 1 ) ∑ i = 1 n ( x i ) 2 + x n + 1 2 — ∑ i = 1 n x i + x n + 1 2 = = n ∑ i = 1 n ( x i ) 2 + n · x n + 1 2 + ∑ i = 1 n ( x i ) 2 + x n + 1 2 — — ∑ i = 1 n x i 2 + 2 x n + 1 ∑ i = 1 n x i + x n + 1 2 = = ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 + n · x n + 1 2 — x n + 1 ∑ i = 1 n x i + ∑ i = 1 n ( x i ) 2 = = ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 + x n + 1 2 — 2 x n + 1 x 1 + x 1 2 + + x n + 1 2 — 2 x n + 1 x 2 + x 2 2 + . . . + x n + 1 2 — 2 x n + 1 x 1 + x n 2 = = n ∑ i = 1 n ( x i ) 2 — ∑ i = 1 n x i 2 + + ( x n + 1 — x 1 ) 2 + ( x n + 1 — x 2 ) 2 + . . . + ( x n — 1 — x n ) 2 > 0

Выражение, заключенное в фигурные скобки, будет больше 0 (исходя из того, что мы предполагали в пункте 2 ), и остальные слагаемые будут больше 0 , поскольку все они являются квадратами чисел. Мы доказали неравенство.

Ответ: найденные a и b будут соответствовать наименьшему значению функции F ( a , b ) = ∑ i = 1 n ( y i — ( a x i + b ) ) 2 , значит, они являются искомыми параметрами метода наименьших квадратов (МНК).

Видео:Решение системы уравнений методом ГауссаСкачать

Решение системы уравнений методом Гаусса

Методы наименьших квадратов: текст, написанный программистом для программистов

Продолжаю публикацию своих лекций, изначально предназначенных для студентов, учащихся по специальности «цифровая геология». На хабре это уже третья публикация из цикла, первая статья была вводной, она необязательна к прочтению. Однако же для понимания этой статьи необходимо прочитать введение в системы линейных уравнений даже в том случае, если вы знаете, что это такое, так как я буду много ссылаться на примеры из этого введения.

Итак, задача на сегодня: научиться простейшей обработке геометрии, чтобы, например, суметь преобразовать мою голову в истукана с острова Пасхи:

Матрица системы нормальных уравнений мнк

Текущий план лекций:

  • Ликбез по теории вероятностей (статья вводная, необязательная)
  • Введение в системы линейных уравнений
  • Минимизация квадратичных форм и примеры задач МНК
  • От наименьших квадратов к нейронным сетям

Официальный репозиторий курса живёт здесь. Книга ещё не окончена, я потихоньку компилирую воедино статьи, опубликованные на Хабре.

В рамках этой статьи моим основным инструментом будет поиск минимума квадратичных функций; но, прежде чем мы начнём этим инструментом пользоваться, нужно хотя бы понять, где у него кнопка вкл/выкл. Для начала освежим память и вспомним, что такое матрицы, что такое положительное число, а также что такое производная.

Видео:Метод наименьших квадратов (МНК)Скачать

Метод наименьших квадратов (МНК)

Матрицы и числа

В этом тексте я буду обильно пользоваться матричными обозначениями, так что давайте вспоминать, что это такое. Не подглядывайте дальше по тексту, сделайте паузу на несколько секунд, и попробуйте сформулировать, что такое матрица.

Различные интерпретации матриц

Ответ очень простой. Матрица это просто шкафчик, в котором хранятся хреновины. Каждая хреновина лежит в своей ячейке, ячейки группируются рядами в строки и столбцы. В нашем конкретном случае хреновинами будут обычные вещественные числа; для программиста проще всего представлять матрицу Матрица системы нормальных уравнений мнккак нечто навроде

Зачем же такие хранилища нужны? Что они описывают? Может быть, я вас расстрою, но сама по себе матрица не описывает ничего, она хранит. Например, в ней можно хранить коэффициенты всяких функций. Давайте на секунду забудем про матрицы, и представим, что у нас есть число Матрица системы нормальных уравнений мнк. Что оно означает? Да чёрт его знает… Например, это может быть коэффициент внутри функции, которая на вход берёт одно число, и на выход даёт другое число:

Матрица системы нормальных уравнений мнк

Одну версию такой функции математик мог бы записать как

Матрица системы нормальных уравнений мнк

Ну а в мире программистов она бы выглядела следующим образом:

С другой стороны, а почему такая функция, а не совсем другая? Давайте возьмём другую!

Матрица системы нормальных уравнений мнк

Раз уж я начал про программистов, я обязан записать её код 🙂

Одна из этих функций линейная, а вторая квадратичная. Какая из них правильная? Да никакая, само по себе число Матрица системы нормальных уравнений мнкне определяет этого, оно просто хранит какое-то значение! Какую вам надо функцию, такую и стройте.

То же самое происходит и с матрицами, это хранилища, нужные на случай, когда одиночных чисел (скаляров) не хватает, своего рода расширение чисел. Над матрицами, ровно как и над числами, определены операции сложения и умножения.

Давайте представим, что у нас есть матрица Матрица системы нормальных уравнений мнк, например, размера 2×2:

Матрица системы нормальных уравнений мнк

Эта матрица сама по себе ничего не значит, например, она может быть интерпретирована как функция

Матрица системы нормальных уравнений мнк

Эта функция преобразует двумерный вектор в двумерный вектор. Графически это удобно представлять как преобразование изображения: на вход даём изображение, а на выходе получаем его растянутую и/или повёрнутую (возможно даже зеркально отражённую!) версию. Очень скоро я приведу картинку с различными примерами такой интерпретации матриц.

А можно матрицу Матрица системы нормальных уравнений мнкпредставлять себе как функцию, которая двумерный вектор преобразует в скаляр:

Матрица системы нормальных уравнений мнк

Обратите внимание, что с векторами возведение в степень не очень-то определено, поэтому я не могу написать Матрица системы нормальных уравнений мнк, как писал в случае с обычными числами. Очень рекомендую тем, кто не привык с лёгкостью жонглировать матричными умножениями, ещё раз вспомнить правило умножения матриц, и проверить, что выражение Матрица системы нормальных уравнений мнквообще разрешено и действительно даёт скаляр на выходе. Для этого можно, например, явно поставить скобки Матрица системы нормальных уравнений мнк. Напоминаю, что у нас Матрица системы нормальных уравнений мнк— вектор размерности 2 (сохранённый в матрице размерности 2×1), выпишем явно все размерности:

Матрица системы нормальных уравнений мнк

Возвращаясь в тёплый и пушистый мир программистов, мы можем записать эту же квадратичную функцию как-то так:

Что такое положительное число?

Теперь я задам очень глупый вопрос: что такое положительное число? У нас есть отличный инструмент, называется предикат больше Матрица системы нормальных уравнений мнк$» data-tex=»inline»/>. Но не торопитесь отвечать, что число Матрица системы нормальных уравнений мнкположительно тогда и только тогда, когда Матрица системы нормальных уравнений мнк0$» data-tex=»inline»/>, это было бы слишком просто. Давайте определим положительность следущим образом:

Определение 1

Число Матрица системы нормальных уравнений мнкположительно тогда и только тогда, когда для всех ненулевых вещественных Матрица системы нормальных уравнений мнквыполняется условие Матрица системы нормальных уравнений мнк0$» data-tex=»inline»/>.

Выглядит довольно мудрёно, но зато отлично применяется к матрицам:

Определение 2

Квадратная матрица Матрица системы нормальных уравнений мнкназывается положительно определённой, если для любых ненулевых Матрица системы нормальных уравнений мнквыполняется условие Матрица системы нормальных уравнений мнк0$» data-tex=»inline»/>, то есть, соответствующая квадратичная форма строго положительна везде, кроме начала координат.

Для чего мне нужна положительность? Как я уже упоминал в начале статьи, моим основным инструментом будет поиск минимумов квадратичных функций. А ведь для того, чтобы минимум искать, было бы недурно, если бы он существовал! Например, у функции Матрица системы нормальных уравнений мнкминимума очевидно не существует, посколькуо число -1 не является положительным, и Матрица системы нормальных уравнений мнкбесконечно убывает с ростом Матрица системы нормальных уравнений мнк: ветви параболы Матрица системы нормальных уравнений мнксмотрят вниз. Положительно определённые матрицы хороши тем, что соответствующие квадратичные формы образуют параболоид, имеющие (единственный) минимум. Следующая иллюстрация показывает семь различных примеров матриц Матрица системы нормальных уравнений мнк, как положительно определённых и симметричных, так и не очень. Верхний ряд: интерпретация матриц как функций Матрица системы нормальных уравнений мнк. Средний ряд: интерпретация матриц как функций Матрица системы нормальных уравнений мнк.

Матрица системы нормальных уравнений мнк

Таким образом, я буду работать с положительно определёнными матрицами, которые являются обобщением положительных чисел. Более того, конкретно в моём случае матрицы будут ещё и симметричными! Любопытно, что довольно часто, когда люди говорят про положительную определённость, они подразумевают ещё и симметричность, что может быть косвенно объяснено следующим (необязательным для понимания последующего текста) наблюдением.

Лирическое отступление о симметричности матриц квадратичных форм

Матрица системы нормальных уравнений мнк

Матрица Матрица системы нормальных уравнений мнксимметрична: Матрица системы нормальных уравнений мнк; матрица Матрица системы нормальных уравнений мнкантисимметрична: Матрица системы нормальных уравнений мнк. Примечательным фактом является то, что для любой антисимметричной матрицы соответствующая квадратичная форма тождественно равна нулю. Это вытекает из следующего наблюдения:

Матрица системы нормальных уравнений мнк

То есть, квадратичная форма Матрица системы нормальных уравнений мнкодновременно равна Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк, что возможно только в том случае, когда Матрица системы нормальных уравнений мнк. Из этого факта вытекает то, что для произвольной матрицы Матрица системы нормальных уравнений мнксоответствующая квадратичная форма Матрица системы нормальных уравнений мнкможет быть выражена и через симметричную матрицу Матрица системы нормальных уравнений мнк:

Матрица системы нормальных уравнений мнк

Ищем минимум квадратичной функции

Вернёмся ненадолго в одномерный мир; я хочу найти минимум функции Матрица системы нормальных уравнений мнк. Число Матрица системы нормальных уравнений мнкположительно, поэтому минимум существует; чтобы его найти, приравняем нулю соответствующую производную: Матрица системы нормальных уравнений мнк. Продифференцировать одномерную квадратичную функцию труда не составляет: Матрица системы нормальных уравнений мнк; поэтому наша проблема сводится к решению уравнения Матрица системы нормальных уравнений мнк, откуда путём страшных усилий получам решение Матрица системы нормальных уравнений мнк. Следующий рисунок иллюстрирует эквивалентность двух проблем: решение Матрица системы нормальных уравнений мнкуравнения Матрица системы нормальных уравнений мнксовпадает с решением уравнения Матрица системы нормальных уравнений мнк.

Матрица системы нормальных уравнений мнк

Я клоню к тому, что нашей глобальной целью является минимизация квадратичных функций, мы же про наименьшие квадраты говорим. Но при этом что мы действительно умеем делать хорошо, так это решать линейные уравнения (и системы линейных уравнений). И очень здорово, что одно эквивалентно другому!

Единственное, что нам осталось, так это убедиться, что эта эквивалентность в одномерном мире распространяется и на случай Матрица системы нормальных уравнений мнкпеременных. Чтобы это проверить, для начала докажем три теоремы.

Три теоремы, или дифференцируем матричные выражения

Первая теорема гласит о том, что матрицы Матрица системы нормальных уравнений мнкинварианты относительно транспонирования:

Теорема 1

Матрица системы нормальных уравнений мнк

Доказательство настолько сложное, что для краткости я вынужден его опустить, но попробуйте найти его самостоятельно.

Вторая теорема позволяет дифференцировать линейные функции. В случае вещественной функции одной переменной мы знаем, что Матрица системы нормальных уравнений мнк, но что происходит в случае вещественной функции Матрица системы нормальных уравнений мнкпеременных?

Теорема 2

Матрица системы нормальных уравнений мнк

То есть, никаких сюрпризов, просто матричная запись того же самого школьного результата. Доказательство крайне прямолинейное, достаточно просто записать определение градиента:

Матрица системы нормальных уравнений мнк

Применив первую теорему Матрица системы нормальных уравнений мнк, мы завершаем доказательство.

Теперь переходим к квадратичным формам. Мы знаем, что в случае вещественной функции одной переменной Матрица системы нормальных уравнений мнк, а что будет в случае квадратичной формы?

Теорема 3

Матрица системы нормальных уравнений мнк

Кстати, обратите внимание, что если матрица Матрица системы нормальных уравнений мнксимметрична, то теорема гласит, что Матрица системы нормальных уравнений мнк.

Это доказательство тоже прямолинейно, просто запишем квадратичную форму как двойную сумму:

Матрица системы нормальных уравнений мнк

А затем посмотрим, чему равна частная производная этой двойной суммы по переменной Матрица системы нормальных уравнений мнк:
begin
frac
&= frac left(sumlimits_sumlimits_ a_ x_ x_right) = \
&= frac left(
underbrace<sumlimits_sumlimits_ a_x_ x_>_+underbrace <sumlimits_a_x_i x_>_+
underbrace <sumlimits_a_ x_ x_i>_+
underbrace<a_x_i^2>_right) = \
& = sumlimits_ a_x_ + sumlimits_ a_ x_ + 2 a_ x_i = \
& = sumlimits_ a_x_ + sumlimits_ a_ x_ = \
& = sumlimits_ (a_ + a_) x_j \
end
Я разбил двойную сумму на четыре случая, которые выделены фигурными скобками. Каждый из этих четырёх случаев дифференцируется тривиально. Осталось сделать последнее действие, собрать частные производные в вектор градиента:

Матрица системы нормальных уравнений мнк

Минимум квадратичной функции и решение линейной системы

Давайте не забывать направление движения. Мы видели, что при положительном числе Матрица системы нормальных уравнений мнкв случае вещественных функций одной перменной решить уравнение Матрица системы нормальных уравнений мнкили минимизировать квадратичную функцию Матрица системы нормальных уравнений мнк— это одно и то же.

Мы хотим показать соответствующую связь в случае симметричной положительно определённой матрицы Матрица системы нормальных уравнений мнк.
Итак, мы хотим найти минимум квадратичной функции

Матрица системы нормальных уравнений мнк

Ровно как и в школе, приравняем нулю производную:

Матрица системы нормальных уравнений мнк

Оператор Гамильтона линеен, поэтому мы можем переписать наше уравнение в следующем виде:

Матрица системы нормальных уравнений мнк

Теперь применим вторую и третью теоремы о дифференцировании:

Матрица системы нормальных уравнений мнк

Вспомним, что Матрица системы нормальных уравнений мнксимметрична, и поделим уравнение на два, получаем нужную нам систему линейных уравнений:

Матрица системы нормальных уравнений мнк

Ура-ура, перейдя от одной переменной к многим, мы не потеряли ровным счётом ничего, и можем эффективно минимизировать квадратичные функции!

Видео:Решение системы уравнений методом обратной матрицы - bezbotvyСкачать

Решение системы уравнений методом обратной матрицы - bezbotvy

Переходим к наименьшим квадратам

Матрица системы нормальных уравнений мнк

У нас два уравнения с двумя неизвестными ( Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк), остальное известно.

В общем случае решение существует и единственно. Для удобства перепишем ту же самую систему в матричном виде:

Матрица системы нормальных уравнений мнк

Получим уравнение типа Матрица системы нормальных уравнений мнк, которое тривиально решается Матрица системы нормальных уравнений мнк.

А теперь представим, что у нас есть три точки, через которые нужно провести прямую:

Матрица системы нормальных уравнений мнк

В матричном виде эта система запишется следующим образом:

Матрица системы нормальных уравнений мнк

Теперь у нас матрица Матрица системы нормальных уравнений мнкпрямоугольная, и у неё просто не существует обратной! Это совершенно нормально, так как у нас всего две переменных и три уравнения, и в общем случае эта система не имеет решения. Это соверешенно нормальная ситуация в реальном мире, когда точки — это данные зашумлённых измерений, и нам нужно найти параметры Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк, которые наилучшим образом приближают данные измерений. Мы этот пример уже рассматривали в первой лекции, когда калибровали безмен. Но тогда у нас решение было чисто алгебраическим и очень громоздким. Давайте попробуем более интуитивный способ.

Нашу систему можно записать в следующем виде:

Матрица системы нормальных уравнений мнк

Матрица системы нормальных уравнений мнк

Векторы Матрица системы нормальных уравнений мнк, Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнкизвестны, нужно найти скаляры Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк.
Очевидно, что линейная комбинация Матрица системы нормальных уравнений мнкпорождает плоскость, и если вектор Матрица системы нормальных уравнений мнкв этой плоскости не лежит, то точного решения не существует; однако же мы ищем приближённое решение.

Давайте определим ошибку решения как Матрица системы нормальных уравнений мнк. Нашей зачей является найти такие значения параметров Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк, которые минимизируют длину вектора Матрица системы нормальных уравнений мнк. Иначе говоря, проблема записывается как Матрица системы нормальных уравнений мнк.
Вот иллюстрация:.

Матрица системы нормальных уравнений мнк

Имея заданные векторы Матрица системы нормальных уравнений мнк, Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк, мы стараемся минимизировать длину вектора ошибки Матрица системы нормальных уравнений мнк. Очевидно, что его длина минимизируется, если он перпендикулярен плоскости, натянутой на векторы Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк.

Но постойте, где же наименьшие квадраты? Сейчас будут. Функция извлечения корня Матрица системы нормальных уравнений мнкмонотонна, поэтому Матрица системы нормальных уравнений мнк= Матрица системы нормальных уравнений мнк!

Вполне очевидно, что длина вектора ошибки минимизируется, если он перпендикулярен плоскости, натянутой на векторы Матрица системы нормальных уравнений мнки Матрица системы нормальных уравнений мнк, что можно записать, приравняв нулю соответствующие скалярные произведения:

Матрица системы нормальных уравнений мнк

В матричном виде эту же самую систему можно записать как

Матрица системы нормальных уравнений мнк

Матрица системы нормальных уравнений мнк

Но мы на этом не остановимся, так как запись можно ещё больше сократить:

Матрица системы нормальных уравнений мнк

И самая последняя трансформация:

Матрица системы нормальных уравнений мнк

Давайте посчитаем размерности. Матрица Матрица системы нормальных уравнений мнкимеет размер Матрица системы нормальных уравнений мнк, поэтому Матрица системы нормальных уравнений мнкимеет размер Матрица системы нормальных уравнений мнк. Матрица Матрица системы нормальных уравнений мнкимеет размер Матрица системы нормальных уравнений мнк, но вектор Матрица системы нормальных уравнений мнкимеет размер Матрица системы нормальных уравнений мнк. То есть, в общем случае матрица Матрица системы нормальных уравнений мнкобратима! Более того, Матрица системы нормальных уравнений мнкимеет ещё пару приятных свойств.

Теорема 4

Матрица системы нормальных уравнений мнксимметрична.

Это совсем нетрудно показать:

Матрица системы нормальных уравнений мнк

Теорема 5

Матрица системы нормальных уравнений мнкположительно полуопределена: Матрица системы нормальных уравнений мнк

Это следует из того факта, что Матрица системы нормальных уравнений мнк0$» data-tex=»inline»/>.

Кроме того, Матрица системы нормальных уравнений мнкположительно определена в том случае, если Матрица системы нормальных уравнений мнкимеет линейно независимые столбцы (ранг Матрица системы нормальных уравнений мнкравен количеству переменных в системе).

Итого, для системы с двумя неизвестными мы доказали, что минимизация квадратичной функции Матрица системы нормальных уравнений мнкэквивалентна решению системы линейных уравнений Матрица системы нормальных уравнений мнк. Разумеется, всё это рассуждение применимо и к любому другому количеству переменных, но давайте ещё раз компактно запишем всё вместе простым алгебраическим подсчётом. Мы начнём с проблемы наименьших квадратов, придём к минимизации квадратичной функции знакомого нам вида, и из этого сделаем вывод об эквивалентности решению системы линейных уравнений. Итак, поехали:

Матрица системы нормальных уравнений мнк

Таким образом, проблема наименьших квадратов Матрица системы нормальных уравнений мнкэквивалентна минимизации квадратичной функции Матрица системы нормальных уравнений мнкс (в общем случае) симметричной положительно определённой матрицей Матрица системы нормальных уравнений мнк, что, в свою очередь, эквивалентно решению системы линейных уравнений Матрица системы нормальных уравнений мнк. Уфф. Теория закончилась.

Видео:Метод Крамера за 3 минуты. Решение системы линейных уравнений - bezbotvyСкачать

Метод Крамера за 3 минуты. Решение системы линейных уравнений - bezbotvy

Переходим к практике

Пример первый, одномерный

Давайте вспомним один пример из предыдущей статьи:

У нас есть обычный массив x из 32 элементов, инициализированный следующим образом:

Матрица системы нормальных уравнений мнк

А затем мы тысячу раз выполним следующую процедуру: для каждой ячейки x[i] мы запишем в неё среднее значение соседних ячеек: x[i] = ( x[i-1] + x[i+1] )/2. Единственное исключение: мы не будем переписывать элементы массива под номерами 0, 18 и 31. Вот так выглядит эволюция массива на первых ста пятидесяти итерациях:

Матрица системы нормальных уравнений мнк

Как мы выяснили в предыдущей статье, оказывается, наш питоновский мегакод на четыре строчки решает следующиую систему линейных уравнений методом Гаусса-Зейделя:

Матрица системы нормальных уравнений мнк

Выяснить-то выяснили, но откуда вообще взялась эта система? Что за магия? Давайте отвлечёмся на секунду, и попробуем решить немного другую систему. У меня по-прежнему есть 32 переменных, но теперь я хочу, чтобы они все-все-все были равны одна другой. Это нетрудно записать, достаточно записать систему уравнений, которая гласит, что все соседние элементы попарно равны:

Матрица системы нормальных уравнений мнк

Вышеприведённый питоновский код в принципе не трогает значения трёх переменных: x0, x18, x31, поэтому давайте их перенесём в правую часть системы уравнений, т.е., исключим из множества неизвестных:

Матрица системы нормальных уравнений мнк

Я фиксирую начальное значение x0=1, первое уравнение говорит, что x1 = x0 = 1, второе уравнение говорит, что x2=x1=x0=1 и так далее, покуда мы не дойдём до уравнения 1 = x0 = x17 = x18 = 2. Ой. А ведь эта система не имеет решения :((

А и пофиг, мы же программисты! Давайте звать на помощь наименьшие квадраты! Наша нерешаемая система может быть записана в матричном виде Матрица системы нормальных уравнений мнк; чтобы решить нашу систему приближённо, достаточно решить систему Матрица системы нормальных уравнений мнк. А тут оказывается, что это ровно, один-в-один та самая система уравнений из предыдущей статьи!

Интуитивно можно представлять себе процесс создания матрицы системы следующим образом: мы соединяем пружинками значения, равенства которых хотим добиться. Например, в нашем случае мы хотим, чтобы Матрица системы нормальных уравнений мнкбыл равен Матрица системы нормальных уравнений мнк, поэтому мы добавляем уравнение Матрица системы нормальных уравнений мнк, вешая между этими значениями пружинку, которая будет их стягивать. Но поскольку значения x0, x18 и x31 жёстко зафиксированы, свободным значениям не остаётся ничего другого, как равномерно растянуть пружинки, произведя (в данном случае) кусочно-линейное решение.

Давайте напишем программу, решающую эту систему уравнений. В прошлой статье мы видели, что метод Гаусса-Зейделя очень прост в программировании, но имеет очень медленную сходимость, поэтому лучше бы использовать настоящие решатели систем линейных уравнений. В самом простейшем случае, для нашего одномерного примера, код может выглядеть как-то так:

Этот код производит список x из 32 элементов, в котором хранится решение. Мы строим матрицу Матрица системы нормальных уравнений мнк, строим вектор Матрица системы нормальных уравнений мнк, получаем вектор с решением Матрица системы нормальных уравнений мнк, а затем в этот вектор вставляем наши фиксированные значения x0=1, x18=2 и x31=1.

Этот код выполняет необходимую работу, но довольно неприятно переносить в правую часть значения фиксированных переменных. Нельзя ли схитрить? Можно! Давайте посмотрим на следующий код:

С программистской точки зрения он гораздо приятнее, вектор x получается сразу нужной размерности, да и матрицы A и b заполняются куда как проще. Но в чём же хитрость? Давайте запишем систему уравнений, которую мы решаем:

Матрица системы нормальных уравнений мнк

Посмотрите внимательно на последние три уравнения:
100 x0 = 100 * 1
100 x18 = 100 * 2
100 x31 = 100 * 1

Не проще ли было их записать следующим образом?
x0 = 1
x18 = 2
x31 = 1

Нет, не проще. Как я уже говорил, каждое уравнение навешивает пружинки, в данном случае пружинку между x0 и значением 1, пружинку между x18 и значением 2 и, наконец, переменная x31 тоже будет притягиваться к единице.

Но коэффициент 100 там стоит не просто так. Мы же помним, что эта система просто так не решается, мы решаем её в смысле наименьших квадратов, минимизируя соответствующую квадратичную функцию. Умножив на 100 каждый из коэффициентов последних трёх уравнений, мы вводим штраф за отклонение x0, x18 и x32 от нужных значений, в десять тысяч раз (100^2) превышающий штраф за отклонение от равенства Матрица системы нормальных уравнений мнк. Грубо говоря, пружинки на последних трёх уравнениях в десять тысяч раз более жёсткие, нежели на всех остальных. Этот метод квадратичного штрафа — очень удобный инструмент введения ограничений, гораздо проще (хотя и не без недостатков), нежели редуцирование набора переменных.

Пример второй, трёхмерный

Давайте уже перейдём к чему-нибудь более интересному, нежели сглаживание элементов одномерного массива! Для начала сделаем ровно то же самое, но на более интересных данных и с настоящим инструментарием. Я хочу взять трёхмерную поверхность, зафиксировать её границу, а всю остальную поверхность максимально сгладить:

Матрица системы нормальных уравнений мнк

Код доступен тут, но на всякий случай приведу полный листинг главного файла:

Я написал простейший парсер wavefront .obj файлов, поэтому моделька подгружается в одну строчку. В качестве решателя я буду использовать OpenNL, это очень мощный решатель для проблем наименьших квадратов с разреженными матрицами. Обратите внимание, что размеры матриц у нас могут быть гигантскими: например, если мы хотим получить ч/б картинку размером 1000 x 1000 пикселей, то матрица Матрица системы нормальных уравнений мнку нас будет размером миллион на миллион! Однако же на практике чаще всего подавляющее большинство элементов этой матрицы нулевые, поэтому всё не так страшно, но всё же нужно использовать специальные солверы.

Итак, давайте смотреть на код. Для начала я объявляю солверу, что я хочу делать:

Я хочу иметь матрицу Матрица системы нормальных уравнений мнкразмером (колво вершин)x(колво вершин). Внимание, мы солверу даём матрицу Матрица системы нормальных уравнений мнк, а уж Матрица системы нормальных уравнений мнкон будет строить сам, что очень удобно! Также обратите внимание на то, что я решаю не одну систему уравнений, а три последовательно для x,y и z (я соврал, что проблема трёхмерная, она по-прежнему одномерная!)

А затем я объявляю строку за строкой нашей матрицы. Для начала я фиксирую вершины, которые находятся на краю поверхности:

Можно видеть, что я использую квадратичный штраф в 100^2 для фиксирования краевых вершин.

Ну а затем для каждой пары смежных вершин я вешаю пружинку жёсткости 1 между ними:

Выполняем код и видим, как лицо сгладилось в поверхность мыльной плёнки на изогнутой проволоке. Мы сейчас только что решили проблему Дирихле, получив поверхность минимальной площади.

Усиляем характеристические черты

Давайте превратим наше лицо в гротескную маску:

Матрица системы нормальных уравнений мнк

В предыдущей статье я уже показывал, как это сделать на коленке, здесь же я привожу настоящий код, использующий солвер наименьших квадратов:

Полный код доступен тут. Как он работает? Как и в предыдущем примере, я начинаю с того, что фиксирую краевые вершины. Затем для каждого ребра я (тихонечко, с коэффициентом 0.2) говорю, что неплохо было бы, чтобы оно имело ровно ту же форму, что и в изначальной поверхности:

Если больше ничего не делать, и решить проблему прямо как есть, то мы на выходе должны получить ровно то, что было на входе: граница выхода равняется границе входа, плюс перепады на выходе равняются перепадам на входе.

Но мы на этом не останавливемся!

В нашу систему я добавляю ещё уравнений. Для каждой вершины я считаю кривизну поверхности вокруг неё во входной поверхности, и умножаю её на два с половиной, то есть, выходная поверхность должна иметь большую кривизну повсюду.

Затем вызываем наш решатель и получаем неплохую карикатуру.

Последний пример на сегодня

До этого момента мы не видели ни одного нового примера, всё уже было показано в предыдущей статье. Давайте попробуем сделать что-то менее тривиальное, нежели простейшее сглаживание, которое легко можно получить, не используя никаких солверов. Код доступен тут, но давайте я приведу листинг:

Мы по-прежнему работаем с той же поверхностью, что и раньше; мы вызываем функцию snap() для каждого треугольника. Эта функция говорит, к какой оси системы координат ближе всего нормаль этого треугольника. То есть, мы хотим знать, этот треугольник скорее вертикален или горизонтален. Ну а затем мы хотим изменить геометрию нашей поверхности, чтобы то, что близко к горизонтали, стало ещё ближе! Левая часть вот этой картинки показывает результат работы функции snap():

Матрица системы нормальных уравнений мнк

Итак, мы раскрасили нашу поверхность в три цвета, соответствующие трём осям системы координат. Ну а затем для каждого ребра нашей системы мы добавляем следующие уравнения:

То есть, мы предписываем каждому ребру выходной поверхности походить на соответствующее ребро входной поверхности, жёсткость пружинки 1. А затем, если мы разрешаем, например, размерность x, а ребро должно быть вертикально, то просто говорим, что одна вершина равна другой с жёсткостью пружины 2:

Ну а вот и результат работы нашей программы:

Матрица системы нормальных уравнений мнк

Вполне резонный вопрос: истуканы с острова Пасхи, это, конечно, круто, но при чём тут геология? Есть ли примеры реальных задач?

Да, конечно. Давайте возьмём один срез земной коры:

Матрица системы нормальных уравнений мнк

Для геологов очень важны слои разных пород, границы (горизонты) между которыми показаны зелёным, и геологические разломы, которые показаны красным. У нас есть на вход сетка треугольников (тетраэдров в 3д) той области, которая нас интересует, но для моделирования определённых процессов необходимы квады (гексаэдры в 3д). Мы деформируем нашу модель так, чтобы разломы стали вертикальными, а горизонты (сюрприз) горизонтальными:

Матрица системы нормальных уравнений мнк

Затем мы просто возьмём регулярную сетку квадратов, нарежем наш домен на равномерные квадратики, и применим к ним обратное преобразование, получив необходимую сетку квадов.

Видео:Система линейных уравнений. Метод обратной матрицы. Матричный метод.Скачать

Система линейных уравнений. Метод обратной матрицы. Матричный метод.

Заключение

Методы наименьших квадратов — мощнейший инструмент обработки данных, и применяется гораздо шире, нежели статистика в колонках экселя. Эти возможности нам открываются благодаря тому, что минимизация квадратичной функции и решение системы линейных уравнений — это одно и то же, а решать линейные уравнения мы (человечество) научились очень и очень хорошо, даже совершенно нечеловеческих размеров с миллиардами переменных.

Однако же бывают случаи, когда линейных моделей нам может не хватить. И тут на помощь могут прийти, например, нейронные сети. В следующей статье я постараюсь показать, что МНК с отбрасыванием выбросов эквивалентен одной из формулировок нейронных сетей. Оставайтесь на линии!

Видео:Решение систем линейных уравнений с помощью матрицСкачать

Решение систем линейных уравнений с помощью матриц

VMath

Инструменты сайта

Основное

Информация

Действия

Содержание

Вспомогательная страница к разделу ☞ ИНТЕРПОЛЯЦИЯ.

Видео:Метод наименьших квадратов, урок 1/2. Линейная функцияСкачать

Метод наименьших квадратов, урок 1/2. Линейная функция

Метод наименьших квадратов

Пусть из физических соображений можно считать (предполагать), что величины $ x_ $ и $ y_ $ связаны линейной зависимостью вида $ y=kx+b $, а неизвестные коэффициенты $ k_ $ и $ b_ $ должны быть оценены экспериментально. Экспериментальные данные представляют собой $ m>1 $ точек на координатной плоскости $ (x_1,y_1), dots, (x_m,y_m) $. Если бы эти опыты производились без погрешностей, то подстановка данных в уравнение приводила бы нас к системе из $ m_ $ линейных уравнений для двух неизвестных $ k_ $ и $ b_ $: $$ y_1=k,x_1+b, dots, y_m=k,x_m+b . $$ Из любой пары уравнений этой системы можно было бы однозначно определить коэффициенты $ k_ $ и $ b_ $.

Однако, в реальной жизни опытов без погрешностей не бывает

Дорогая редакция! Формулировку закона Ома следует уточнить следующим образом:«Если использовать тщательно отобранные и безупречно подготовленные исходные материалы, то при наличии некоторого навыка из них можно сконструировать электрическую цепь, для которой измерения отношения тока к напряжению, даже если они проводятся в течение ограниченного времени, дают значения, которые после введения соответствующих поправок оказываются равными постоянной величине».

Источник: А.М.Б.Розен. Физики шутят. М.Мир.1993.

Будем предполагать, что величины $ x_,dots,x_m $ известны точно, а им соответствующие $ y_1,dots,y_m $ — приближенно. Если $ m>2 $, то при любых различных $ x_ $ и $ x_j $ пара точек $ (x_,y_i) $ и $ (x_,y_j) $ определяет прямую. Но другая пара точек определяет другую прямую, и у нас нет оснований выбрать какую-нибудь одну из всех прямых.

Часто в задаче удаленность точки от прямой измеряют не расстоянием, а разностью ординат $ k,x_i+b-y_i $, и выбирают прямую так, чтобы сумма квадратов всех таких разностей была минимальна. Коэффициенты $ k_0 $ и $ b_ $ уравнения этой прямой дают некоторое решение стоящей перед нами задачи, которое отнюдь не является решением системы линейных уравнений $$ k,x_1+b=y_1,dots, k,x_+b=y_m $$ (вообще говоря, несовместной).

Рассмотрим теперь обобщение предложенной задачи. Пусть искомая зависимость между величинами $ y_ $ и $ x_ $ полиномиальная: $$ y_1=f(x_1),dots , y_m=f(x_m), quad npu quad f(x)=a_0+a_1x+dots+a_x^ $$ Величина $ varepsilon_i=f(x_i)-y_i $ называется $ i_ $-й невязкой 1) . Уравнения $$ left<begin a_0+a_1x_1+dots+a_x_1^&=&y_1, \ a_0+a_1x_2+dots+a_x_2^&=&y_2, \ dots & & dots \ a_0+a_1x_m+dots+a_x_m^&=&y_m end right. $$ называются условными. Матрица этой системы — матрица Вандермонда (она не обязательно квадратная).

Предположим что данные интерполяционной таблицы $$ begin x & x_1 & x_2 & dots & x_m \ hline y & y_1 & y_2 &dots & y_m end $$ не являются достоверными: величины $ x_ $ нам известны практически без искажений (т.е. на входе процесса мы имеем абсолютно достоверные данные), а вот измерения величины $ y_ $ подвержены случайным (несистематическим) погрешностям.

Задача. Построить полином $ f_(x) $ такой, чтобы величина $$ sum_^m [f(x_j)-y_j]^2 $$ стала минимальной. Решение задачи в такой постановке известно как метод наименьшик квадратов 2) .

В случае $ deg f_ =m-1 $ мы возвращаемся к задаче интерполяции в ее классической постановке. Практический интерес, однако, представляет случай $ deg f_ n $: $$S=left(begin 1 &1&1&ldots&1\ x_1 &x_2&x_3&ldots&x_\ vdots&& & &vdots\ x_1^ &x_2^&x_3^&ldots&x_m^ endright) cdot left(begin 1 &x_1&x_1^2&ldots&x_1^\ 1 &x_2&x_2^2&ldots&x_2^\ ldots&& & &ldots\ 1 &x_m&x_m^2&ldots&x_m^ endright)$$ $$det S = sum_<1le j_1 0 $. По теореме Крамера система нормальных уравнений имеет единственное решение.

Осталось недоказанным утверждение, что полученное решение доставляет именно минимум сумме квадратов невязок. Этот факт следует из доказательства более общего утверждения — о псевдорешении системы линейных уравнений. Этот результат приводится ☟ НИЖЕ. ♦

Собственно минимальное значение величины cуммы квадратов невязок, а точнее усреднение по количеству узлов $$ sigma=fracsum_^m (f(x_j) -y_j)^2 $$ называется среднеквадратичным отклонением.

Матрица системы нормальных уравнений мнк

Показать, что линейный полином $ y=a_+a_1x $, построенный по методу наименьших квадратов, определяет на плоскости $ (x_,y) $ прямую, проходящую через центроид

Пример. По методу наименьших квадратов построить уравнение прямой, аппроксимирующей множество точек плоскости, заданных координатами из таблицы

$$ begin x & 0.5 & 1 & 1.5 & 2 & 2.5 & 3 \ hline y & 0.35 & 0.80 & 1.70 & 1.85 & 3.51 & 1.02 end $$

Решение. Имеем $$ s_0=6, s_1=0.5 + 1 + 1.5 + 2 + 2.5 + 3=10.5, $$ $$ s_2=0.5^2 + 1^2 + 1.5^2 + 2^2 + 2.5^2 + 3^2=22.75, $$ $$t_0=0.35 + 0.80 + 1.70 + 1.85 + 3.51 + 1.02=9.23, $$ $$ t_1 =0.5cdot 0.35 + 1 cdot 0.80 + 1.5 cdot 1.70 + 2 cdot 1.85 + $$ $$ +2.5 cdot 3.51 + 3 cdot 1.02=19.06 . $$ Решаем систему нормальных уравнений $$ left( begin 6 & 10.5 \ 10.5 & 22.75 end right) left( begin a_0 \ a_1 end right)= left( begin 9.23 \ 19.06 end right), $$ Матрица системы нормальных уравнений мнк получаем уравнение прямой в виде $$ y= 0.375 + 0.665, x .$$

Вычислим и полиномы более высоких степеней. $$ f_2(x)=-1.568+3.579, x-0.833,x^2 , $$ $$ f_3(x)=2.217-5.942,x+5.475,x^2-1.201, x^3 , $$ $$ f_4(x)= -4.473+17.101,x-19.320,x^2+9.205, x^3-1.487,x^4 , $$ $$ f_5(x)= 16.390-71.235,x+111.233,x^2-77.620,x^3+25.067,x^4-3.0347, x^5 . $$

Среднеквадратичные отклонения: $$ begin deg & 1 & 2 & 3 & 4 & 5 \ hline sigma & 0.717 & 0.448 & 0.204 &0.086 & 0 end $$ ♦

Возникает естественный вопрос: полином какой степени следует разыскивать в МНК? При увеличении степени точность приближения, очевидно, увеличивается. Вместе с тем, увеличивается сложность решения системы нормальных уравнений и даже при небольших степенях $ n $ (меньших $ 10 $) мы столкнемся с проблемой чувствительности решения к точности представления входных данных.

Видео:Решение системы уравнений методом Крамера.Скачать

Решение системы уравнений методом Крамера.

Влияние систематических ошибок

Пример. Уравнение прямой, аппроксимирующей множество точек плоскости, заданных координатами из таблицы

$$ begin x & 0.5 & 1 & 1.5 & 2 & 2.5 & 3 \ hline y & 0.35 & 0.80 & 1.70 & 1.85 & 2.51 & 2.02 end $$ имеет вид (охра) $$ y=0.175+0.779, x , . $$ Матрица системы нормальных уравнений мнк Теперь заменим значение $ y_5 $ на $ 0.2 $. Уравнение прямой принимает вид: $$ y=0.483+0.383, x , . $$ График (зеленый) существенно изменился. Почему это произошло? — Дело в том, что эффективность метода наименьших квадратов зависит от нескольких предположений относительно входных данных: в нашем случае — значений $ y $. Предполагается, что эти величины являлись результатами экспериментов, измерений, и, если они подвержены погрешностям, то эти погрешности носят характер несистематических флуктуаций вокруг истинных значений. Иными словами, изначально предполагается, что в действительности точки плоскости должны лежать на некоторой прямой. И только несовершенство наших методов измерений (наблюдений) демонстрирует смещение их с этой прямой. Ответ для исходной таблицы визуально подтвержает это предположение: экспериментальные точки концентрируются вокруг полученной прямой и величины невязок (отклонений по $ y $-координате) имеют «паритет» по знакам: примерно половина точек лежит выше прямой, а половина — ниже.

После замены значения $ y_5 $ на новое, значительно отличающееся от исходного, существенно меняется величина $ 5 $-й невязки $ varepsilon_5= ax_5+b-y_5 $. А поскольку в минимизируемую функцию эта невязка входи еще и в квадрате, то понятно, что изначальная прямая просто не в состоянии правильно приблизить новую точку.

Эта проблема становится актуальной в тех случаях, когда в «истинно случайный» процесс привносятся намеренные коррективы. Данные начинают подвергаться существенным искажениям, возможно, даже имеющим «злой» умысел 3) .

Как бороться с ошибками такого типа? Понятно, что решение возможно в предположении, что число таких — систематических — ошибок должно быть существенно меньшим общего количества экспериментальных данных. Понятно, что каким-то образом эти «выбросы» надо будет исключить из рассмотрения, т.е. очистить «сырые» данные от «мусора» — прежде чем подсовывать их в метод наименьших квадратов (см. ☞ цитату). Как это сделать?

Видео:Метод наименьших квадратов. Квадратичная аппроксимацияСкачать

Метод наименьших квадратов. Квадратичная аппроксимация

Псевдорешение системы линейных уравнений

Рассмотрим теперь обобщение задачи предыдущего пункта. В практических задачах часто бывает нужно найти решение, удовлетворяющее большому числу возможно противоречивых требований. Если такая задача сводится к системе линейных уравнений $$ left<begin a_x_1 +a_x_2+ldots+a_x_n &=&b_1\ a_x_1 +a_x_2+ldots+a_x_n &=&b_2\ ldots& & ldots \ a_x_1 +a_x_2+ldots+a_x_n &=&b_m endright. iff AX= $$ при числе уравнений $ m_ $ большем числа неизвестных $ n_ $, то такая переопределенная система, как правило, несовместна. В этом случае задача может быть решена только путем выбора некоторого компромисса — все требования могут быть удовлетворены не полностью, а лишь до некоторой степени.

Псевдорешением системы $ AX= $ называется столбец $ Xin mathbb R^n $, обеспечивающий минимум величины $$ sum_^m [a_x_1 +a_x_2+ldots+a_x_n-b_i]^2 . $$

Теорема. Существует псевдорешение системы

$$ AX= $$ и оно является решением системы $$ left[A^A right]X=A^ . $$ Это решение будет единственным тогда и только тогда, когда $ operatorname A =n $.

Система $ left[A^A right]X=A^ $ называется нормальной системой по отношению к системе $ AX= $. Формально она получается домножением системы $ AX= $ слева на матрицу $ A^ $. Заметим также, что если $ m=n_ $ и $ det A ne 0 $, то псевдорешение системы совпадает с решением в традиционном смысле.

Доказательство ☞ ЗДЕСЬ.

Если нормальная система имеет бесконечное количество решений, то обычно в качестве псевдорешения берут какое-то одно из них — как правило то, у которого минимальна сумма квадратов компонент («длина»).

Пример. Найти псевдорешение системы

$$x_1+x_2 = 2, x_1-x_2 = 0, 2, x_1+x_2 = 2 .$$

Решение. Имеем: $$A=left( begin 1 & 1 \ 1 & -1 \ 2 & 1 end right), operatorname A =2, = left( begin 2 \ 0 \ 2 end right), A^A= left( begin 6 & 2 \ 2 & 3 end right), A^ = left( begin 6 \ 4 end right). $$

Ответ. $ x_1=5/7, x_2 = 6/7 $.

Показать, что матрица $ A^A $ всегда симметрична.

На дубовой колоде лежит мелкая монетка. К колоде

Матрица системы нормальных уравнений мнк

по очереди подходят четыре рыцаря и каждый наносит удар мечом, стараясь попасть по монетке. Все промахиваются. Расстроенные, рыцари уходят в харчевню пропивать злосчастную монетку. Укажите максимально правдоподобное ее расположение, имея перед глазами зарубки: $$ begin 3, x &- 2, y&=& 6,\ x &-3,y&=&-3,\ 11,x& + 14,y&=& 154, \ 4,x&+y&=&48. end $$

Видео:Математика без Ху!ни. Метод Гаусса.Скачать

Математика без Ху!ни. Метод Гаусса.

Геометрическая интерпретация

Видео:Решение матричных уравненийСкачать

Решение матричных уравнений

Псевдообратная матрица

Пусть сначала матрица $ A_ $ порядка $ mtimes n_ $ — вещественная и $ m ge n_ $ (число строк не меньше числа столбцов). Если $ operatorname (A) = n $ (столбцы матрицы линейно независимы), то псевдообратная к матрице $ A_ $ определяется как матрица $$ A^=(A^A)^ A^ . $$ Эта матрица имеет порядок $ n times m_ $. Матрица $ (A^A)^ $ существует ввиду того факта, что при условии $ operatorname (A) = n $ будет выполнено $ det (A^ A) > 0 $ (см. упражнение в пункте ☞ ТЕОРЕМА БИНЕ-КОШИ или же пункт ☞ СВОЙСТВА ОПРЕДЕЛИТЕЛЯ ГРАМА ). Очевидно, что $ A^ cdot A = E_ $, т.е. псевдообратная матрица является левой обратной для матрицы $ A_ $. В случае $ m=n_ $ псевдообратная матрица совпадает с обратной матрицей: $ A^=A^ $.

Пример. Найти псевдообратную матрицу к матрице $$ A= left( begin 1 & 0 \ 0 & 1 \ 1 & 1 end right) . $$

Решение. $$ A^= left( begin 1 & 0 & 1 \ 0 & 1 & 1 end right) Rightarrow A^ cdot A = left( begin 2 & 1 \ 1 & 2 end right) Rightarrow $$ $$ Rightarrow (A^ cdot A)^ = left( begin 2/3 & -1/3 \ -1/3 & 2/3 end right) Rightarrow $$ $$ Rightarrow quad A^ = (A^ cdot A)^ A^ = left( begin 2/3 & -1/3 & 1/3 \ -1/3 & 2/3 & 1/3 end right) . $$ При этом $$ A^ cdot A = left( begin 1 & 0 \ 0 & 1 end right),quad A cdot A^ = left( begin 2/3 & -1/3 & 1/3 \ -1/3 & 2/3 & 1/3 \ 1/3 & 1/3 & 2/3 end right) , $$ т.е. матрица $ A^ $ не будет правой обратной для матрицы $ A_ $. ♦

Вычислить псевдообратную матрицу для $$ mathbf left( begin 1 & 0 \ 1 & 1 \ 1 & 1 end right) quad ; quad mathbf left( begin x_1 \ x_2 \ x_3 end right) . $$

Концепция псевдообратной матрицы естественным образом возникает из понятия псевдорешения системы линейных уравнений . Если $ A^ $ существует, то псевдорешение (как правило, переопределенной и несовместной!) системы уравнений $ AX=mathcal B_ $ находится по формуле $ X= A^ mathcal B $ при любом столбце $ mathcal B_ $. Верно и обратное: если $ E_, E_,dots, E_ $ – столбцы единичной матрицы $ E_m $: $$ E_=left( begin 1 \ 0 \ 0 \ vdots \ 0 end right), E_=left( begin 0 \ 1 \ 0 \ vdots \ 0 end right),dots, E_=left( begin 0 \ 0 \ 0 \ vdots \ 1 end right), $$ а псевдорешение системы уравнений $ AX=E_ $ обозначить $ X_ $ (оно существует и единственно при условии $ operatorname (A) = n $), то $$ A^=left[X_1,X_2,dots,X_m right] . $$

Теорема. Пусть $ A_ $ вещественная матрица порядка $ mtimes n_ $, $ m ge n_ $ и $ operatorname (A) = n $. Тогда псевдообратная матрица $ A^ $ является решением задачи минимизации

$$ min_<Xin mathbb R^> |AX-E_m|^2 $$ где минимум разыскивается по всем вещественным матрицам $ X_ $ порядка $ ntimes m_ $, а $ || cdot || $ означает евклидову норму матрицы (норму Фробениуса) : $$ |[h_]_|^2=sum_ h_^2 . $$ При сделанных предположениях решение задачи единственно.

С учетом этого результата понятно как распространить понятие псевдообратной матрицы на случай вещественной матрицы $ A_^ $, у которой число строк меньше числа столбцов: $ m ☞ ЗДЕСЬ

Источники

[1]. Беклемишев Д.В. Дополнительные главы линейной алгебры. М.Наука.1983, с.187-234

💡 Видео

Метод Наименьших Квадратов (МНК)Скачать

Метод Наименьших Квадратов (МНК)

ЦОС Python #1: Метод наименьших квадратовСкачать

ЦОС Python #1: Метод наименьших квадратов
Поделиться или сохранить к себе: