Методы оптимизации в решении уравнений

Видео:Cимплексный метод решения задачи линейного программирования (ЗЛП)Скачать

Cимплексный метод решения задачи линейного программирования (ЗЛП)

Системы уравнений и задачи оптимизации

Видео:Методы Оптимизации. Семинар 19. Метод Ньютона. Квазиньютоновские методы. Примеры.Скачать

Методы Оптимизации. Семинар 19. Метод Ньютона. Квазиньютоновские методы. Примеры.

Разложение на множители алгебраического многочлена степени n

Любой алгебраический многочлен степени n может быть представлен в виде произведения n-линейных множителей вида Методы оптимизации в решении уравненийи постоянного числа, которое является коэффициентов многочлена при старшей ступени х, т.е.

Видео:Метод Ньютона (метод касательных) Пример РешенияСкачать

Метод Ньютона (метод касательных) Пример Решения

Методы решения квадратных уравнений

Квадратное уравнение – это алгебраическое уравнение второй степени (также его называют квадратным трёхчленом), которое можно записать в следующем виде:

Видео:Графический метод решения задачи линейного программирования (ЗЛП)Скачать

Графический метод решения задачи линейного программирования (ЗЛП)

Безусловная оптимизация. Метод Ньютона

Метод Ньютона – это итерационный численный метод (второго порядка) решения оптимизационных задач, который позволяет определить экстремум (минимум или максимум) целевой функции:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений— это значения аргумента функции (управляемые параметры), которые определены на вещественной области.

При поиске экстремума целевой функции используется информация о функции и её производных: первого и второго порядка. Итерационная формула для вычисления аргумента функции по методу Ньютона получается при квадратичной аппроксимации целевой функции, т. е. при разложении функции в ряд Тейлора (с отбрасыванием членов третьего и более высоких порядков).

Методы оптимизации в решении уравнений

где Методы оптимизации в решении уравнений— матрица Гессе, которая представляет собой симметричную квадратную матрицу вторых частных производных целевой функции в точке Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений

Необходимым условием экстремума функции многих переменных Методы оптимизации в решении уравненийв точке Методы оптимизации в решении уравненийявляется равенство нулю ее производной (градиента) в этой точке:

Методы оптимизации в решении уравнений

Продифференцируем функцию, разложенную в ряд Тейлора, по компоненте Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений

Таким образом, целевая функция имеет экстремум функции при следующем значении ее аргумента:

Методы оптимизации в решении уравнений

В общем случае процесс нахождения экстремума функции является итерационной процедурой, поэтому выражение преобразуют к следующему виду:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений— вектор столбец управляемых параметров, которые определяются в задаче оптимизации (размерность: 1xn)

Методы оптимизации в решении уравнений— квадратная матрица вторых частных производных (размерность: nxn)

Методы оптимизации в решении уравнений— вектор столбец градиента целевой функции по управляемым параметрам (размерность: 1xn).

Итерационный процесс расчета продолжается до тех пор, пока не будут выполнены некоторые критерии останова:

— траектория поиска остается в малой окрестности текущей точки поиска:

Методы оптимизации в решении уравнений

— приращение целевой функции не меняется:

Методы оптимизации в решении уравнений

— градиент целевой функции в точке локального минимума обращается в нуль:

Методы оптимизации в решении уравнений

Метод Ньютона обладает квадратичной скоростью сходимости, в отличие от других методов первого порядка (Градиентные методы), которые обладают линейной скоростью сходимости. Применение метода Ньютона оказывается очень эффективным при условии, что выполняются необходимые и достаточные условия его сходимости. Условием, гарантирующим сходимость метода Ньютона в предположении, что функция Методы оптимизации в решении уравненийдважды дифференцируема, заключается в том, что матрица Гессе должна быть положительно определенной.

В аналитической геометрии поверхности второго порядка описываются как: эллиптический параболоид, гиперболоид, гиперболический параболоид (седло) и эллипсоид. В задачах поиска минимума квадратичной функции с положительной матрицей вторых производных метод Ньютона дает решение за одну итерацию независимо от выбора начальной точки.

Методы оптимизации в решении уравнений

Рис.1. Поиск минимума квадратичной функции по методу Ньютона

При увеличении количества переменных и усложнением функции возникают сложности с вычислением матрицы Гессе, поэтому в настоящее время разработаны квазиньютоновские алгоритмы, основанные на приближённых выражениях для матрицы Гессе. Тем не менее, многие компьютерные программы, решающие задачу оптимизации, построены на основе метода Ньютона. Роль метода Ньютона велика: большинство наиболее эффективных методов в линейном и нелинейном программировании строятся на его основе.

Методика расчета

1 шаг: Определяем аналитические выражения (в символьном виде) для вычисления градиента рассматриваемой функции и квадратной матрицы Гессе:

градиент рассматриваемой функции:

Методы оптимизации в решении уравнений

квадратная матрица Гессе:

Методы оптимизации в решении уравнений

2 шаг: Задаем начальное приближение Методы оптимизации в решении уравнений

Далее выполняется итерационный процесс.

3 шаг: Определяем новые значения аргументов функции после выполнения k-го шага расчета методом по следующей формуле:

Методы оптимизации в решении уравнений

4 шаг: проверяем критерии останова итерационного процесса. Вычислительный процесс заканчивается, когда будет достигнута точка, в которой оценка градиента будет равна нулю (коэффициенты функции отклика становятся незначимыми). В противном случае возвращаемся к шагу 3 и продолжаем итерационный расчет.

Видео:Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ. | МатематикаСкачать

Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ.  | Математика

Оптимизационные задачи. Общие сведения

Оптимизационная задача – это задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного пространства, ограниченной набором линейных и/или нелинейных равенств и/или неравенств.

Целевая функция представляет собой набор критериев качества, которые должны быть оптимизированы одновременно. В общем случае целевая функция состоит из управляемых и неуправляемых переменных. Условие поиска экстремума целевой функции записывается в следующем виде:

Методы оптимизации в решении уравнений

Методы решения оптимизационных задач изучает математическое программирование. Математическое программирование – это математическая дисциплина, изучающая теорию и методы решения задач по определению экстремумов функций на множествах конечномерного векторного пространства, определяемых набором линейных и/или нелинейных ограничений (равенствами и/или неравенствами). Математическое программирование представляет собой, как правило, многократно повторяющуюся вычислительную процедуру, приводящую к искомому оптимальному решению. Выбор метода математического программирования для решения оптимизационной задачи определяется видом зависимостей в математической модели, характером искомых переменных, категорией исходных данных и количеством критериев оптимальности:

  • Методы линейного программирования используются в случае, если в математической модели имеются только линейные зависимости между переменными, для решения оптимизационной задачи.
  • Методы нелинейного программирования используются в случае, если в математической модели имеются нелинейные зависимости между переменными, для решения оптимизационной задачи.
  • Методы целочисленного или дискретного программирования используются в случае, если среди переменных имеются целочисленные или дискретные переменные, соответственно.
  • Методы стохастического программирования используются в случае, если исходные данные или их часть являются случайными величинами.
  • Математический аппарат теории игр используются в случае, если задана недетерминированная (неопределенная) исходная информация.

Решение задачи оптимизации осуществляется с помощью поисковых методов, использующих предшествующую информацию для построения улучшенного решения задачи (итерационные методы расчета). К настоящему времени разработано достаточно много методов локальной оптимизации для решения задач общего вида. Большинство из них используют принцип локального спуска, когда метод последовательно на каждом шаге переходит к точкам с существенно меньшими (большим) значениями целевой функции. Данные методы отличаются один от другого способом определения направления движения к оптимуму, размером шага и продолжительностью поиска вдоль найденного направления, а также критериями окончания поиска. Поиск оптимального значения в таких задачах может быть представлен в виде итерационного соотношения:

Методы оптимизации в решении уравнений

где переменная Методы оптимизации в решении уравнений— это приращение вектора управляемых параметров. В зависимости от условия поиска (поиск максимального или минимального значения целевой функции) используется либо знак «+», либо знак «-».

Приращение вектора управляемых параметров в большинстве случаях вычисляется по формуле:

Методы оптимизации в решении уравнений

В данном выражении Методы оптимизации в решении уравнений— значение вектора управляемых параметров на k-ом шаге, Методы оптимизации в решении уравнений— шаг расчета, а Методы оптимизации в решении уравнений— направление поиска экстремума функции.

В зависимости от числа управляемых параметров различают методы одномерной и многомерной оптимизации (многокритериальная оптимизация). Поиск считается одномерным, в случае если аргументом целевой функции является один управляемый параметр.

Шаг расчета

Итерационная форма методов локальной оптимизации для решения задач поиска экстремума целевой функции требует выбора шага расчета вдоль заданных направлений на каждом шаге итерации. Шаг расчета может быть постоянным или переменным, но оптимальное значение длины шага определяется в результате поиска экстремума целевой функции в выбранном направлении Методы оптимизации в решении уравненийс использованием методов одномерной оптимизации:

Методы оптимизации в решении уравнений

Другими словами, величина шага расчета вычисляется при решении следующего выражения:

Методы оптимизации в решении уравнений

В результате решения данного уравнение мы получим, что шаг расчета в символьном виде определяется следующим образом:

Методы оптимизации в решении уравнений

где Методы оптимизации в решении уравнений— значение аргумента функции на k-ом шаге итерации;

n – количество неизвестных переменных, которые определяются в ходе решения задачи;

L – некоторая константа, которая определяется из определителя следующей матрицы:

Методы оптимизации в решении уравнений

В результате для определения оптимального шага расчета требуется выполнить большой объем вычислений целевой функции. Для снижения числа операций на практике используют другой подход: подбирают такие значения шага расчета Методы оптимизации в решении уравнений, чтобы они удовлетворяли любому из представленных ниже условию.

  • Первое условие (правило Армихо) является адаптивным методом поиска величины шага расчета, которое говорит о том, что функция Методы оптимизации в решении уравненийне должна превышать значения некоторой убывающей линейной функции, равной Методы оптимизации в решении уравненийв нуле:

Методы оптимизации в решении уравнений

где коэффициент Методы оптимизации в решении уравнений, а шаг расчета Методы оптимизации в решении уравненийопределяется итеративно путем умножения первоначального шага Методы оптимизации в решении уравненийна коэффициент Методы оптимизации в решении уравненийдо тех пор пока не будет выполняться условие.

Методы оптимизации в решении уравнений

Рис.1. Критерий выбора шага расчета по правилу Армихо

Методика определения шага расчета оптимизационной задачи в соответствии с правилом Армихо заключается в следующем:

1.Задать коэффициент Методы оптимизации в решении уравненийв диапазоне от 0 до 1.

2.Задать начальное значение шага Методы оптимизации в решении уравнений.

Процедура поиска (проверка выполнения условия по правилу Армихо)

3. В случае если условие по правилу Армихо не выполняется, тогда необходимо скорректировать шаг расчета Методы оптимизации в решении уравнений, где переменная Методы оптимизации в решении уравненийможет принимать любое значение от 0 до 1, по умолчанию примем, что переменная Методы оптимизации в решении уравнений, а Методы оптимизации в решении уравнений— текущий шаг поиска.

4. В случае если условие по правилу Армихо выполняется, тогда в качестве шага расчета можно принять Методы оптимизации в решении уравнений, а процедура поиска завершается.

Данное правило требует однократного вычисления градиента, после чего небольшое количество итераций затрачивается на подбор подходящего шага. Каждая из таких вложенных итераций, в свою очередь, требует вычисления значения целевой функции без градиента, то есть проводимые испытания относительно легковесны. Следует отметить, что данное условие удовлетворяется для всех достаточно малых Методы оптимизации в решении уравнений. Правило Армихо можно расширить на многокритериальный случай: неравенство 3.19 следует понимать покомпонентно.

  • Второе условие (Правило Вольфе-Пауэлла — Wolfe. P) является модифицированным критерием, позволяет выбрать шаг расчета в случае выполнения двух условий:

— функция Методы оптимизации в решении уравненийне должна превышать значения некоторой убывающей линейной функции, равной Методы оптимизации в решении уравненийв нуле:

Методы оптимизации в решении уравнений

— величина скорости изменения функция в заданном направлении Методы оптимизации в решении уравненийбыла в Методы оптимизации в решении уравненийраз больше, чем скорость изменения функции в первоначальной точке Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений

Рис.2. Критерий выбора шага расчета по правилу Вольфе-Пауэлла

Методика определения шага расчета оптимизационной задачи в соответствии с правилом Вольфе-Пауэлла заключается в следующем:

1. Задать коэффициент Методы оптимизации в решении уравненийи Методы оптимизации в решении уравненийв диапазоне от 0 до 1 Методы оптимизации в решении уравнений.

2. Задать начальное значение шага Методы оптимизации в решении уравнений, принять коэффициент Методы оптимизации в решении уравненийи Методы оптимизации в решении уравнений

Процедура поиска (проверка выполнения условия по правилу Вольфе-Пауэлла)

3. В случае если первое условие по правилу Вольфе-Пауэлла не выполняется, тогда принять коэффициент Методы оптимизации в решении уравнений. Перейти к пункту №5.

4. В случае если второе условие по правилу Вольфе-Пауэлла не выполняется, тогда принять коэффициент Методы оптимизации в решении уравнений:

— в случае если Методы оптимизации в решении уравнений, то перейти к пункту №5;

— в случае если Методы оптимизации в решении уравненийвыполнить экстраполяцию, положив Методы оптимизации в решении уравнений, где r – коэффициент экстраполяции Методы оптимизации в решении уравнений. Перейти к пункту №3.

5. Выполнить текущий расчет шага по формуле

Методы оптимизации в решении уравнений

где Методы оптимизации в решении уравнений— коэффициент интерполяции, который определяется в следующем диапазоне Методы оптимизации в решении уравнений

Перейти к пункту №3.

6. В случае если выполняются оба условия правилу Вольфе-Пауэлла, тогда в качестве шага расчета можно принять Методы оптимизации в решении уравнений, а процедура поиска завершается.

  • Третье условие (правило Голдстейна-Армийо) позволяет выбрать шаг расчета, рассматривая следующее неравенство:

Методы оптимизации в решении уравнений

Методика определения шага расчета оптимизационной задачи в соответствии с правилом Голдстейна-Армийо заключается в следующем:

1.Задать коэффициент Методы оптимизации в решении уравненийи Методы оптимизации в решении уравненийв диапазоне от 0 до 1 Методы оптимизации в решении уравнений.

2. Задать начальное значение шага Методы оптимизации в решении уравнений

3. В случае если условие по правилу Голдстейна-Армийоне выполняется, тогда необходимо скорректировать шаг расчета Методы оптимизации в решении уравнений, где переменная Методы оптимизации в решении уравненийможет принимать любое значение от 0 до 1, по умолчанию примем, что переменная Методы оптимизации в решении уравнений, а Методы оптимизации в решении уравнений— текущий шаг поиска.

4. В случае если условие по правилу Голдстейна-Армийо выполняется , тогда в качестве шага расчета можно принять Методы оптимизации в решении уравнений, а процедура поиска завершается.

Критерии останова оптимизационного процесса

Поиск оптимального решения завершается в случае, когда на итерационном шаге расчета выполняется один (или несколько) критериев:

— траектория поиска остается в малой окрестности текущей точки поиска:

Методы оптимизации в решении уравнений

— приращение целевой функции не меняется:

Методы оптимизации в решении уравнений

— градиент целевой функции в точке локального минимума обращается в нуль:

Методы оптимизации в решении уравнений

Классификация методов оптимизации.

В настоящее время для решения задач оптимизации разработано огромное количество различных математических методов. Применение того или иного метода определяется постановкой задачи, сложностью вычисления функции и ее производных, поведением функции и т. д.

Задачи оптимизации и методы их решения можно разделить по наличию или отсутствию ограничений (задаётся системой неравенств и равенств или более сложным алгоритмом) в математических моделях на методы условной и безусловной оптимизации. Для реальных задач характерно наличие ограничений, однако методы безусловной оптимизации также представляют интерес, поскольку задачи условной оптимизации с помощью специальных методов могут быть сведены к задачам без ограничений.

Методы безусловной оптимизации

Классическая задача безусловной оптимизации формулируется следующим образом: требуется найти вектор переменных Методы оптимизации в решении уравнений, при котором целевая функция принимает экстремальное (максимальное или минимальное значение) значение

Методы оптимизации в решении уравнений

Экстремальное значение целевой функции соответствует оптимальному управлению. В графическом виде постановка задачи выглядит следующим образом:

Методы оптимизации в решении уравнений

Рис.3. Задача безусловной оптимизации для функции двух переменных

Сущность метода оптимизации в первую очередь определяется способом выбора направления движения к экстремуму. В зависимости от используемого порядка производных целевой функции методы безусловной оптимизации делят на методы нулевого, первого и второго порядков. Если производные не используются, то имеет место метод нулевого порядка, если используются первые или вторые производные, то соответственно метод первого или второго порядка.

  • Методы нулевого порядка (методы прямого поиска) для поиска экстремума функции требуют вычисление только значений функции в точках пространства оптимизации. В данном методе информация о производных не используется и, соответственно, не требуют определения аналитического вида производных. В зависимости от количества управляемых параметров различают методы одномерного и многомерного поиска.

Наиболее популярными (с точки зрения обучения в высшей школе) являются следующие методы решения оптимизационных задач нулевого порядка:

Методы одномерного поиска:

— Метод дихотомического деления и метод золотого сечения – это методы одномерной оптимизации, основанные на делении отрезка, на котором ищется экстремум, пополам или в пропорциях золотого сечения (0,382 / 0,618), соответственно.

— Метод полиномиальной аппроксимации (метод квадратичной интерполяции) – это метод одномерной оптимизации, в соответствии с которым целевая функция аппроксимируется квадратичным полиномом.

Методы многомерного поиска:

— Метод покоординатного спуска (Гаусса-Зейделя) – это метод безусловной оптимизации нулевого порядка, в котором направления поиска выбираются поочередно вдоль всех координатных осей, шаг рассчитывается на основе одномерной оптимизации.

— Метод вращающихся координат (Метод Розенброка) – это метод безусловной оптимизации нулевого порядка, в котором реализуется покоординатный спуск, но вдоль координатных осей, поворачиваемых таким образом, чтобы направление одной из осей было близко к направлению, параллельному дну оврага.

— Симплексный метод (метод деформируемого многогранника или метод Нелдера-Мида) – это метод безусловной оптимизации нулевого порядка, основанный на многократно повторяемых операциях построения многогранника с (n+1) вершинами, где n — размерность пространства управляемых параметров, и перемещения наихудшей вершины (с наихудшим значением целевой функции) в направлении центра тяжести многогранника.

  • Методы первого порядка (градиентные методы поиска)для поиска экстремума требуют вычисления значений функции в точках пространства оптимизации, а также определение аналитического вида производных первого порядка по управляемым параметрам. Методы первого порядка называют также градиентными, поскольку вектор первых производных функции F(X) по оптимизируемым переменным X есть градиент целевой функции:

Методы оптимизации в решении уравнений

Градиент в базовой точке строго ортогонален к поверхности, а его направление показывает направление наискорейшего возрастания функции, а противоположное направление (антиградиента), соответственно, показывает направление наискорейшего убывания функции. Градиентные методы отличаются один от другого способом определения направления движения к оптимуму, размером шага и продолжительностью поиска вдоль найденного направления, а также критериями окончания поиска.

Наиболее популярными (с точки зрения обучения в высшей школе) являются следующие методы решения оптимизационных задач первого порядка:

— Метод градиентного спуска – это метод нахождения локального минимума (максимума) функции с помощью движения вдоль градиента с переменным (дробным) шагом, который задается пользователем.

— Метод наискорейшего спуска – это метод нахождения локального минимума (максимума) функции при движении вдоль градиента с оптимальным шагом. Шаг расчета выбирается минимума целевой (минимизируемой) функции в направлении спуска.

— Метод сопряженных градиентов (метод Флетчера-Ривса) – это метод безусловной оптимизации первого порядка, в котором направление поиска на очередном шаге есть градиентное направление, скорректированное с учетом направления поиска на предыдущем шаге.

— Метод переменной метрики (метод Девидона-Флетчера-Пауэлла) – это метод безусловной оптимизации, в котором за основу взято решение системы уравнений, выражающих необходимые условия экстремума.

  • Методы второго порядка для поиска экстремума требуют вычисления значений функции в точках пространства оптимизации, а также определение аналитического вида производных первого и второго порядка по управляемым параметрам.

Наиболее популярными (с точки зрения обучения в высшей школе) являются следующие методы решения оптимизационных задач второго порядка:

— Метод Ньютона – это метод безусловной оптимизации, основанный на использовании необходимых условий безусловного экстремума целевой функции: равенству нулю первой производной. В соответствии с данным методом определяют матрицу вторых частных производных целевой функции по управляемым параметрам (матрицу Гессе).

— Метод Марквардта – это метод безусловной оптимизации, направленный на решение задач о наименьших квадратах. Является альтернативой методу Гаусса – Ньютона. Может рассматриваться как комбинация последнего с методом градиентного спуска или как метод доверительных интервалов.

Методы условной оптимизации

Классическая задача условной оптимизации формулируется следующим образом: необходимо найти вектор переменных Методы оптимизации в решении уравнений, при котором целевая функция принимает экстремальное (максимальное или минимальное значение) значение

Методы оптимизации в решении уравнений

при заданных условиях (равенствами и/или неравенствами), при этом число ограничений m может быть как больше, так и меньше числа переменных n.

Методы оптимизации в решении уравнений, j=1,2,…,m.

Другими словами, необходимо найти экстремум целевой функции при условии, что значения аргументов функции принадлежат области допустимых значений, которая образуется системой ограничений. Экстремальное значение целевой функции соответствует оптимальному управлению. В графическом виде постановка задачи выглядит следующим образом:

Методы оптимизации в решении уравнений

Рис.4. Задача условной оптимизации для функции двух переменных

В зависимости от используемого метода решения методы условной оптимизации можно разделить на методы сведения задачи к безусловной оптимизации и методы непосредственного решения.

  • Методы сведения задачи к безусловной оптимизации — это задача условной оптимизации, основанная на преобразование задачи нелинейного программирования в последовательность задач безусловной оптимизации путем построения вспомогательных функций

Наиболее популярными (с точки зрения обучения в высшей школе) являются следующие методы решения оптимизационных задач условной оптимизации:

— Метод неопределенных множителей Лагранжа – это метод условной оптимизации, ориентированный на поиск экстремума целевой функции при наличии ограничений типа равенств.

— Условия Куна-Таккера – это метод решения оптимизационной задачи математического программирования с заданными ограничениями. Метод является обобщением метода множителей Лагранжа на случай общей задачи нелинейного программирования с ограничениями, как в виде равенств, так и в виде неравенств.

— Метод штрафных функций – это метод или группа методов для решения задач математического программирования, основанные на преобразовании задачи условной оптимизации в задачу безусловной оптимизации путем формирования новой целевой функции, учитывающей ограничения задачи.

  • Методы непосредственного решения задачи условной оптимизации – это задача условной оптимизации, основанная на движении из одной допустимой точки, где выполнены все ограничения, к другой допустимой точке с лучшим значением целевой функции.

Наиболее популярными (с точки зрения обучения в высшей школе) являются следующие методы решения оптимизационных задач условной оптимизации:

— Метод приведенного градиента – это метод условной оптимизации, ориентированный на решение задач с ограничениями типа равенств. Направление движение в данном методе определяет приведенный градиент функции.

— Метод возможных направлений (метод Зойтендейка) — этот метод решения задач математического программирования основан на движении из одной допустимой точки к другой с лучшим значением целевой функции.

Численные методы оптимизации реализованы и широко используются в различных математических пакетах. При этом наличие готовых программных средств (математических библиотек и пакетов) не только не снимает необходимость изучения методов, а наоборот, делает подготовку в этом направлении еще более актуальной. Это связано с тем, что при решении реальной задачи от специалиста требуется грамотная математическая постановка задачи, ее формализация, обоснование и выбор наиболее эффективного метода расчета, а также умение производить оценку адекватности и точности полученных результатов.

Видео:9 класс, 11 урок, Методы решения систем уравненийСкачать

9 класс, 11 урок, Методы решения систем уравнений

Безусловная оптимизация. Метод градиентного спуска (метод градиента).

Метод градиентного спуска (метод градиента) (в англ. литературе «gradient-search method») – это итерационный численный метод (первого порядка) решения оптимизационных задач, который позволяет определить экстремум (минимум или максимум) целевой функции:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений— это значения аргумента функции (управляемые параметры) на вещественной области.

В соответствии с рассматриваемым методом экстремум (максимум или минимум) целевой функции определяют в направлении наиболее быстрого возрастания (убывания) функции, т.е. в направлении градиента (антиградиента) функции. Градиентом функции в точке Методы оптимизации в решении уравненийназывается вектор, проекциями которого на координатные оси являются частные производные функции по координатам:

Методы оптимизации в решении уравнений

где i, j, n — единичные векторы, параллельные координатным осям.

Частные производные характеризуют изменение функции по каждой независимой переменной в отдельности. Образованный с их помощью вектор градиента дает общее представление о поведении функции в заданной окрестности точки.

Методы оптимизации в решении уравнений

Рис.1. Градиент к поверхности функции

Градиент в базовой точке Методы оптимизации в решении уравненийстрого ортогонален к поверхности, а его направление показывает направление наискорейшего возрастания функции, а противоположное направление (антиградиент),соответственно, показывает направление наискорейшего убывания функции.

Модуль градиента определяется в соответствии со следующей формулы:

Методы оптимизации в решении уравнений

Углы наклона этого вектора к направлению координатных осей х, у, z определяются исходя из соотношений в прямоугольном треугольнике (косинус угла):

Методы оптимизации в решении уравнений

В общем случае процесс нахождения экстремума (минимума или максимума) функции является итерационной процедурой, которая записывается в векторной форме следующим образом:

Методы оптимизации в решении уравнений

«+» используется, когда ищется максимум функции;

«-» используется, когда ищется минимум функции.

Градиент (антиградиент) дает только направление спуска, но не величину шага. В общем случае один шаг не дает точку экстремума, поэтому процедура спуска должна применяться несколько раз. В точке минимума все компоненты градиента равны нулю. Ниже на рисунке представлена графическая интерпретация метода градиентного спуска.

Методы оптимизации в решении уравнений

Рис.2. Геометрическая интерпретация градиентного метода

Величина рабочего шага в направлении градиента зависит от величины градиента и от коэффициента пропорциональности шага. Величина шага расчета сильно влияет на эффективность метода расчета. В данном методе шаг расчета выбирается двумя способами:

— постоянный шаг расчета;

— дробным шагом, то есть длина шага в процессе спуска делится на некоторое число. Например, в случае поиска минимума функции можно воспользоваться следующей идеологией: в случае Методы оптимизации в решении уравнений, то Методы оптимизации в решении уравнений, в противном случае шаг расчета остается без изменения Методы оптимизации в решении уравнений

Нормированная запись уравнения

Большей эффективностью обладает другой вариант записи уравнения, когда шаг по переменной определяется направляющими косинусами градиента. Данный метод базируется на том, что производная целевой функции пропорциональна косинусу угла, образуемого вектором градиента с i-й осью координат. В связи с этим алгоритм градиентного поиска преобразуют к следующему виду:

Методы оптимизации в решении уравнений

где Методы оптимизации в решении уравнений— единичный вектор направления, который определяется по формуле:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений— модуль градиента определяет скорость возрастания или убывания функции в направлении градиента или антиградиента:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений– константа, определяющая размеры шага и одинаковая для всех i-х направлений.

Величина шага, выбираемая в направлении градиента (антиградиента) целевой функции, зависит от вида поверхности. В случае если шаг слишком мал, то потребуются продолжительные расчеты; в случае если шаг слишком велик, то можно проскочить оптимум. В данном методе используется дробный шаг расчета, который выбирается следующим образом:

— если угол наклона градиента меньше 30 градусов, то шаг расчета увеличить на некоторое число Методы оптимизации в решении уравнений;

— если угол наклона градиента находится в диапазоне от 30 до 60 градусов, то шаг расчета не изменяется Методы оптимизации в решении уравнений;

— если угол наклона градиента больше 60 градусов, то шаг расчета делится на некоторое число Методы оптимизации в решении уравнений.

Итерационный процесс расчета продолжается до тех пор, пока не будут выполнены некоторые критерии останова:

— траектория поиска остается в малой окрестности текущей точки поиска:

Методы оптимизации в решении уравнений

— приращение целевой функции не меняется:

Методы оптимизации в решении уравнений

— градиент целевой функции в точке локального минимума обращается в нуль:

Методы оптимизации в решении уравнений

Метод градиента вместе с его многочисленными модификациями является распространенным и эффективным методом поиска оптимума исследуемых объектов. Недостатком градиентного поиска (так же и рассмотренных выше методов) является то, что при его использовании можно обнаружить только локальный экстремум функции. Для отыскания других локальных экстремумов необходимо производить поиск из других начальных точек.

Методика расчета.

  • • 1 шаг: Определение аналитические выражения (в символьном виде) для вычисления градиента функции f(x), длины вектора градиента функции |f(x)| и единичного вектора t(V)

градиент рассматриваемой функции:

Методы оптимизации в решении уравнений

единичный вектор направления:

Методы оптимизации в решении уравнений

Методы оптимизации в решении уравнений

• 2 шаг: Задаем начальное приближение Методы оптимизации в решении уравнений

Далее выполняется итерационный процесс.

3 шаг: Вычисление координат единичного вектора Методы оптимизации в решении уравненийпо формуле, полученной на шаге 1, и определение координат новой точки при движении по направлению единичного вектора как функция от шага расчета.

Методы оптимизации в решении уравнений

4 шаг: Определяем шаг расчета: постоянный или дробный шаг расчета.

5 шаг: Определяем новые значения аргументов функции после выполнения k-го шага расчета методом градиентного спуска:

Методы оптимизации в решении уравнений

6 шаг: проверяем критерии останова итерационного процесса. Вычислительный процесс заканчивается, когда будет достигнута точка, в которой оценка градиента будет равна нулю (коэффициенты функции отклика становятся незначимыми). В противном случае возвращаемся к шагу 3 и продолжаем итерационный расчет.


источники:

📽️ Видео

Алгоритмы С#. Метод Ньютона для решения систем уравненийСкачать

Алгоритмы С#. Метод Ньютона для решения систем уравнений

Математика без Ху!ни. Метод Гаусса.Скачать

Математика без Ху!ни. Метод Гаусса.

Решение задачи линейного программирования при помощи надстройки Поиск решенияСкачать

Решение задачи линейного программирования при помощи надстройки Поиск решения

Метод Ньютона | Лучший момент из фильма Двадцать одно 21Скачать

Метод Ньютона | Лучший момент из фильма Двадцать одно  21

Метод касательных (метод Ньютона)Скачать

Метод касательных (метод Ньютона)

Численное решение уравнений, урок 3/5. Метод хордСкачать

Численное решение уравнений, урок 3/5. Метод хорд

Урок 1.Поиск решения, оптимизация, оптимальный план производстваСкачать

Урок 1.Поиск решения, оптимизация, оптимальный план производства

Современные методы оптимизации — Александр ГасниковСкачать

Современные методы оптимизации — Александр Гасников

Решение систем уравнений методом подстановкиСкачать

Решение систем уравнений методом подстановки

Система уравнений. Метод алгебраического сложенияСкачать

Система уравнений. Метод алгебраического сложения

11 класс, 27 урок, Общие методы решения уравненийСкачать

11 класс, 27 урок, Общие методы решения уравнений

Решение системы линейных уравнений графическим методом. 7 класс.Скачать

Решение системы линейных уравнений графическим методом. 7 класс.
Поделиться или сохранить к себе: