Что такое градиентные методы решения уравнений

Видео:11 класс, 27 урок, Общие методы решения уравненийСкачать

11 класс, 27 урок, Общие методы решения уравнений

Что такое градиентные методы решения уравнений

3.1. Общие соображения и определения.

Наиболее распространенные и эффективные методы приближенного решения задачи безусловной оптимизации

f ( x ) ® min,(1)

где f : R m ® R , укладываются в следующую грубую схему. Начиная с некоторого строится последовательность такая, что

f ( x n +1 ) f ( x n )(2)

при всех n О N . Такие последовательности иногда называют релаксационными , а методы построения релаксационных последовательностей — итерационными методами или методами спуска . Последовательность, удовлетворяющую (2), строят в надежде, что уменьшая на каждом шаге (переходе от x n к x n +1 ) значение функции, мы приближаемся к минимуму (по крайней мере, локальному).

Мы будем говорить, что метод, начиная с данного x 0 О R m ,

f ў ( x n ) ® Q при n ® Ґ ;

x n ® x * = argmin f ( x ) при n ® Ґ ;

в) линейно сходится (или сходится со скоростью геометрической прогрессии , или имеет первый порядок сходимости ), если при некоторых и

|| x n — x *|| Ј Cq n ;(3)

г) сверхлинейно сходится , если для любого и некоторого (зависящего от q ) C выполнено неравенство (3);

д) квадратично сходится (или имеет второй порядок сходимости ), если при некоторых и и всех

|| x n — x *|| Ј Cq 2 n .

Если эти свойства выполняются только для x 0 достаточно близких к x *, то как всегда добавляется эпитет «локально» .

З а д а ч а 3.1*. Пусть при некотором q О [0, 1)

|| x n +1 — x *|| Ј q || x n — x *||, n О N .

З а д а ч а 3.2*. Пусть при некотором C 1 > 0

|| x n +1 — x *|| Ј C 1 || x n — x *|| 2 , n О N

и || x 0 — x *|| достаточно мала. Докажите, что метод квадратично сходится.

Будем говорить, что на данной последовательности метод сходится с порядком p (или имеет p-ый порядок сходимости ), если при некотором C

|| x n +1 — x *|| Ј C || x n — x *|| p .

3.2. Эвристические соображения, приводящие к градиентным методам.

Выше уже отмечалось, что если x не является точкой локального минимума функции f , то двигаясь из x в направлении, противоположном градиенту (еще говорят, в направлении антиградиента ), мы можем локально уменьшить значение функции. Этот факт позволяет надеяться, что последовательность , рекуррентно определяемая формулой

x n +1 = x n — a f ў ( x n ),(4)

где a — некоторое положительное число, будет релаксационной.

К этой же формуле приводит и следующее рассуждение. Пусть у нас есть некоторое приближение x n . Заменим в шаре с центром в точке x n функцию f ее линейным (вернее, афинным) приближением:

f ( x ) » j ( x ) = def f ( x n ) + ( f ў ( x n ), x — x n )

(функция j аппроксимирует f в окрестности точки x n с точностью o ( x — x n )). Разумеется, (линейная) безусловная задача неразрешима, если (см. задачу 1.3). В окрестности же функция j имеет точку минимума. Эту точку естественно взять за следующее

З а д а ч а 3.3. Покажите, что argmin x О B ( x n , e ) f ( x ) задается формулой (4) с

3.3. Градиентный метод с постоянным шагом.

В общем случае число a в формуле (4) может на каждом шаге ( для каждого n ) выбираться заново:

x n +1 = x n — a n f ў ( x n ).(5)

Именно методы, задаваемые формулой (5), называются градентными . Если при всех n , то получающийся метод называется градиентным методом с постоянным шагом ( с шагом a .)

Поясним геометрическую суть градиентного метода. Для этого мы выберем способ изображения функции с помощью линий уровня. Линией уровня функции f ( изолинией ) называется любое множество вида Каждому значению c отвечает своя линия уровня (см. рис. 5).

З а д а ч а 3.4. Докажите, что касательная к линии уровня функции ортогональна к градиенту. Как обобщить это утверждение на многомерный случай?

Геометрическая интерпретация градиентного метода с постоянным шагом изображена на рис. 6. На каждом шаге мы сдвигаемся по вектору антиградиента, «уменьшенному в a раз».

3.4. Один пример исследования сходимости.

Изучим сходимость градиентного метода с постоянным шагом на примере функции

f ( x ) = | x | p ,

где p > 1 (случай p Ј 1 мы не рассматриваем, поскольку тогда функция f не будет гладкой, а мы такой случай не исследуем). Очевидно, задача (1) с такой функцией f имеет единственное решение Для этой функции приближения x n градиентного метода имеют вид:

x n +1 = x n — a p | x n | p — 1 sign x n .(6)

Пределом этой последовательности может быть только 0. Действительно, если то, переходя к пределу в (6) при n ® Ґ , получаем противоречащее предположению равенство

x ** = x ** — a p | x **| p — 1 sign x **,

откуда x ** = 0. Очевидно также, что если то и при

Покажем, что если p x 0 (за исключением не более чем счетного числа точек) приближения (6) не являются сходящимися. Для этого заметим, что если то

| x n +1 | > | x n |.(7)

Поэтому, если x n не обращается в нуль, то она не может сходиться к нулю и, следовательно, не может сходиться вообще.

З а д а ч а 3.5. Докажите.

Таким образом, осталось доказать (7). В силу (6)

| x n +1 | = | x n — a p | x n | p — 1 ·sign x n | = | x n |· | 1 — a p | x n | p — 2 ·sign x n | .

Остается заметить, что если то, как нетрудно видеть, что и требовалось.

З а д а ч а 3.6. Покажите, что число начальных точек x 0 , для которых x n обращается в нуль при некотором n (и следовательно, при всех б ó льших), не более чем счетно.

Если p = 2, f ( x ) = x 2 , то (6) переписывается в виде

| x n +1 | = | x n |·|1 — 2 a |.

Поэтому, если то а следовательно,

| x n +1 | = |1 — 2 a | n +1 ·| x 0 | ® 0 при n ® Ґ .

Если же a і 1, то

| x n +1 | і | x n |,

и последовательность , начинающаяся из ненулевой начальной точки, расходится.

З а д а ч а 3.7. Докажите, что если p > 2, то градиентный метод (6) сходится при и расходится при для любых начальных точек, за исключением может быть счетного множества.

Таким образом, есть функции, для которых градиентный метод не сходится даже при сколь угодно малом шаге a и есть функции, для которых он сходится только при достаточно малых шагах. В следующих пунктах мы приведем ряд теорем о сходимости градиентного метода.

Пусть в задаче (1) функция f ограничена снизу, непрерывно дифференцируема и, более того, f ў удовлетворяет условию Липшица:

|| f ў ( x ) — f ў ( y )|| Ј L || x — y || при всех x , y О R m .

Д о к а з а т е л ь с т в о. Положим и обозначим через Тогда, как легко видеть,

j ў ( t ) = ( f ў ( x n + tz n ), z n )

и поэтому по формуле Лейбница для функции j

f ( x n +1 ) — f ( x n ) = f ( x n + z n ) — f ( x n ) = j (1) — j (0) =

0j ў ( s ) ds =т1

0
( f ў ( x n + sz n ), z n ) ds .

Добавив и отняв т 0 1 ( f ў ( x n ), z n ) ds и воспользовавшись неравенством y ||, получим


f ( x n +1 ) — f ( x n ) = ( f ў ( x n ), z n ) +

0


( f ў ( x n + sz n ) — f ў ( x n ), z n ) ds Ј


Ј ( f ў ( x n ), — a f ў ( x n )) +

0


|| f ў ( x n + sz n ) — f ў ( x n ) z n || ds .

Учитывая условие Липшица для f ў , эту цепочку можно продолжить:


f ( x n +1 ) — f ( x n ) Ј — a || f ў ( x n )|| 2 + L || z n || 2

0

s ds =

= — a || f ў ( x n )|| 2 +

La 2 2

|| f ў ( x n )|| 2 = — a || f ў ( x n )|| 2

ж
и
1 —La 2
ц
ш
.
(8)

Поскольку 1 — La /2 > 0, последовательность не возрастает и, следовательно, релаксационность доказана. А так как в силу условий теоремы f еще и ограничена снизу, последовательность сходится. Поэтому, в частности, при Отсюда и из (8) получаем


|| f ў ( x n )|| 2 Ј a — 1

ж
и
1 –La 2
ц
ш
–1


[ f ( x n ) — f ( x n +1 )] ® 0 при n ® Ґ .

3.6. Замечания о сходимости.

Подчеркнем, что теорема 3.5 не гарантирует сходимости метода, но лишь его условную сходимость, причем, локальную. Например, для функции на R последовательность градиентного метода с постоянным шагом, начинающаяся с произвольного x 0 стремится к Ґ .

З а д а ч а 3.8. Докажите.

Поскольку в теореме 3.5 градиент непрерывен, любая предельная точка последовательности является стационарной. Однако эта точка вовсе не обязана быть точкой минимума, даже локального. Например, рассмотрим для функции градиентный метод с шагом Тогда, как легко видеть, если то при Точка же не является локальным минимумом функции f .

Заметим также, что описанный метод не различает точек локального и глобального минимумов. Поэтому для того, чтобы сделать заключение о сходимости x n к точке приходится налагать дополнительные ограничения, гарантирующие, в частности, существование и единственность решения задачи (1). Один вариант таких ограничений описывается ниже.

Пусть выполнены условия теоремы 3.5 и, кроме того, f дважды непрерывно дифференцируема и сильно выпукла с константой l . Тогда при градиентный метод с шагом a сходится со скоростью геометрической прогрессии со знаменателем

|| x n — x *|| Ј q n || x 0 — x *||.

Д о к а з а т е л ь с т в о. Решение существует и единственно в силу теорем 2.9 и 2.10. Для функции воспользуемся аналогом формулы Лейбница

F ( y ) = F ( x ) +т1

0

F ў [ x + s ( y — x )]( y — x ) ds ,

или, для x = x * и y = x n , учитывая, что


f ў ( x n ) =

0


f ўў [ x * + s ( x n — x *)]( x n — x *) ds

(здесь мы, как и выше, воспользовались задачей 2.3). Далее, в силу утверждения (2.5) из п. 2.3 при всех Кроме того (см. задачу 2.15), по условию при тех же x . Поэтому, так как

l || h || 2 Ј ( f ўў [ x * + s ( x n — x *)] h , h ) Ј L || h || 2 ,


l || h || 2 Ј

ж
и
ж
и
т1

0


f ўў [ x * + s ( x n — x *)] ds

ц
ш
h , hц
ш

Ј L || h || 2 .

Интеграл, стоящий в этом неравенстве, определяет линейный (симметричный в силу симметричности f ) оператор на R m , обозначим его L n . Неравенство (10) означает, что В силу (9) градиентный метод (4) записывается в виде

x n +1 = x n — a L n ( x n — x *).

|| x n +1 — x n || = || x n — x * — a L n ( x n — x *)|| =

= ||( I — a L n )( x n — x *)|| Ј || I — a L n x n — x *||.

Спектр оператора состоит из чисел вида где В силу (10) и неравенства (2.3),

1 — a l і s i і 1 — a L ,

и следовательно (см. неравенство (2.4))

|| I — a L n || Ј max = q .

|| x n +1 — x n || Ј q || x n — x *||.

Из этого неравенства и задачи 3.1 вытекает утверждение теоремы.

Константа q , фигурирующая в теореме 3.7 и характеризующая скорость сходимости метода, зависит от шага a . Нетрудно видеть, что величина

q = q ( a ) = max

минимальна, если шаг a выбирается из условия если При таком выборе шага оценка сходимости будет наилучшей и будет характеризоваться величиной

q = q * =L — l L + l.

Напомним (см. п. 2.3), что в качестве l и L могут выступать равномерные по x оценки сверху и снизу собственных значений оператора Если то и метод сходится очень медленно. Геометрически случай соответствует функциям с сильно вытянутыми линиями уровня (см. рис. 8). Простейшим примером такой функции может служить функция на R 2 , задаваемая формулой

f ( x 1 , x 2 ) = l x 2 1 + L x 2 2 с l L .

Поведение итераций градиентного метода для этой функции изображено на они, быстро спустившись на «дно оврага», затем медленно «зигзагообразно» приближаются к точке минимума. Число (характеризующее, грубо говоря, разброс собственных значений оператора называют числом обусловленности функции f . Если то функции называют плохо обусловленными или овражными . Для таких функций градиентный метод сходится медленно.

Но даже для хорошо обусловленных функций проблема выбора шага нетривиальна в силу отсутствия априорной информации о минимизируемой функции. Если шаг выбирается малым (чтобы гарантировать сходимость), то метод сходится медленно. Увеличение же шага (с целью ускорения сходимости) может привести к расходимости метода. Мы опишем сейчас два алгоритма автоматического выбора шага, позволяющие частично обойти указанные трудности.

В этом варианте градиентного метода величина шага a n на каждой итерации выбирается из условия выполнения неравенства

f ( x n +1 ) = f ( x n — a n f ў ( x n )) Ј f ( x n ) — e a n || f ў ( x n )|| 2 ,(11)

где некоторая заранее выбранная константа. Условие (11) гарантирует (если, конечно, такие a n удастся найти), что получающаяся последовательность будет релаксационной. Процедуру нахождения такого a n обычно оформляют так. Выбирается число и некоторый начальный Теперь для каждого n полагают и делают шаг градиентного метода. Если с таким a n условие (11) выполняется, то переходят к следующему n . Если же (11) не выполняется, то умножают a n на d («дробят шаг») и повторяют эту процедуру до тех пор пока неравенство (9) не будет выполняться. В условиях теоремы 3.5 эта процедура для каждого n за конечное число шагов приводит к нужному a n .

З а д а ч а 3.9. Докажите (воспользуйтесь неравенством (8)).

З а д а ч а 3.10. Сходится ли градиентный метод с дроблением шага для функции

Можно показать, что в условиях теоремы 3.7 градиентный метод с дроблением шага линейно сходится. Описанный алгоритм избавляет нас от проблемы выбора a на каждом шаге, заменяя ее на проблему выбора параметров e , d и a 0 , к которым градиентный метод менее чувствителен. При этом, разумеется, объем вычислений возрастает (в связи с необходимостью процедуры дробления шага), впрочем, не очень сильно, поскольку в большинстве задач основные вычислительные затраты ложатся на вычисление градиента.

Этот вариант градиентного метода основывается на выборе шага из следующего соображения. Из точки x n будем двигаться в направлении антиградиента до тех пор пока не достигнем минимума функции f на этом направлении, на луче

a n = argmin a О [0, Ґ ) f ( x n — a f ў ( x n )).(12)

Другими словами, a n выбирается так, чтобы следующая итерация была точкой минимума функции f на луче L (см. рис. 9). Такой вариант градиентного метода называется методом наискорейшего спуска . Заметим, кстати, что в этом методе направления соседних шагов ортогональны. В самом деле, поскольку функция достигает минимума при точка a n является стационарной точкой функции j :


0 = j ў ( a n ) =

d d a
f ( x n — a f ў ( x n ))

a = a n

=

= ( f ў ( x n — a n f ў ( x n )), — f ў ( x n )) = — ( f ў ( x n +1 ), f ў ( x n )).

Метод наискорейшего спуска требует решения на каждом шаге задачи одномерной оптимизации (12). Такие задачи будут обсуждаться ниже. Практика показывает, что этот метод часто требует меньшего числа операций, чем градиентный метод с постоянным шагом.

В общей ситуации, тем не менее, теоретическая скорость сходимости метода наискорейшего спуска не выше скорости сходимости градиентного метода с постоянным (оптимальным) шагом .

З а д а ч а 3.11. Докажите, что если симметричный оператор в R m , а то шаг a n метода наискорейшего спуска задается явной формулой

|| Ax n + b || 2 ( A 2 x n + Ab , Ax n + b ).

З а д а ч а 3.12. Пусть собственные числа оператора A . Покажите, что градиентный метод для функции с шагами за m шагов дает точное решение:

Видео:9 класс, 11 урок, Методы решения систем уравненийСкачать

9 класс, 11 урок, Методы решения систем уравнений

Курсовая работа: Градиентный метод первого порядка

Видео:Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ. | МатематикаСкачать

Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ.  | Математика

Содержание

Градиентный метод первого порядка

Математическое описание системы и значения переменных

Алгоритм реализации решения задачи построения динамической модели

Результаты работы программы

Видео:Метод Ньютона (метод касательных) Пример РешенияСкачать

Метод Ньютона (метод касательных) Пример Решения

Введение

На современном этапе научно-технического прогресса необыкновенно возрастает роль средств, позволяющих рационально использовать ресурсы, выделенные для решения народнохозяйственных задач. Кибернетика предлагает такие средства, как исследование операций, теория систем, математическое моделирование, теория эксперимента, вычислительная техника и др.

Часть этих методов предназначена для увеличения эффективности научного эксперимента на всех стадиях разработки, исследования, проектирования и эксплуатации производств. Единство теории и практики эксперимента совместно с вычислительной техникой образуют комплекс автоматизированного эксперимента, предназначенный для повышения производительности научного труда.

Объекты, на которых проводятся эксперименты, отличаются прежде всего протекающими в них процессами. Объект, на котором осуществляется планируемый эксперимент, характеризуется обязательным условием — все входные переменные, или факторы, x 1 , x 2 , . xn должны быть управляемыми. Этого требует сама постановка условий построения динамической модели, предполагающих активное вмешательство в ход эксперимента. Такой объект технологии называют объектом исследования.

Необходимыми и достаточными условием для определения любой отрасли знаний как науки является наличие: предмета исследования, метода исследования и средства для реализации этого метода. Для кибернетики как науки предметом исследования являются системы любой природы и их управляемость, методом исследования — математическое моделирование, стратегией исследования — системный анализ, а средством исследования — вычислительные машины.

Кибернетика включает в себя такие понятия, как системы, информация, хранение и переработка информации, управление системами и оптимизация систем. При этом кибернетика широко пользуется методом математического моделирования и стремится к получению конкретных результатов, позволяющих анализировать и синтезировать изучаемые системы, прогнозировать их оптимальное поведение и выявлять каналы и алгоритмы управления.

Методы кибернетики не только позволяют создавать оптимально функционирующий процесс или систему, но указывают пути выбора и использования оптимального режима, а также оптимального управления процессом или системой.

Понятие «системы» дает возможность осуществить математическую формализацию изучаемых объектов, обеспечивающую глубокое проникновение в их сущность и получение широких обобщений и количественных закономерностей.

Всякая система состоит из взаимосвязанных и взаимодействующих между собой и с внешней средой частей и в определенном смысле представляет собой замкнутое целое (иначе ее нельзя было бы назвать системой).

Система — это достаточно сложный объект, который можно расчленить (провести декомпозицию) на составляющие элементы, или подсистемы. Эти элементы информационно связаны друг с другом и с окружающей средой объекта. Совокупность связей образует структуру системы. Система имеет алгоритм функционирования, направленный на достижение определенной цели.

Системный анализ — это стратегия изучения сложных систем. В качестве метода исследования в нем используется математическое моделирование, а основным принципом является декомпозиция сложной системы на более простые подсистемы. В этом случае математическая модель системы строиться по блочному принципу: общая модель подразделяется на блоки, которым можно дать сравнительно простые математические описания. Необходимо иметь в виду, что все подсистемы взаимодействуют между собой, составляя общую единую математическую модель.

В основе стратегии системного анализа лежат следующие общие положения:

1. Четкая формулировка цели исследования;

2. Постановка задачи по реализации этой цели и определение критерия эффективности решения задачи;

3. Разработка развернутого плана исследования с указанием основных этапов и направлений решения задач;

4. Пропорционально — продвижение по всему комплексу взаимосвязанных этапов и возможных направлений;

5. Организация последовательных приближений и повторных циклов исследований наотдельных этапах;

6. Принцип нисходящей иерархии анализа и восходящей иерархии синтеза в решении составных частных задач и т.п.

Системный анализ организует наши знания об объекте таким образом, чтобы помочь выбрать нужную стратегию либо предсказать результаты одной или нескольких стратегий, представляющихся целесообразными темами, кто должен принимать решения. С позиции системного анализа решаются задачи моделирования, оптимизации, управления и оптимального проектирования систем.

Особый вклад системного анализа в решение различных проблем заключается в том, что он позволяет выявить факторы и взаимосвязи, которые в последствии могут оказаться весьма существенными, дает возможность видоизменить методику наблюдений и построить эксперимент так, чтобы эти факторы были включены в рассмотрение, и освещает слабые места гипотез и допущений. Как научный подход системный анализ с его акцентом на последовательное рассмотрение явлений в соответствии с разными уровнями иерархии и на проверку гипотез с помощью строгих выборочных процедур создает мощные инструменты познания физического мира и объединяет эти инструменты в систему гибкого, но строгого исследования сложных явлений.

Математическое моделирование осуществляется в три взаимосвязанные стадии:

1. Формализация изучаемого процесса — построение математической модели (составление математического описания);

2. Программирование решения задачи (алгоритмизация), обеспечивающего нахождение численных значений определяемых параметров;

3. Установление соответствия (адекватности) модели изучаемому процессу.

Построение математической модели:

В каждом конкретном случае математическую модель создают, исходя из целевой направленности процесса и задач исследования, с учетом требуемой точности решения и достоверности используемых исходных данных. При анализе полученных результатов возможно повторное обращение к модели с целью внесения коррективов после выполнения части расчетов.

Построение любой математической модели начинают с формализованного описания объекта моделирования. При этом аналитический аспект моделирования состоит в выражении смыслового описания объекта на языке математики в виде некоторой системы уравнений и функциональных соотношений между отдельными параметрами модели. Основным приемом построения математического описания изучаемого объекта является блочный принцип. Согласно этому принципу, после того как определен набор элементарных процессов, каждый из них исследуется по блокам в условиях, максимально приближенных к условиям эксплуатации объекта моделирования.

В результате каждому элементарному технологическому оператору ставиться в соответствие функциональный элементарный оператор с параметрами, достаточно близкими к истинным значениям.

Следующий этап моделирования состоит в агрегировании функциональных элементарных операторов в общий функциональный результирующий оператор, который и представляет математическую модель объекта. Важным фактором агрегирования является правильная взаимная координация отдельных операторов, которая не всегда возможна вследствие трудностей учета естественных причинно-следственных связей между отдельными элементарными процессами.

При выборе модели необходимо учитывать следующее:

— модель должна наиболее точно отражать характер потоков вещества и энергии при достаточно простом математическом описании;

— параметры модели могут быть определены экспериментальным или другим путем;

— в случае гетерогенных систем модели выбираются для каждой фазы в отдельности, причем для обеих фаз они могут быть одинаковыми или различными.

При построении математического описания используют уравнения таких видов:

— обыкновенные дифференциальные уравнения;

— дифференциальные уравнения в частных производных.

Алгоритмизация математических моделей:

После составления математического описания и выбора соответствующих начальных и граничных условий необходимо провести второй этап моделирования — довести задачу до логического конца, т. е. выбрать метод решения и составить программу (алгоритм).

В простейших случаях, когда возможно аналитическое решение системы уравнений математического описания, необходимость в специальной разработке моделирующего алгоритма, естественно, отпадает, так как вся информация может быть получена из соответствующих аналитических решений. Когда математическое описание представляет собой сложную систему конечных и дифференциальных уравнений, от возможности построения достаточно эффективного моделирующего алгоритма может существенно зависеть практическая применимость математической модели. В особенности это важно при использовании модели для решения задач, в которых она входит в качестве составной части более общего алгоритма, например, алгоритма оптимизации. Как правило, в таких случаях для реализации математической модели приходиться применять средства вычислительной техники; фактически без них нельзя ставить и решать сколько-нибудь сложные задачи математического моделирования и тем более задачи оптимизации, при решении которых расчеты по уравнениям математического описания обычно многократно повторяются.

Широко развитые в настоящее время методы численного анализа позволяют решать широкий круг задач математического моделирования.

Выбор численного метода:

При выборе метода для решения уравнений математического описания обычно ставиться задача обеспечения максимального быстродействия при минимуме занимаемой программой памяти. Естественно, при этом должна обеспечиваться заданная точность решения. Прежде чем выбрать тот или иной численный метод, необходимо проанализировать ограничения, связанные с его использованием, например, подвергнуть функцию или систему уравнений аналитическому исследованию, в результате которого выявиться возможность использования данного метода. При этом весьма часто исходная функция или система уравнений должна быть соответствующим образом преобразована с тем, чтобы можно было эффективно применить численный метод. Преобразованием или введением новых функциональных зависимостей часто удается значительно упростить задачу.

При выборе метода существенным моментом является размерность задачи. Некоторые методы эффективны при решении небольших задач, однако, с увеличением числа переменных объем вычислений настолько возрастает, что от них приходиться отказаться. Задачи такого класса обычно встречаются при решении систем уравнений, поиске оптимальных значений параметров многомерных функций. При соответствующем выборе метода можно уменьшить время, затрачиваемое на решение задачи и объем занимаемой машиной памяти.

Составление алгоритма решения:

Желательно составить четкое описание последовательности вычислительных и логических действий, обеспечивающих решение, т.е. составить алгоритм решения задачи. Основными требованиями к форме и содержанию записи алгоритма являются его наглядность, компактность и выразительность. В практике математического обеспечения вычислительных машин широкое распространение получил графический способ описания алгоритмов. Этот способ основан на представлении отдельных элементов алгоритма графическими символами, а всего алгоритма — в виде блок схемы. При этом набор графических символов не является произвольным, он регламентирован технической документацией по математическому обеспечению ЭВМ и соответствующими ГОСТами.

Оптимизация заключается в нахождении оптимума рассматриваемой функции или оптимальных условий проведения данного процесса. Для оценки оптимума необходимо прежде всего выбрать критерий оптимизации. В зависимости от конкретных условий в качестве критерия оптимизации можно взять технологический критерий, например максимальный съем продукции с единицы объема аппарата, экономический критерий — минимальную стоимость продукта при заданной производительности.

На основе выбранного критерия оптимизации составляется так называемая целевая функция, или функция выгоды, представляющая собой зависимость критерия оптимизации от параметров, влияющих на его значение. Задача оптимизации сводиться к нахождению экстремума (максимума или минимума) целевой функции.

Следует иметь в виду, что проблема оптимизации возникает в тех случаях, когда необходимо решать компромиссную задачу преимущественного улучшения двух или более количественных характеристик, различным образом влияющих на переменные процесса при условии их взаимной балансировки. Например, эффективность процесса балансируют с производительностью, качество — с количеством, запас единиц продукции — с их реализацией, производительность — с затратами.

Для автоматически управляемых процессов или систем различают две стадии оптимизации: статическую и динамическую.

Проблема создания и реализации оптимального стационарного режима процесса решает статическая оптимизация, создания и реализации системы оптимального управления процессом — динамическая оптимизация.

В зависимости от характера рассматриваемых математических моделей применяются различные математические методы оптимизации. Многие из них сводятся к нахождению минимума или максимума целевой функции. Линии, вдоль которых целевая функция сохраняет постоянное значение при изменении входящих в нее параметров, называются контурными или линиями уровня.

При выборе метода оптимизации необходимо учитывать возможные вычислительные трудности, обусловленные объемом вычислений, сложностью самого метода, размерностью самой задачи и т.п.

Целесообразно по возможности проводить предварительную оценку положения оптимума какой-либо конкретной задачи. Для этого необходимо рассмотреть исходные и основные соотношения между переменными. Для сокращения размерности задач часто используется прием выделения наиболее существенных переменных

Согласно принятой терминологии факторы x1 , x2 , . xn — это измеряемые и регулируемые входные переменные объекта (независимые переменные); помехи f1 , f2 , . fs — это не контролируемые, случайным образом изменяющиеся переменные объекта; выходные переменные y1 , y2 , . ym — это контролируемые переменные, которые определяются факторами и связаны с целью исследования. Часто в планируемом эксперименте у называют параметром оптимизации (технологический или экономический показатель процесса).

Факторы x 1 , x 2 , . xn иногда называют основными, поскольку они определяют условия эксперимента. Помехи f 1 , f 2 , . fs — как правило недоступны для измерения. Они проявляются лишь в том, что изменяют влияние факторов на выходные переменные. Объект исследования может иметь несколько выходных переменных. Опыт показывает, что в большинстве случаев удается ограничиться одним параметром оптимизации, и тогда вектор Y превращается в скаляр y .

Количество факторов и характер их взаимосвязей с выходной переменной определяют сложность объекта исследования. При наличии качественной статистической информации о факторах и зависящей от них выходной переменной можно построить математическую модель объекта исследования и функцию отклика y = f ( x 1 , x 2 , . xn ), связывающую параметр оптимизации с факторами, которые варьируются при проведении опытов.

Пространство с координатами x 1 , x 2 , . xn принято называть факторным, а графическое изображение функции отклика в факторном пространстве — поверхностью отклика.

При описании объектов, находящихся в стационарном состоянии, математическая модель чаще всего представляется полиномом:

Поскольку в реальном процессе всегда существуют неуправляемые и неконтролируемые переменные, величина у носит случайный характер. Поэтому при обработке экспериментальных данных получаются так называемые выборочные коэффициенты регрессии b 0 , b 1 , . bi , . bn , являющиеся оценками коэффициентов Я0 , Я1 , . Я i , . Я n .

Тогда математическая модель в форме уравнения регрессии в общем случае будет иметь вид:

Что такое градиентные методы решения уравнений(2)

Если анализируются нестационарные, т. е. изменяющиеся во времени состояния объекта, что характерно для динамического процесса, приходится рассматривать не случайные величины, как ранее, а случайные процессы. Случайный процесс можно рассматривать как систему, состоящую из бесконечного множества случайных величин. При моделировании таких объектов использовать модель в виде (2) уже недопустимо — необходимо переходить к специальным интегрально-дифференциальным моделям и методам. В нашем случае – это градиентный метод первого порядка.

Составлению плана эксперимента всегда должны предшествовать сбор априорной информации для составления характеристики объекта исследования, опыты по наладке экспериментальной установки и при необходимости — опыты для установления области определения наиболее существенных факторов и выходной переменной.

Теорией и практикой эксперимента выработаны определенные требования (условия), которым должны удовлетворять независимые и зависимые переменные. Поэтому на стадии подготовки к проведению эксперимента весьма полезны приведенные ниже рекомендации.

1. При выборе выходной переменной необходимо учитывать, что она должна иметь количественную характеристику, т. е. должна измеряться; должна однозначно оценивать (измерять) работоспособность объекта исследования; быть статистически эффективной, т. е. иметь возможно меньшую дисперсию при проведении опытов (это позволяет четко различать опыты); отражать как можно более широкий спектр исследуемого явления, т. е. обладать универсальностью (практически это требование обеспечить трудно, тогда рекомендуют пользоваться так называемой обобщенной переменной); иметь достаточно четкий физический смысл.

2. При выборе факторов нужно выполнять следующие требования: фактор должен быть регулируемым, т. е. определенным регулирующим устройством фактор должен изменяться от значения x i до значения x ’’ i ; точность изменения и управления фактором должна быть известна и достаточно высока (хотя бы на порядок выше точности измерения выходной переменной), очевидно, что низкая точность измерения фактора уменьшает возможности воспроизведения эксперимента; связь между факторами должна быть как можно меньшей (в пределе должна отсутствовать), это свойство называют однозначностью факторов, что соответствует независимости одного фактора от другого.

Ряд требований предъявляется одновременно к факторам и выходной переменной: факторы и выходная переменная должны иметь области определения, заданными технологическими или принципиальными ограничениями; области определения факторов должны быть таковы, чтобы при их предельных значениях значение выходной переменной оставалось в своих границах; между факторами и выходной переменной должно существовать однозначное соответствие (причинно-следственная связь).

Успех современного экспериментирования в значительной степени обязан теории эксперимента, которая призвана дать экспериментатору ответы на следующие вопросы:

1. Как нужно организовать эксперимент, чтобы наилучшим образом решить поставленную задачу (в смысле затрат времени, средств или точности результатов).

2. Как следует обрабатывать результаты эксперимента, чтобы получить максимальное количество информации об исследуемом объекте.

3. Какие обоснованные выводы можно сделать об исследуемом объекте по результатам эксперимента.

Основой теории эксперимента является статистическое представление об эксперименте (рассматриваются случайные величины или случайные функции). Это представление отвечает действительности: как правило, итоги эксперимента связаны с некоторой неопределенностью, получающейся в результате влияния неконтролируемых факторов, случайного характера процесса на микроуровне, изменений условий эксперимента, ошибок измерения и др.

Теория эксперимента указывает исследователю точную логическую схему и способы поиска решения задач на разных этапах исследования. Можно представить весь процесс исследования циклами, повторяющимися после решения каждой из последовательных задач исследования, причем объем знаний об объекте непрерывно увеличивается.

Цель настоящей работы состоит в построении динамической модели заданного эксперимента, широко используемой при решении задач лабораторных и промышленных исследований. В работе рассмотрены основные методы и алгоритмы, относящиеся к идентификации динамических систем градиентным методом первого порядка.

Метод динамического программирования применяется для многостадийных процессов, характеризуемых последовательностью решений и тем, что состояние системы зависит только от предыдущего шага, т. е. не зависит от ранее сделанных шагов.

В таких случаях используется принцип оптимальности, который формулируется в следующем виде: оптимальная стратегия обладает таким свойством, что, каково бы ни было начальное состояние и начальное решение, последующие решения должны приниматься, исходя из оптимальной стратегии относительно состояния, получаемого в результате первого решения.

Основная идея динамического программирования и заключается в том, что если какой-либо поток изменяется на каждой стадии процесса, то, если на последней стадии режим работы (независимо от режима работы на всех стадиях) не будет оптимальным по отношению к поступающему на нее потоку, не будет оптимальным и режим всего многостадийного процесса в целом.

Применение метода динамического программирования состоит в определении такого режима работы стадии, который максимизирует доход на этой и всех последующих стадиях для любых возможных состояний поступающего на нее потока. Обычно рассмотрение начинается с последней стадии процесса. Оптимальный режим всего процесса определяется постадийно.

Таким образом, метод динамического программирования предполагает разбиение анализируемого процесса во времени или пространстве на стадии или ступени. В качестве стадии можно принять единицу времени (минута или час), единичный элемент оборудования (тарелка в ректификационной колонне или реактор в цепочке реакторов).

В любом случае стадия или ступень – это математическая абстракция, применяемая для представления непрерывной переменной в дискретном виде. Состояние системы характеризуется совокупностью переменных, описывающих систему на любой стадии процесса.

Каждая стадия характеризуется входными x i -1 и выходными x i параметрами, а также параметрами управления u i . При помощи управляющих воздействий оптимизируется результирующая оценка эффективности многостадийного процесса, определяемая как аддитивная функция результатов, получаемых на каждой стадии ui(x1 i -1 , u i ):

Что такое градиентные методы решения уравнений(1)

Значение критерия оптимальности RN зависит от совокупности uN управляющих воздействий на всех стадиях. Совокупность управлений называется стратегией управления многостадийным процессом.

Основным уравнением динамического программирования является функциональное уравнение вида:

Что такое градиентные методы решения уравнений, (2)

где Что такое градиентные методы решения уравнений— оптимизируемая функция N-стадийного процесса, максимальное значение критерия RN .

Максимизация первого слагаемого r1 (x 0 ,u 1 ), представляющего собой частный критерий, характеризующий первую стадию, проводится только по управлению u 1 .

Член Что такое градиентные методы решения уравненийесть значение оптимизируемой функции на последующих N-1 стадиях и максимизируется выбором управлений на всех стадиях, u i (I = 1,…,N), поскольку значение x 1 зависит от управления u 1 .

Выражение (2) представляет собой рекуррентное соотношение, характеризующее последовательность функций Что такое градиентные методы решения уравненийпоследняя из которых Что такое градиентные методы решения уравненийотвечает искомому решению оптимальной задачи. Стратегия решения выражается системой выбранных значений ui – членов уравнения (2), где i = 1, 2, . N; система дает решение функционального уравнения. Оптимальная стратегия выражается системой функций ui , которые максимизируют правую часть уравнения (2), а именно: Что такое градиентные методы решения уравненийдля i = 1, 2, . N.

Часто важно знать сам характер оптимальной стратегии, нежели значение оптимизируемой функции. В ходе определения функции fN (x) получают одновременно последовательность решений ui или стратегию также в виде функции номера стадии i.

Решение рекуррентных уравнений обычно выполняется численными методами. Часто используется следующая последовательность расчета с применением вычислительной машины: сначала находят f1 (x), затем по найденному значению функции f1 (x) по уравнению ( 1 ) определяют функцию f2 (x); далее последовательно определяют f3 (x) из f2 (x) и т.д.

При решении задач оптимизации и моделировании динамической системы методом динамического программирования необходимо обратить внимание на следующие основные положения:

А) оптимизируемый процесс должен быть дискретно-распределенным во времени или пространстве (многостадийный процесс);

Б) отдельные стадии процесса должны обладать относительной независимостью, т.е. вектор выходных параметров любой стадии должен зависеть только от вектора входных параметров на эту стадию и управления на ней;

В) критерий оптимальности всего процесса должен быть сформулирован как аддитивная функция критериев оптимальности каждой стадии.

Если выполняются эти условия, необходимо правильно сформулировать задачу оптимизации. При формулировке задачи оптимизации и моделирования должны быть выявлены: 1) параметры, характеризующие состояние каждой стадии; 2) управляющие параметры на каждой стадии; 3) ограничения, которые накладываются на параметры состояния процесса и управляющие параметры. Кроме того, должно быть составлено математическое описание для каждой стадии и определен критерий оптимальности.

Видео:Решение биквадратных уравнений. 8 класс.Скачать

Решение биквадратных уравнений. 8 класс.

Градиентные методы оптимизации

Градиентные методы оптимизации относятся к численным методам поискового типа. Они универсальны, хорошо приспособлены для работы с современными цифровыми вычислительными машинами и в большинстве случаев весьма эффективны при поиске экстремального значения нелинейных функций с ограничениями и без них, а также тогда, когда аналитический вид функции вообще неизвестен. Вследствие этого градиентные, или поисковые, методы широко применяются на практике.

Сущность указанных методов заключается в определении значений независимых переменных, дающих наибольшие изменения целевой функции. Обычно для этого двигаются вдоль градиента, ортогонального к контурной поверхности в данной точке.

Различные поисковые методы в основном отличаются один от другого способом определения направления движения к оптимуму, размером шага и продолжительностью поиска вдоль найденного направления, критериями окончания поиска, простотой алгоритмизации и применимостью для различных ЭВМ. Техника поиска экстремума основана на расчетах, которые позволяют определить направление наиболее быстрого изменения оптимизируемого критерия.

Если критерий задан уравнением

Что такое градиентные методы решения уравнений, (3)

то его градиент в точке (x1 , x2 ,…, xn ) определяется вектором:

Что такое градиентные методы решения уравнений. (4)

Частная производная Что такое градиентные методы решения уравненийпропорциональна косинусу угла, образуемого вектором градиента с i-й осью координат. При этом

Что такое градиентные методы решения уравнений(5)

Наряду с определением направления градиентного вектора основным вопросом, решаемым при использовании градиентных методов, является выбор шага движения по градиенту. Величина шага в направлении gradF в значительной степени зависит от вида поверхности. Если шаг слишком мал, потребуются продолжительные расчеты; если слишком велик, можно проскочить оптимум. Размер шага Что такое градиентные методы решения уравненийдолжен удовлетворять условию, при котором все шаги от базисной точки лежат в том же самом направлении, что и градиент в базисной точке. Размеры шага по каждой переменной xi вычисляются из значений частных производных в базовой (начальной) точке:

Что такое градиентные методы решения уравнений, (6)

где К – константа, определяющая размеры шага и одинаковая для всех i-х направлений. Только в базовой точке градиент строго ортогонален к поверхности. Если же шаги слишком велики в каждом i-м направлении, вектор из базисной точки не будет ортогонален к поверхности в новой точке.

Если выбор шага был удовлетворительным, производная в следующей точке существенно близка к производной в базисной точке.

Для линейных функций градиентное направление не зависит от положения на поверхности, для которой оно вычисляется. Если поверхность имеет вид

Что такое градиентные методы решения уравнений

Что такое градиентные методы решения уравненийЧто такое градиентные методы решения уравненийЧто такое градиентные методы решения уравнений

и компонента градиента в i-м направлении равна

Что такое градиентные методы решения уравнений. (7)

Для нелинейной функции направление градиентного вектора зависит от точки на поверхности, в которой он вычисляется.

Несмотря на существующие различия между градиентными методами, последовательность операций при поиске оптимума в большинстве случаев одинакова и сводится к следующему:

а) выбирается базисная точка;

б) определяется направление движения от базисной точки;

в) находится размер шага;

г) определяется следующая точка поиска;

д) значение целевой функции в данной точке сравнивается с ее значением в предыдущей точке;

е) вновь определяется направление движения и процедура повторяется до достижения оптимального значения.

Видео:Градиентный метод | метод скорейшего спуска + примерСкачать

Градиентный метод | метод скорейшего спуска + пример

Градиентный метод первого порядка

При оптимизации методом градиента оптимум исследуемого объекта ищут в направлении наиболее быстрого возрастания (убывания) выходной переменной, т.е. в направлении градиента. Но прежде чем сделать шаг в направлении градиента, необходимо его рассчитать. Градиент можно рассчитать либо по имеющейся модели

grad y(X)= Что такое градиентные методы решения уравнений,

моделирование динамический градиентный полиномиальный

где Что такое градиентные методы решения уравнений— частная производная по i-му фактору;

i, j, k – единичные векторы в направлении координатных осей факторного пространства, либо по результатам n пробных движений в направлении координатных осей.

Если математическая модель статистического процесса имеет вид линейного полинома, коэффициенты регрессии bi которого являются частными производными разложения функции y = f(X) в ряд Тейлора по степеням xi , то оптимум ищут в направлении градиента с некоторым шагом hi :

Направление корректируют после каждого шага.

Метод градиента вместе с его многочисленными модификациями является распространенным и эффективным методом поиска оптимума исследуемых объектов. Рассмотрим одну из модификаций метода градиента – метод крутого восхождения.

Метод крутого восхождения, или иначе метод Бокса-Уилсона, объединяет в себе достоинства трех методов — метода Гаусса-Зейделя, метода градиентов и метода полного (или дробного) факторного экспериментов, как средства получения линейной математической модели. Задача метода крутого восхождения заключается в том, чтобы шаговое движение осуществлять в направлении наискорейшего возрастания (или убывания) выходной переменной, то есть по grad y(X). В отличии от метода градиентов, направление корректируется не после каждого следующего шага, а при достижении в некоторой точке на данном направлении частного экстремума целевой функции, как это делается в методе Гаусса-Зейделя. В точке частного экстремума ставится новый факторный эксперимент, определяется математическая модель и вновь осуществляется крутое восхождение. В процессе движения к оптимуму указанным методом регулярно проводиться статистический анализ промежуточных результатов поиска. Поиск прекращается, когда квадратичные эффекты в уравнении регрессии становятся значимыми. Это означает, что достигнута область оптимума.

Опишем принцип использования градиентных методов на примере функции двух переменных

Что такое градиентные методы решения уравнений(8)

при наличии двух дополнительных условий:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений.(9)

Этот принцип (без изменения) можно применить при любом числе переменных, а также дополнительных условий. Рассмотрим плоскость x1 , x2 (Рис. 1). Согласно формуле (8) каждой точке соответствует некоторое значение F. На Рис.1 линии F = const, принадлежащие этой плоскости, представлены замкнутыми кривыми, окружающими точку M * , в которой F минимально. Пусть в начальный момент значения x1 и x2 соответствуют точке M0 . Цикл расчета начинается с серии пробных шагов. Сначала величине x1 дается небольшое приращение Что такое градиентные методы решения уравнений; в это время значение x2 неизменно. Затем определяется полученное при этом приращение Что такое градиентные методы решения уравненийвеличины F, которое можно считать пропорциональным значению частной производной

Что такое градиентные методы решения уравнений(10)

(если величина Что такое градиентные методы решения уравненийвсегда одна и та же).

Что такое градиентные методы решения уравнений

Далее дается приращение Что такое градиентные методы решения уравненийвеличине x2 . В это время x1 = const. Получаемое при этом приращение Что такое градиентные методы решения уравненийвеличины F является мерой другой частной производной:

Что такое градиентные методы решения уравнений. (11)

Определение частных производных ( 10 ) и ( 11 ) означает, что найден вектор с координатами Что такое градиентные методы решения уравненийи Что такое градиентные методы решения уравнений, который называется градиентом величины F и обозначается так:

Что такое градиентные методы решения уравнений. (12)

Известно, что направление этого вектора совпадает с направлением наиболее крутого возрастания величины F. Противоположное ему направление – это «наискорейший спуск», другими словами, наиболее крутое убывание величины F.

После нахождения составляющих градиента пробные движения прекращаются и осуществляются рабочие шаги в направлении, противоположном направлению градиента, причем величина шага тем больше, чем больше абсолютная величина вектора gradF. Эти условия осуществляются, если величины рабочих шагов Что такое градиентные методы решения уравненийи Что такое градиентные методы решения уравненийпропорциональны полученным ранее значениям частных производных:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений, (13)

где α – положительная константа.

После каждого рабочего шага оценивается приращение Что такое градиентные методы решения уравненийвеличины F. Если оно оказывается отрицательным, то движение происходит в правильном направлении и нужно двигаться в том же направлении M0 M1 дальше. Если же в точке M1 результат измерения показывает, что Что такое градиентные методы решения уравнений, то рабочие движения прекращаются и начинается новая серия пробных движений. При этом определяется градиент gradF в новой точке M1 , затем рабочее движение продолжается по новому найденному направлению наискорейшего спуска, т. е. по линии M1 M2 , и т.д. Этот метод называется методом наискорейшего спуска/крутого восхождения.

Когда система находится вблизи минимума, показателем чего является малое значение величины

Что такое градиентные методы решения уравнений(14)

происходит переключение на более «осторожный» метод поиска, так называемый метод градиента. От метода наискорейшего спуска он отличается тем, что после определения градиента gradF делается лишь один рабочий шаг, а затем в новой точке опять начинается серия пробных движений. Такой метод поиска обеспечивает более точное установление минимума по сравнению с методом наискорейшего спуска, между тем как последний позволяет быстрее приблизиться к минимуму. Если в процессе поиска точка М доходит до границы допустимой области и хотя бы одна из величин М1 , М2 меняет знак, метод меняется и точка М начинает двигаться вдоль границы области.

Эффективность метода крутого восхождения зависит от выбора масштаба переменных и вида поверхности отклика. Поверхность со сферическими контурами обеспечивает быстрое стягивание к оптимуму.

К недостаткам метода крутого восхождения следует отнести:

1. Ограниченность экстраполяции. Двигаясь вдоль градиента, мы основываемся на экстраполяции частных производных целевой функции по соответствующим переменным. Однако форма поверхности отклика может изменяться и необходимо изменять направление поиска. Другими словами, движение на плоскости не может быть продолжительным.

2. Трудность поиска глобального оптимума. Метод применим для отыскания только локальных оптимумов.

Видео:Графический метод решения задачи линейного программирования (ЗЛП)Скачать

Графический метод решения задачи линейного программирования (ЗЛП)

Алгоритм градиентного метода

Представим последовательность расчета: расчет составляющих градиента.

Практически расчет составляющих градиента реализуется вычислением произведений коэффициентов регрессии на соответствующие интервалы варьирования значимых факторов.

grad Что такое градиентные методы решения уравнений(X)= b1 Что такое градиентные методы решения уравнений + b2 Что такое градиентные методы решения уравнений + … + bnЧто такое градиентные методы решения уравнений

т.е. в качестве шагов крутого восхождения выбираются интервалы варьирования факторов.

Выбор базового фактора:

Фактор, для которого произведение коэффициента регрессии на интервал варьирования максимально, принимается базовым:

max (biЧто такое градиентные методы решения уравнений ) = a

Выбор шага крутого восхождения:

Для базового (или другого) фактора выбирают шаг крутого восхождения ha . Обычно его выбирают по совету технологов или по имеющейся априорной информации.

Пересчет составляющих градиента:

Здесь используется условие: умножение составляющих градиента на любое положительное число дает точки, также лежащие на градиенте.

Составляющие градиента пересчитывают по выбранному шагу крутого восхождения базового фактора:

hi = Что такое градиентные методы решения уравнений(*)

Коэффициенты bi в выражении (*) берутся со своими знаками, шаги hi округляют.

Принятие решений после крутого восхождения:

После того, как экспериментальная проверка определила некоторую оптимальную точку, крутое восхождение считается завершенным. Здесь, как и ранее, необходимо принимать решения, которые зависят, прежде всего, от эффективности крутого восхождения. Большое влияние на результаты принятия решений оказывает информация об адекватности или неадекватности линейной модели и о положении области оптимума. Конечно, сведения о положении области оптимума носят весьма неопределенный характер и зависят от конкретной задачи, где переменная состояния – например, прочность материала на разрыв. Однако можно безошибочно оценить положение оптимума, если переменная состояния — выход целевого продукта в процентах.

Видео:Графический способ решения систем уравнений. Алгебра, 9 классСкачать

Графический способ решения систем уравнений. Алгебра, 9 класс

Математическое описание системы и значения переменных

В нашем случае имеем:

При построении математической модели определённого в условии технологического процесса одновременно решается задача оптимизации поверхности отклика Что такое градиентные методы решения уравнений, то есть определяются значения факторов, при которых Что такое градиентные методы решения уравнений, что означает, что Что такое градиентные методы решения уравнений. Известно, что одним из наиболее эффективных методов решеня задачи является градиентный метод. Согласно ему в данном случае (исходя из условий задачи) из каждой точки направление движения осуществляется в сторону, противоположную самому градиенту. Отсюда в каждой точке необходимо провести расчет градиента следующего вида:

Что такое градиентные методы решения уравнений, где i и k – единичные орты

Как правило, определить всю математическую модель процесса достаточно сложно, поэтому здесь нужно воспользоваться следующей процедурой:

1. В окрестности начальной точки

Что такое градиентные методы решения уравнений

производится полный факторный эксперимент или дробный факторный эксперимент. Мы будем использовать полный факторный эксперимент.

Следует охарактеризовать общие положения проведения полного факторного эксперимента:

Применение полного факторного эксперимента позволяет найти оптимальное расположение точек в факторном пространстве и осуществить линейное преобразование координат, благодаря чему обеспечивается возможность преодолеть недостатки классического регрессионного анализа, в частности корреляцию между коэффициентами уравнения регрессии.

Некоторые обозначения для дальнейшего понимания изложения материала:

Рj- регрессионные коэффициенты системы;

Y- выходная переменная (функция отклика);

М [f]- математическое ожидание помехи;

D [f] – дисперсия помехи;

l – число уровней ;

k – количество факторов;

Уровень факторов – граница исследования области по данному параметру;

Точка с координатами (Х0 (1),Х0 (2),…) — центр плана, или основной уровень;

Что такое градиентные методы решения уравнений — единица варьирования, или интервал варьирования;

вектор В — вектор коэффициентов регрессии;

N — число опытов в матрице планирования;

Р — коэффициент взаимодействия;

bj — несмешанные оценки;

Что такое градиентные методы решения уравнений— генеральные коэффициенты;

S2воспр — дисперсия воспроизводимости;

tj — критерий Стьюдента;

F – критерий Фишера.

Выбор плана исследования эксперимента определяется постановкой задачи исследования и особенностями объекта. Пусть имеем математическую модель системы:

Что такое градиентные методы решения уравнений

Также нам известны характер помехи и статистические параметры: М[f] = 0 и D[f] = 0,8. Необходимо отметить, что под помехами понимают ряд факторов, искажающих результаты опыта. Если существуют определённые априорные сведения об источнике помех, то можно построить оптимальные планы исследования, учитывающие их влияние, и повысить таким образом точность анализа результата.

В данной задаче требуется провести полный факторный эксперимент.

Полный факторный эксперимент, или метод планирования эксперимента позволяет свести к минимуму число необходимых опытов и одновременно получить оптимальные значения искомых функций. При планировании эксперимента, условия опыта представляют собой фиксированное число значений для каждого фактора. Полный факторный эксперимент фактически представляет собой применение классических метода наименьших квадратов и регрессионного анализа, проводимых по определённому плану.

Процесс исследования обычно разбивается на отдельные этапы. Информация, полученная после каждого этапа, определяет дальнейшую стратегию эксперимента. Таким образом возникает возможность оптимального управления экспериментом. Планирование эксперимента позволяет одновременно варьировать все факторы и получать количественные оценки основных эффектов и эффектов взаимодействия.

Интересующие исследователя эффекты определяются со значительно меньшей ошибкой, чем та, которая характерна для других методов исследования.

В конечном счете, применение методов планирования эксперимента значительно повышает эффективность эксперимента.

Так как при планировании по схеме полного факторного эксперимента реализуются все возможные комбинации факторов на всех выбранных для исследования уровнях, то необходимое число опытов N при полном факторном эксперименте определяется по формуле: N=l k .

Если эксперименты проводятся только на двух уровнях при двух значениях факторов и при этом в процессе эксперимента осуществляются все возможные комбинации из k факторов, то такой план носит название полный факторный эксперимент типа 2 k .

Описание алгоритма моделирования сводится к следующему:

1. Определяется для любого фактора:

Что такое градиентные методы решения уравнений= (Хjmax — Хjmin ) / 2, j = 1,2,…..k ;

2. От основной системы координат (Х1 , Х2 , …Хn ) переходим к безразмерной системе координат (U1 , U2 , …Un ) c помощью формулы перехода:

Uj = (Хj — Хj 0 ) / Что такое градиентные методы решения уравнений, j = 1,2,…..k;

В безразмерной системе координат верхний уровень равен +1, а нижний равен –1, координаты центра плана равны нулю и совпадают с началом координат.

3. План эксперимента:

В матрицу планирования (Табл. 1.1) записываются все возможные значения граничных величин в натуральном масштабе.

Название: Градиентный метод первого порядка
Раздел: Рефераты по информатике, программированию
Тип: курсовая работа Добавлен 16:44:54 05 июня 2011 Похожие работы
Просмотров: 4117 Комментариев: 21 Оценило: 4 человек Средний балл: 4.8 Оценка: неизвестно Скачать
Номер опытаЗначения факторов в натуральном масштабевыход
X1X2XnY
1X11X 12X 1 nY1
2X 21X2 2X 2 nY2
…..
NX N1X N2XNnYN

4. Введём фиктивный столбец U0 в матрицу и запишем матрицу в безразмерной форме (Табл.1.2):

Номер опытафиктивный столбецЗначения факторов в безразмерной системе координатВыход
U0U1U2UnУ
1+1+1+1+1У1
2+1-1+1+1У2
.….
N+1-1-1-1УN

5. Приведём полную матрицу планирования (Табл. 1.3.):

Значения факторовВыход
В натуральном масштабеВ безразмернойсистеме координат
X1X2XnU 0U1U2UnY
1X11X12X1n+1+1+1+1Y1
2X21X22X2 n+1-1+1+1Y2
NXN1X N2XNn+1-1-1-1YN

Предложенный план эксперимента обладает следующими свойствами:

Что такое градиентные методы решения уравнений;

Что такое градиентные методы решения уравнений;

Что такое градиентные методы решения уравнений, ( lЧто такое градиентные методы решения уравнений j , l,i = 1…k );

Следует отметить, что ортогональные планы полный факторный эксперимент ( для линейных моделей ) обладают также рототабельностью. Последнее предполагает равенство и минимальность дисперсий предсказанных значений выходной переменной для всех точек факторного пространства. По закону накопления ошибок для дисперсии предсказанных уравнением регрессии значений выходной переменной можно записать:

Дисперсии коэффициентов регрессии равны между собою, поэтому

s 2 y = s 2 biЧто такое градиентные методы решения уравнений

С учетом того, что

Что такое градиентные методы решения уравнений ,

Где Что такое градиентные методы решения уравнений— радиус сферы имеем

s 2 y = s 2 biЧто такое градиентные методы решения уравнений .

Отсюда ясно, что дисперсия предсказанного значения выходной переменной зависит только от радиуса сферы. Это свойство рототабельности эквивалентно независимости дисперсии выходной переменной от вращения координат в центре плана и оправдано при поиске оптимума градиентными методами. Интуитивно понятно, что исследователю удобно иметь дело с такой информацией, содержащейся в уравнении регрессии, которая равномерно «размазана» по сфере радиусом Что такое градиентные методы решения уравнений. Действительно такое положение можно признать разумным, ибо с помощью уравнения регрессии будут предприниматься попытки предсказать положение ещё неизвестных участков факторного пространства. Равноценность этих участков в смысле ошибки предсказания, по-видимому, является необходимой.

Свойство ортогональности существенно облегчает процесс вычисления коэффициентов, так как корреляционная матрица (U Т U) -1 становится диагональной, и коэффициенты будут равны 1/N;

6. С учетом свойства ортогональности можно вычислить вектор В коэффициентов регрессии:Что такое градиентные методы решения уравнений

Что такое градиентные методы решения уравнений

Следовательно, любой коэффициент уравнения регрессии bj определяется скалярным произведением столбца Y на соответствующий столбец Uj, деленным на число опытов N в матрице планирования:

Что такое градиентные методы решения уравнений

Вычислим коэффициенты регрессии линейного уравнения :

Что такое градиентные методы решения уравнений

Если в рассмотрение ввести более полное уравнение регрессии с коэффициентами взаимодействия Р, то используя процедуру метода наименьших квадратов , получим:

Что такое градиентные методы решения уравнений .

Пользуясь планом, представленным в табл. 1.2, можно перечислить коэффициенты регрессии и записать в табл.1.4:

Номер опытаU0U1U2UnЧто такое градиентные методы решения уравненийЧто такое градиентные методы решения уравненийЧто такое градиентные методы решения уравненийУ
1+1+1+1+1-1+1+1У1
2+1-1+1+1-1-1+1У2
N+1-1-1-1-1+1+1УN

P12 , P23 — эффекты двойного взаимодействия, а P123 — эффекты тройного взаимодействия. Эффекты взаимодействия определяют аналогично линейным эффектам:

Что такое градиентные методы решения уравнений.

7. Проверка однородности дисперсии и значимости коэффициентов регрессии.

Если дополнительно поставить параллельные опыты, можно определить s 2 воспр — дисперсию воспроизводимости, проверить значимость коэффициентов регрессии, а при наличии степеней свободы – адекватность уравнения.

В связи с тем, что корреляционная матрица (U*U) -1 для спланированного эксперимента есть матрица диагональная

Что такое градиентные методы решения уравнений,

коэффициенты уравнения регрессии некоррелированы между собой. Значимость коэффициентов уравнения регрессии можно проверять для каждого коэффициента в отдельности, пользуясь критерием Стьюдента : Что такое градиентные методы решения уравнений. Исключение из уравнения регрессии незначимого коэффициента не скажется на значениях остальных коэффициентов. При этом выборочные коэффициенты bj оказываются так называемыми несмешанными оценками для соответствующих генеральных коэффициентов βj :

bj Что такое градиентные методы решения уравнений βj , т. е. величины коэффициентов уравнения регрессии характеризуют вклад каждого фактора в величину y.

Диагональные элементы корреляционной матрицы равны между собой, поэтому все коэффициенты уравнений

Y = Что такое градиентные методы решения уравненийи Y = Р0 + Р1 U1 + Р2 U2 + … + Рn Un + … +

+ … + Что такое градиентные методы решения уравнений

oпределяются с одинаковой точностью:

sbj = s 2 воспрЧто такое градиентные методы решения уравнений

8 . Проверка адекватности уравнения

Проверка адекватности уравнения проводится по критерию Фишера:

F= s 2 ост / s 2 воспр ; s 2 ост Что такое градиентные методы решения уравнений,

где m — число значимых коэффициентов в уравнении регрессии.

2. После проведения полного факторного эксперимента определены коэффициенты регрессии

Что такое градиентные методы решения уравнений

Тогда частные производные будут пропорциональны Что такое градиентные методы решения уравнений.

3. Делая, с учетом последнего выражения, шаг в сторону, противоположную среднему, определяем новую точку Что такое градиентные методы решения уравненийи опять проводим эксперимент.

4. Повторяем первые три шага, пока не приблизимся к точке экстремума. При приближении к точке экстремума алгоритм начинает работать плохо при близости к нулю частных производных, то есть линейная модель становится неадекватной и требует введения квадратичных членов.

По условию дано:

Что такое градиентные методы решения уравнений

Что такое градиентные методы решения уравнений , T = 20, U(t) = 15 – 0.1t, Что такое градиентные методы решения уравнений.

Уравнение выхода системы:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений.

Значение параметров системы:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений.

Характер помехи и ее статистические параметры:

Что такое градиентные методы решения уравнений.

Здесь Что такое градиентные методы решения уравнений— вектор состояния системы; Что такое градиентные методы решения уравнений— вектор наблюдения; Что такое градиентные методы решения уравнений— вектор помехи; А, В, С – матрицы коэффициентов (параметров) системы; [0, T] – интервал определения системы.

— составить в соответствии с математическим ожиданием системы ее имитационную модель для формирования реализации вектора и состояния системы на интервале определения;

— составить алгоритм и программу решения задачи построения динамической модели в соответствии с заданным типом модели методом идентификации и точностью решения задачи;

— провести расчеты и анализ полученных результатов.

Видео:ПРОСТЕЙШИЙ способ решения Показательных УравненийСкачать

ПРОСТЕЙШИЙ способ решения Показательных Уравнений

Построение математической модели

Учитывая характер помехи можно составить следующую имитационную модель системы для формирования реализации вектора и состояния системы на интервале определения:

Что такое градиентные методы решения уравнений,

Здесь Что такое градиентные методы решения уравнений— вектор состояния системы; Что такое градиентные методы решения уравнений— вектор состояния модели; Что такое градиентные методы решения уравнений— матрицы коэффициентов модели.

Что такое градиентные методы решения уравнений, T = 20, U(t) = 15 – 0.1t, Что такое градиентные методы решения уравнений.

Здесь [0, T] – интервал определения системы.

Уравнение выхода системы:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений.

Здесь Что такое градиентные методы решения уравнений— вектор наблюдения; Что такое градиентные методы решения уравнений— вектор помехи; С – матрица коэффициентов (параметров) системы.

Значение параметров системы:

Что такое градиентные методы решения уравнений, Что такое градиентные методы решения уравнений.

Здесь А, В – матрицы коэффициентов (параметров) системы.

Характер помехи и ее статистические параметры:

Помеха имеет нормальное распределение с математическим ожиданием, равным Что такое градиентные методы решения уравнений.

Видео:7 класс, 35 урок, Графическое решение уравненийСкачать

7 класс, 35 урок, Графическое решение уравнений

Алгоритм реализации решения задачи построения динамической модели

Идея построения требуемой динамической системы состоит в следующем: для заданного значения параметра tс его интервала определения градиентным методом первого порядка находим соответствующее значение параметра x, который изменяется динамически. Поэтому необходимо в каждый момент ti найти оптимальное соответствующее значение фактора х и функции отклика у, которые наиболее близко описывали бы исходную систему. Помеха имеет нормальное распределение, поэтому включаем ее в функцию отклика таким образом, как показано в выше предложенных формулах.

Для поиска решения необходимо рассчитать оптимальный шаг Что такое градиентные методы решения уравнений.

Это делается по выше указанной формуле ( 6 ) – поиск шага варьирования. Именно так и реализуем в программном решении данной задачи.

Для поиска оптимального решения используем матрицы коэффициентов модели Что такое градиентные методы решения уравнений, с помощью которых определяем соответствующее значение функции отклика. Все выше сказанное реализовано в предлагаемой программе, в которой реализовано решение задачи построения динамической модели в соответствии с заданным типом модели методом идентификации и точностью решения задачи. Программа отлажена на упрощенных тестовых примерах с использованием информации, полученной от имитационной тестовой модели.

Проведен анализ полученных результатов, что также отражено в предложенной программе.

Видео:10 Численные методы решения нелинейных уравненийСкачать

10 Численные методы решения нелинейных уравнений

Апробирование машинной программы

Как было отмечено ранее, в данной программе кроме ручного ввода исходных значений факторов Х (т. е. задание так называемой «нулевой точки») существует задание количества факторов и количества опытов, как по умолчанию, так и непосредственно пользователем.

Программа исследований программного эксперимента:

Решает задачу оптимизации поверхности отклика. В начале работы требуется задать значения функции отклика Y, для которых и будет найдены соответствующие значения факторов X, при которых функция отклика принимает максимальное значение.

Что такое градиентные методы решения уравнений

1.Задаем количество факторов и экспериментов

Получаем значения факторов в натуральном масштабе, заполняем матрицу планирования.

2.Производим кодирование в безразмерной системе координат, для каждого фактора определяются нулевые уровни и интервалы варьирования. Они будут использованы для определения градиента в данной точке.

Что такое градиентные методы решения уравнений

Что такое градиентные методы решения уравнений

3.Получаем значения коэффициентов регрессии.

4.Считаем выборочные дисперсии, и если они однородны, выводим значение дисперсии воспроизводимости

5.Проверяем на значимость коэффициенты регрессии.

В данном случае все коэффициенты значимы.

6. Получаем информацию о том, описывает ли уравнение эксперимент адекватно.

7. Делаем шаг в сторону, противоположную градиенту и находим новую точку (набор факторов).

8. Для нового набора переходим к шагу 2. Выполняем указанные действия до тех пор, пока не приблизимся к точке экстремума, на что указывает убыль последующих значений функции отклика.

Видео:Решение системы линейных уравнений графическим методом. 7 класс.Скачать

Решение системы линейных уравнений графическим методом. 7 класс.

Результаты работы программы

Матрица значений функции отклика системы:

Что такое градиентные методы решения уравнений.

Что такое градиентные методы решения уравнений.

Найденные значения факторов, про которых функция отклика принимает максимальное значение:

Что такое градиентные методы решения уравнений

Видео:Графический метод решения уравнений 8 классСкачать

Графический метод решения уравнений   8 класс

Вывод

В данном курсовом проекте рассматривался градиентный метод первого порядка, в качестве ядра которого использовался полный факторный эксперимент первого порядка, что предполагает такое проведение исследований, которое позволяет некоторым оптимальным образом получить информацию об объекте, оформить её в виде полиномиальной линейной модели и провести её статистический анализ. Так же в работе был составлен алгоритм моделирования , на основе которого была написана программа для проведения исследований градиентным методом.

Видео:Алгебра 8 класс (Урок№6 - Решение уравнений графическим способом.)Скачать

Алгебра 8 класс (Урок№6 - Решение уравнений графическим способом.)

Список литературы

1. Ю.П. Зайченко. Исследование операций. “Вища школа”. Киев 1988.

2. А.Г. Бондарь, Г.А. Статюха, Т. В. Землянкин , И.А. Потяженко. Планирование эксперимента при оптимизации процессов химической технологии. “Вища школа”. Киев 1980.

3. В.В. Кафаров. Методы кибернетики в химии и химической технологии. Москва. «Химия». 1985.

4. А.В. Бондаренко, Г.А. Статюха. Планирование эксперимента в химической технологии. “Вища школа”. Киев 1976.

6. Е.С. Венцель “Исследование операций”.

Видео:Численное решение уравнений, урок 3/5. Метод хордСкачать

Численное решение уравнений, урок 3/5. Метод хорд

Листинг программы

Видео:Алгебра 9 класс. Графическое решение систем уравненийСкачать

Алгебра 9 класс. Графическое решение систем уравнений

unit MainUnit;

uses Windows,Classes,Graphics,SysUtils,StdCtrls,Math,Grids, ListControl,

SelType = (stNONE,stPOINT,stCON); // Типтекущегоэлемента

📸 Видео

Градиентный спуск на пальцахСкачать

Градиентный спуск на пальцах

Как решать уравнения с дробью? #shortsСкачать

Как решать уравнения с дробью? #shorts

8 класс, 21 урок, Графическое решение уравненийСкачать

8 класс, 21 урок, Графическое решение уравнений

Повторяем решение уравнений. Полезно всем! Вебинар | МатематикаСкачать

Повторяем решение уравнений. Полезно всем! Вебинар | Математика
Поделиться или сохранить к себе: