Курсовая Численные методы решения задач управления технологическими процессами
Работа добавлена на сайт bukvasha.net: 2015-10-25Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
от 25%
договор
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение
высшего профессионального образования
«МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ПИЩЕВЫХ ПРОИЗВОДСТВ»
Кафедра «Автоматика и Электротехника».
Курсовая работа.
«Численные методы решения задач управления технологическими процессами».
Группа: 07-ИУ-4
Студент: Коняхин Е. И.
Преподаватель: Михайлов А. В.
Москва 2010.
Поиск глобального максимума методом равномерного поиска.
Метод равномерного поиска заключается в последовательном вычислении целевой функции при всех допустимых значениях варьируемого параметра x:
Пусть заданная погрешность определения максимального значения .
Тогда для реализации алгоритма поиска следует определить значение в
точках, равномерно относящихся друг от друга на расстоянии , т.е. в точках:
Из полученных значений показателя качества выбирается наибольшее значение (глобальный максимум).
Алгоритм расчета.
|
|
|
Результаты расчета.
Целевая функция имеет вид :
Интервал (-100;100) | |||
Шаг H | Значение X | Значение F | Кол-во вычислений |
1 | 1 | 23 | 21 |
0,1 | 0,19999998 | 23 | 201 |
0,01 | 0,959999 | 23,056 | 2001 |
Вывод : при уменьшении заданной погрешности ( точность измерений увеличивается, что позволяет нам получить верное значение глобального максимума. Недостатком метода является то, что одновременно с уменьшением заданной погрешности увеличивается требуемое количество вычислений функции, что приводит к большим затратам машинного времени.
Одномерная оптимизация методом дихотомии.
Этот метод используется для поиска экстремума класса унимодальных функций. Идея метода проста – делить интервал [
a,
b] , где расположена точка экстремума , пополам
и отбрасывать ту часть, где экстремума заведомо быть не может. С этой целью достаточно вычислить значение в точках , отстоящих друг от друга на расстояние заданная погрешность определения оптимума. По двум вычисленным значениям и , в силу унимодальности функция легко установить новый интервал неопределенность по следующим условиям ( при поиске максимума):
Таким образом, в результате двух вычислений , промежуток , где содержится экстремум сократится в двое. Следующая пара измерений производится в районе серидины нового интервала неопределенности. Вычисления производятся до тех пор, пока на k-м шаге, после 2
k вычислений длина интервала неопределенности , где находится оптимум, не станет меньше или равна .
Алгоритм расчёта.
ДА
ДА
Результаты расчета.
Целевая функция имеет вид :
Интервал (-100;100) | ||||
Погрешность Е | Значение Х | Значение F | Кол-во итераций | Кол-во вычислен. |
0.1 | 1,06640625 | 22,600226978 | 14 | 7 |
0.1 | 0,954638671 | 23,054333993 | 20 | 10 |
0.01 | 0,959232788 | 23,05589651 | 26 | 13 |
0.001 | 0,96173743 | 23,056110564 | 34 | 17 |
Вывод : как видно метод дихотомии позволяет довольно быстро попадать в район оптимума. И требует меньшего числа расчётов по сравнению с некоторыми другими методами (например : методом равномерного приближения).
Одномерная оптимизация методом золотого сечения.
Интервал неопределенности делится на три отрезка, причем внутренние точки располагаются симметрично по отношению к крайним .
Берутся пробные точки и располагаются следующим образом :
Вычисляется целевая функция в этих точках. В результате анализа двух значений и целевой функции исключается один из подинтервалов, где оптимума заведомо быть не может, и выбирается новый интервал неопределенности, который должен исследовать в дальнейшем.
Поиск оптимума завершается, если после k- го шага длина интервала неопределенности станет меньше или равна.
Алгоритм расчёта.
нет
нет
Результаты расчета.
Целевая функция имеет вид :
Интервал (-100;100) | ||||
Погрешность Е | Значение Х | Значение F | Кол-во итераций | Кол-во вычислен. |
1 | 0,895427987 | 22,910241869 | 9 | 8 |
0.1 | 0,94547427929 | 23,046790768 | 14 | 13 |
0.01 | 0,96349811902 | 23,055988462 | 18 | 17 |
0.001 | 0,96148191718 | 23,05610953 | 23 | 22 |
Вывод : преимуществом этого метода над методом дихотомии является то, что на каждом шаге вычисляется лишь одно значение , а не два.
Одномерная оптимизация методом поразрядного приближения.
Метод обладает высоким быстродействием. Это достигается тем, что используется алгоритм с переменным шагом поиска. Задаем интервал [
a,
b] , содержащий внутри себя точки максимума :
Задается начальное значение и вычисляется . Задается начальный шаг поиска h и кратность изменения шага k в районе оптимума. Производится поиск максимума. Поиск из начальной точки x= осуществляется с постоянным шагом h , после каждого шага вычисляется значение критерия , оно сравнивается с предыдущим и в случае улучшения критерия шаги продолжаются. Движение к оптимуму с неизменным шагомh продолжается до тех пор, пока очередной шаг не окажется неудачным. После этого поиск максима продолжается из последней точки в обратном направлении с шагом вk раз меньше прежнего. Эта процедура будет продолжаться до тех пор, пока не выполнится условие:
, где - заданная погрешность определения оптимума.
Алгоритм расчета.
да
нет
Результаты расчета.
Целевая функция имеет вид :
X= -100;h=10;k=10 | ||||
Погрешность Е | Оптимальная точка х | Оптимальное значение ф-ции | Кол-во итераций | Кол-во вычислений |
1 | 0,895427987 | 22,910241869 | 2 | 23 |
0.1 | 0,94547427929 | 23,046790768 | 3 | 35 |
0.01 | 0,96349811902 | 23,055988462 | 4 | 51 |
0.001 | 0,96148191718 | 23,05610953 | 5 | 65 |
X= -100;h=10;e=0.01 | ||||
Кратность k | Оптимальная точка х | Оптимальное значение ф-ции | Кол-во итераций | Кол-во вычислений |
2 | 0,95703125 | 23,0553 | 11 | 51 |
5 | 0,9632 | 23,0560 | 6 | 46 |
10 | 0,96 | 23,0560 | 4 | 51 |
20 | 0,96125 | 23,0560 | 4 | 65 |
50 | 0,96 | 23,0560 | 3 | 101 |
X= -100;k=10;e=0.01 | ||||
Шаг h | Оптимальная точка х | Оптимальное значение ф-ции | Кол-во итераций | Кол-во вычислений |
0.1 | 0,95999 | 23,05601 | 2 | 1028 |
0.5 | 0,96 | 23,05601 | 3 | 231 |
1 | 0,96 | 23,05601 | 3 | 123 |
5 | 0,96 | 23,05601 | 4 | 53 |
10 | 0,96 | 23,05601 | 4 | 51 |
50 | 0,96 | 23,05601 | 5 | 57 |
100 | 0,96 | 23,05601 | 5 | 48 |
Вывод: метод является эффективным для измерения оптимума унимодальной функции, причем изменение шага поиска или кратности уменьшения шага ( при неизменной погрешности вычисления на результат практически не влияет).
Одномерная оптимизация методом квадратичной интерполяции.
В предыдущих методах была сделана попытка найти малый интервал, в котором находится оптимум функции f0(х). В этом методе применяется иной подход. Он заключается в построении аппроксимирующей модели оптимизируемой функции (х). Функция может аппроксимирована полиномом второго порядка:
(х) = ах2 + Ьх + с
по крайней мере в небольшой области значений, в том числе в области оптимума. При этом положении экстремума (х) определяется по положению экстремума полинома, поскольку последний вычислить проще.
Экстремум функции fап (х) как известно расположен в точке: = -Ь/2а.
Положим, что окрестность некоторой исходной точки х=х1 области определения f0(х) аппроксимирована полиномом fап (х). Задача поиска заключается в определении смещения
= х°ап – х1
Которое приводит из исходного состояния х = х1, ближе к экстремуму х = х°. Если f0(х) строго квадратичная функция, то смещение после первого шага сразу приведет к. В противном случае достижение х° требует выполнения итерационной процедуры. Для определения смещения нужно определить коэффициенты параболы. Для этого необходимо вычислить значение f0(х) в трех точках. Пусть вычисление производится в исходном состоянии х = х1 и в точках, , и при этом получено три значения этой функции
,
гдеh - полуинтервал интерполяции, малая постоянная величина. Подставляя эти значения в уравнение (х), получаем систему из трех линейных уравнений с тремя неизвестными а, Ь, с:
а(х1 -
h)2 + Ь(х1 -
h) + с =а(х1 -
h)2 + Ь(х1 -
h) + с =
а*х12 + Ь*х1 + с =
а(х1 +
h)2 + Ь(х1 +
h) + с =
Для того, чтобы система имела решение, необходимо чтобы ее определитель не был равен нулю. Это условие выполняется, так как определитель равен: = - 2
h30 так как . Решая систему уравнений, получаем интересующие нас значения параметров а, Ь, с подставляя их в формулу находим положение экстремума параболы
х°ап= х1 +
h(-)/2(- 2+)
Зная коэффициенты а, Ь, с можно определить и экстремальное значение функции по формуле, которая является оценкой экстремума критерия (х).
Теперь следует проверить, действительно ли найден экстремум. Для этого достаточно вычислить значение функции цели (х) в предполагаемом экстремуме х=х1+Δх - х°ап и сопоставить его с оценкой. Если эти величины отличаются не более чем на ɛ т. е:
|
( х°ап
)-(х°ап
)|
, гдеɛ заданная погрешность определения экстремума. При этом = х1. Если условие не выполняется, тогда следует процесс поиска; т.е. выполнить следующий цикл, но уже построение
аппроксимирующей модели производится в окрестности точки х1= х°ап . Процедура будет повторяться пока не выполнится условие.
Алгоритм расчета
.
|
Результаты расчета.
Целевая функция имеет вид :
Нач. знач. X=-100,H=0.5 | ||||
Погрешность Е | Значение Х | Значение F | Кол-во итераций | Кол-во вычислений |
1 | (-)2,19360741 | (-)919,076558 | 10 | 30 |
0.1 | 0,8912446 | 22,8921666 | 14 | 45 |
0.01 | 0,79728604 | 22,27161267 | 16 | 48 |
0.001 | 0,7960595 | 22,2612358 | 17 | 51 |
Нач. знач. Х=-100, Е=0.1 | ||||
Шаг Н | Знач Х | Знач F | Кол-во итераций | Кол-во вычислений |
Увеличение шага | ||||
0,3 | 0,901465 | 22,93463 | 25 | 75 |
0,5 | 0,797286 | 22,27161 | 16 | 48 |
0,8 | 0,6115913 | 20,33949 | 35 | 105 |
Уменьшение шага | ||||
0.5 | 0,79728604 | 22,27161267 | 16 | 48 |
0.4 | 0,8540667 | 22,69232 | 20 | 60 |
0.3 | 0,901465 | 22,934634 | 25 | 75 |
0.2 | 0,936694 | 23,034198 | 41 | 123 |
0.1 | 0,961479 | 23,056109 | 31 | 93 |
0.02 | 0,961661 | 23,05611 | 25 | 75 |
Вывод: расчеты показали, что изменение погрешности определения экстремума ɛ, практически не влияет на точность вычисления в то время, как изменение шага поиска h оказывает значительное влияние. При уменьшении шага точность вычислений улучшается и наоборот, при увеличении шага уменьшается. И в конечном итоге, когда шаг поиска слишком велик для того, чтобы с помощью итерационной процедуры уточнения значений получить результат с заданной погрешностью, программа отказывается производить вычисления.
Оптимизация
методом наискорейшего спуска.
Метод наискорейшего спуска предназначен для поиска минимума. Данный метод отличается от метода градиента правилом определения коэффициента шага. Сначала выделяется начальная точка. В пространстве X могут быть выделены области притяжения каждого из локальных минимумов.
Если алгоритм начинает поиск из начальной точки, лежащей в области притяжения некоторого минимума функции против направления градиента. Таким образом, в каждом цикле решается одномерная задача минимизации , после чего шаг находится как