Курсовая на тему Минимум функции многих переменных
Работа добавлена на сайт bukvasha.net: 2014-12-09Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
от 25%
договор
РЕФЕРАТ
В работе рассматриваются методы нахождения минимума функции одной переменной и функции многих переменных.Пояснительная записка к курсовой работе состоит из двух основных частей: теоретической и практической.
В теоретической части рассматривается поиск минимума функции одной переменной методом золотого сечения, поиск минимума функции многих переменных – методами покоординатного спуска, наискорейшего спуска и случайного поиска.
Практическая часть содержит разработку программного обеспечения вычисления локального минимума функции Химмельблау методом покоординатного спуска, реализованную на языке Pascal.
Объем пояснительной записки: 1
Количество рисунков: 4
Количество используемых источников: 3
СОДЕРЖАНИЕ
ВВЕДЕНИЕ
1. Минимум функции одного переменного
1.1 Постановка задачи
1.2 Золотое сечение2. Минимум функции многих переменных
2.1 Рельеф функции
2.2 Спуск по координатам
2.3 Наискорейший спуск
2.4 Случайный поиск
ЗАКЛЮЧЕНИЕ
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
Приложение 1Приложение 2
ВВЕДЕНИЕ
В работе рассмотрены способы нахождения такого значения аргумента, которое минимизирует некоторую зависящую от него скалярную величину. В параграфе 1 изложена задача о минимуме функции одного переменного, лежащая в основе всех более сложных задач. В параграфе 2 рассмотрена задача о минимуме функции многих переменных в неограниченной области.
1. Минимум функции одного переменного
1.1 Постановка задачи.
Пусть имеется некоторое множество
У функции может быть много локальных минимумов. Если же выполняется
то говорят о достижении функцией абсолютного минимума на данном множестве
Потребуем, чтобы функция
Перечислим наиболее важные примеры множеств, на которых приходится решать задачу нахождения минимума. Если множество
Для нахождения абсолютного минимума есть только один способ: найти все локальные минимумы, сравнить их и выбрать наименьшее значение. Поэтому задача (2) сводится к задаче (1), и мы будем в основном заниматься задачей поиска локальных минимумов.
Известно, что решение задачи (1) удовлетворяет уравнению
Если множество
Пусть
Функция
Задачу называют детерминированной, если погрешностью вычисления (или экспериментального определения) функции
1.2 Золотое сечение
В этом параграфе мы рассмотрим задачу нахождения минимума функции одной действительной переменной. Эта одномерная задача нередко возникает в практических приложениях. Кроме того, большинство методов решения многомерных задач сводится к поиску одномерного минимума.
Сейчас мы рассмотрим метод золотого сечения, применимый к недифференцируемым функциям. Будем считать, что
Рис. 1
На отрезке
Как выгодно размещать точки? Всякий раз мы делим оставшийся отрезок на три части (причем одна из точек деления уже определена предыдущими вычислениями) и затем отбрасываем один из крайних отрезков. Очевидно, надо, чтобы следующий отрезок был поделен подобно предыдущему. Для этого должны выполняться соотношения
Решение этих уравнений дает
После проведения очередного вычисления отрезок сокращается в
Запишем алгоритм вычисления. Для единообразия записи обозначим
а поочередно вводимые внутренние точки будут
После сравнения может быть отброшена точка с любым номером, так что на следующих шагах оставшиеся точки будут перенумерованы беспорядочно. Пусть на данном отрезке есть четыре точки
Затем отбрасываем ту точку, которая более всего удалена[3] от
Определим порядок расположения оставшихся трех точек на числовой оси; пусть, для определенности,
Тогда новую внутреннюю точку введем таким соотношением[4]:
и присвоим ей очередной номер. Минимум находится где-то внутри последнего отрезка,
Метод золотого сечения является наиболее экономичным аналогом метода дихотомии применительно к задачам на минимум. Он применим даже к недифференцируемым функциям и всегда сходится; сходимость его линейна. Если на отрезке
Этот метод нередко применяют в технических или экономических задачах оптимизации, когда минимизируемая функция недифференцируема, а каждое вычисление функции – это дорогой эксперимент.
Метод золотого сечения рассчитан на детерминированные задачи. В стохастических задачах из-за ошибок эксперимента можно неправильно определить соотношение между значениями функций в точках; тогда дальнейшие итерации пойдут по ложному пути. Поэтому если различия функций в выбранных точках стали того же порядка, что и ошибки эксперимента, то итерации надо прекращать. Поскольку вблизи минимума чаще всего
2. Минимум функции многих переменных
2.1 Рельеф функции
Основные трудности многомерного случая удобно рассмотреть на примере функции двух переменных
а) б)
в)
Рис. 2 г)
При котловинном рельефе линии уровня похожи на эллипсы (рис. 1, а). В малой окрестности невырожденного минимума рельеф функции котловинный. В самом деле, точка минимума гладкой функции определяется необходимыми условиями
и разложение функции по формуле Тейлора вблизи минимума имеет вид
причем квадратичная форма (12) – положительно определенная[5], иначе эта точка не была бы невырожденным минимумом. А линии уровня знакоопределенной квадратичной формы – это эллипсы.
Случай, когда все вторые производные равны в этой точке нулю и минимум определяется более высокими производными, по существу ничего нового не дает, и мы не будем его специально рассматривать (линии уровня вместо эллипсов будут похожими на них кривыми четвертого порядка).
Отметим, что условию (11) удовлетворяют также точки максимумов и седловые точки. Но в точках максимумов квадратичная форма (12) отрицательно определенная, а в седловинах она знакопеременна.
Вблизи минимума функция мало меняется при заметных изменениях переменных. Поэтому даже если мы не очень точно определим те значения переменных, которые должны минимизировать функцию, то само значение функции при этом обычно будет мало отличаться от минимального.
Рассмотрим овражный тип рельефа. Если линии уровня кусочно-гладкие, то выделим на каждой из них точку излома. Геометрическое место точек излома назовем истинным оврагом, если угол направлен в сторону возрастания функции, и гребнем – если в сторону убывания (рис. 2, б). Чаще линии уровня всюду гладкие, но на них имеются участки с большой кривизной; геометрические места точек с наибольшей кривизной назовем разрешимыми оврагами или гребнями (рис. 2, в). Например, рельеф функции
изображенный на этом рисунке, имеет ярко выраженный извилистый разрешимый овраг, «дно» которого – синусоида, а низшая точка – начало координат.
В физических задачах овражный рельеф указывает на то, что вычислитель не учел какую-то закономерность, имеющую вид связи между переменными. Обнаружение и явный учет этой закономерности облегчает решение математической задачи. Так, если в примере (13) ввести новые переменные
Неупорядоченный тип рельефа (рис. 2, г) характеризуется наличием многих максимумов, минимумов и седловин. Примером может служить функция
рельеф которой изображен на этом рисунке; она имеет минимумы в точках с координатами
Все эффективные методы поиска минимума сводятся к построению траекторий, вдоль которых функция убывает; разные методы отличаются способами построения таких траекторий. Метод, приспособленный к одному типу рельефа, может оказаться плохим на рельефе другого типа.
2.2 Спуск по координатам
Казалось бы, для нахождения минимума достаточно решить систему уравнений типа (11) методом линеаризации или простых итераций и отбросить те решения, которые являются седловинами или максимумами. Однако в реальных задачах минимизации эти методы обычно сходятся в настолько малой окрестности минимума, что выбрать подходящее нулевое приближение далеко не всегда удается. Проще и эффективнее провести спуск по координатам. Изложим этот метод на примере функции трех переменных
Выберем нулевое приближение
Затем из новой точки сделаем спуск по направлению, параллельному оси
Будем повторять циклы. На каждом спуске функция не возрастает, и при этом значения функции ограничены снизу ее значением в минимуме
Это зависит от функции и выбора нулевого приближения. На примере функции двух переменных легко убедиться, что существуют случаи сходимости спуска по координатам к искомому минимуму и случаи, когда этот спуск к минимуму не сходится.
Будем двигаться по выбранному направлению, т. е. по некоторой прямой в плоскости
Пусть линии уровня образуют истинный овраг. Тогда возможен случай (рис. 3, б), когда спуск по одной координате приводит нас на «дно» оврага, а любое движение по следующей координате (пунктирная линия) ведет нас на подъем. Никакой дальнейший спуск по координатам невозможен, хотя минимум еще не достигнут; процесс спуска по координатам в данном случае не сходится к минимуму.
Наоборот, если функция достаточно гладкая, то в некоторой окрестности минимума процесс спуска по координатам сходится к этому минимуму. Пусть функция имеет непрерывные вторые производные, а ее минимум не вырожден. Для простоты опять рассмотрим функцию двух переменных . Выберем некоторое нулевое приближение и проведем линию уровня через эту точку. Пусть в области , ограниченной этой линией уровня, выполняются неравенства, означающие положительную определенность квадратичной формы (12):
. (15)
Докажем, что тогда спуск по координатам из данного нулевого приближения сходится к минимуму, причем линейно.
Значения функции вдоль траектории спуска не возрастают; поэтому траектория не может выйти из области , и неравенства (15) будут выполняться на всех шагах. Рассмотрим один из циклов, начинающийся в точке (рис. 3, а). Предыдущий цикл окончился поиском минимума по направлению , следовательно, и . Первый шаг нового цикла спускает нас по направлению в точку , в которой и . Поскольку вторые производные непрерывны, можно применить теорему о среднем; получим
где через обозначены расстояния между точками. Отсюда получаем . Выполним второй шаг цикла – спуск по направлению в точку , после которого и . Аналогичные рассуждения дают соотношение с . Объединяя эти неравенства, найдем
.
Следовательно, за один цикл уменьшается в раз; то же справедливо для , если рассмотреть цикл, сдвинутый на один шаг, т. е. начинающийся в точке и кончающийся в точке .
Значит, когда число циклов , то все первые производные линейно стремятся к нулю:
и ~ .
Первые производные одновременно обращаются в нуль в точке минимума и вблизи него являются линейными однородными функциями приращений координат. Поэтому координаты точек спуска линейно стремятся к координатам точки минимума, т. е. в данном случае спуск по координатам сходится, причем линейно.
Случай (15) заведомо реализуется в достаточно малой окрестности невырожденного минимума, ибо эти условия эквивалентны требованию положительной определенности квадратичной формы (12). Такими образом, вблизи невырожденного минимума достаточно гладкой функции спуск по координатам линейно сходится к минимуму. В частности, для квадратичной функции этот метод сходится при любом нулевом приближении.
Фактическая скорость сходимости будет неплохой при малых , когда линии уровня близки к эллипсам, оси которых параллельны осям координат. Для эллипсов, сильно вытянутых под значительным углом к осям координат, величина и сходимость очень медленная.
Если сходимость медленная, но траектория уже попала в близкую окрестность минимума, то итерации можно уточнять процессом Эйткена; разумеется, при этом надо брать в качестве исходных значения не на трех последних спусках, а на трех циклах спусков (т. е. не точки , а точки и третья точка, которой нет на рис. 3, а).
Разрешимый овраг напоминает сильно вытянутую котловину (см. рис. 3, б). При попадании траектории спуска в такой овраг сходимость становится настолько медленной, что расчет практически невозможно вести. Отметим, что в стохастических задачах наличие ошибок эквивалентно превращению истинных оврагов и гребней в разрешимые; расчет при этом можно продолжать, хотя практическая ценность такого расчета невелика: сходимость очень медленная.
Метод спуска по координатам несложен и легко программируется на ЭВМ. Но сходится он медленно, а при наличии оврагов – очень плохо. Поэтому его используют в качестве первой попытки при нахождении минимума.
Пример. Рассмотрим квадратичную функцию и выберем нулевое приближение . Выполняя вычисления, получим
.
Уточнение по Эйткену дает , т. е. точное положение минимума (заметим, что делать уточнение с использованием нулевого приближения нельзя).
2.3 Наискорейший спуск
Спускаться можно не только параллельно осям координат. Вдоль любой прямой функция зависит только от одной переменной, , и минимум на этой прямой можно найти.
Наиболее известным является метод наискорейшего спуска, когда выбирается , т. е. направление, в котором функция быстрее всего убывает при бесконечно малом движении из данной точки. Спуск по этому направлению до минимума определяет новое приближение . В этой точке снова определяется градиент и делается следующий спуск.
Однако этот метод значительно сложнее спуска по координатам, ибо требуется вычислять производные и градиент и переходить к другим переменным. К тому же, по сходимости наискорейший спуск не лучше спуска по координатам. При попадании траектории в истинный овраг спуск прекращается, а в разрешимом овраге сильно замедляется.
Если функция является положительно определенной квадратичной функцией
, (16)
то формулы наискорейшего спуска приобретают несложный вид. Вдоль прямой функция (16) квадратично зависит от параметра :
. (17)
Из уравнения легко находим ее минимум
, (18)
дающий нам следующую точку спуска:
(19)
направление наискорейшего спуска определяется градиентом квадратичной функции (16):
. (20)
Подставляя это значение в формулы (18) – (19), получим окончательные выражения для вычисления последовательных спусков.
Если воспользоваться разложением всех движений по базису, состоящему из собственных векторов матрицы , то можно доказать, что для квадратичной функции метод наискорейшего спуска линейно сходится, причем
, где ; (21)
здесь – собственные значения положительно определенной матрицы (они вещественны и положительны). Если , что соответствует сильно вытянутым эллипсам – линиям уровня, то и сходимость может быть очень медленной.
Есть такие начальные приближения (рис. 4), когда точно реализуется наихудшая возможная оценка, т. е. в (21) имеет место равенство.
Причины нетрудно понять. Во-первых, в данной точке любую прямую, в том числе невыгодную для спуска, можно сделать направлением градиента, если специально подобрать изменение масштабов по осям. Во-вторых, каждый спуск кончается в точке, где его направление касается линии (поверхности) уровня. Градиент перпендикулярен поверхности уровня. Следовательно, в методе наискорейшего спуска каждый спуск перпендикулярен предыдущему. В двумерном случае это означает, что мы совершаем спуск по координатам, повернутым так, что одна ось параллельна градиенту начальной точки.
Для улучшения метода наискорейшего спуска предлагают «кухонные» поправки к алгоритму – например, совершают по каждому направлению спуск не точно до минимума. Наиболее любопытным представляется такое видоизменение алгоритма. Будем делать по направлению, противоположному градиенту, только бесконечно малый шаг и после него вновь уточнять направление спуска. Это приводит к движению по кривой , являющейся решением системы обыкновенных дифференциальных уравнений:
. (22)
Вдоль этой кривой , т. е. функция убывает, и мы движемся к минимуму при . Уравнение (22) моделирует безынерционное движение материальной точки вниз по линии градиента. Можно построить и другие уравнения – например, дифференциальное уравнение второго порядка, моделирующее движение точки при наличии вязкого трения.
Однако от идеи метода еще далеко до надежного алгоритма. Фактически систему дифференциальных уравнений (22) надо численно интегрировать. Если интегрировать с большим шагом, то численное решение будет заметно отклоняться от линии градиента. А при интегрировании малым шагом сильно возрастает объем расчетов. Кроме того, если рельеф имеет извилистые овраги, то трудно ожидать хорошей сходимости этого метода.
Алгоритмы наискорейшего спуска и всех его видоизменений сейчас недостаточно отработаны. Поэтому метод наискорейшего спуска для сложных нелинейных задач с большим числом переменных ( ) редко применяется, но в частных случаях он может оказаться полезным.
2.4 Случайный поиск
Методы спуска неполноценны на неупорядоченном рельефе. Если локальных экстремумов много, то спуск из одного нулевого приближения может сойтись только к одному из локальных минимумов, не обязательно абсолютному. Тогда для исследования задачи применяют случайный поиск.
Предполагают, что интересующий нас минимум (или все минимумы) лежит в некоторой замкнутой области; линейным преобразованием координат помещают ее внутрь единичного -мерного куба. Выбирают в этом кубе случайных точек.
Даже при миллионе пробных точек вероятность того, что хотя бы одна точка попадет в небольшую окрестность локального минимума, ничтожно мала. В самом деле, пусть диаметр котловины около минимума составляет от пределов изменения каждой координаты. Тогда объем этой котловины составляет часть объема -мерного куба. Уже при ни одна точка в котловину не попадет.
Поэтому берут небольшое число точек и каждую точку рассматривают как нулевое приближение. Из каждой точки совершают спуск, быстро попадая в ближайший овраг или котловину; когда шаги спуска сильно укорачиваются, его прекращают, не добиваясь высокой точности. Этого уже достаточно, чтобы судить о величине функции в ближайшем локальном минимуме с удовлетворительной точностью.
Сравнивая (визуально или при помощи программы) окончательные значения функции на всех спусках между собой, можно изучить расположение локальных минимумов функции и сопоставить их величины. После этого можно отобрать нужные по смыслу задачи минимумы и провести в них дополнительные спуски для получения координат точек минимума с высокой точностью.
Обычно в прикладных задачах нужно в первую очередь добиться того, чтобы исследуемая функция приняла минимальное или почти минимальное значение. Но вблизи минимума значение функции слабо зависит от изменения координат. Зачем тогда нужно находить координаты точки минимума с высокой точностью? Оказывается, что это имеет не только теоретический, но и практический смысл.
Пусть, например, координаты – это размеры деталей механической конструкции, а минимизируемая функция есть мера качества конструкции. Если мы нашли минимум точно, то мы находимся в самом центре котловины около минимума. В этом случае вариации координат влияют на функцию слабее, чем в точках, расположенных ближе к краям котловины. А безопасные вариации координат имеют в данном примере смысл допусков на точность обработки деталей. Значит, при аккуратном вычислении координат минимума мы можем разрешить большие допуски, т. е. удешевить обработку деталей.
Метод случайного поиска зачастую позволяет найти все локальные минимумы функции от 10-20 переменных со сложным рельефом. Он полезен и при исследовании функции с единственным минимумом; в этом случае можно обойтись заметно меньшим числом случайных точек. Недостаток метода в том, что надо заранее задать область, в которой выбираются случайные точки. Если мы зададим слишком широкую область, то ее труднее детально исследовать, а если выберем слишком узкую область, то многие локальные минимумы могут оказаться вне ее. Правда, положение несколько облегчается тем, что при спусках траектории могут выйти за пределы заданной области и сойтись к лежащим вне этой области минимумам.
2. Амосов А.А., Дубинский Ю.А., Копченова Н. В. Вычислительные методы для инженеров. М.: Высшая школа, 1994. 543с.
3. Ракитин В.И., Первушин В.Е. Практическое руководство по методам вычислений. М.: Высшая школа, 1998. 383с.
Приложение 1
Листинг программы:
{Методом покоординатного спуска найти точки локального минимума функции Химмельблау f(x)=(x1*x1+x2-11)*(x1*x1+x2-11)+(x1+x2*x2-7)*(x1+x2*x2-7) с точностью e=0.01}
program spusk;
uses crt;
const n=2; k=2;
type vector=array[1..n] of real;
var i:integer;
d,e,e1,h,h1,z:real;
x:vector; ch:char;
procedure pausa;
begin
writeln;
writeln ('Для выхода нажмите любую клавишу…');
repeat ch:=readkey until ch <> '';
end;
function f(x:vector):real;
var a,b:real;
begin a:=x[1]*x[1]+x[2]-11;
b:=x[1]+x[2]*x[2]-7;
f:=a*a+b*b;
end;
procedure scan (i:integer);
var a:boolean;
d1,z1:real;
begin z:=f(x);
repeat d1:=abs(h1); x[i]:=x[i]+h1; z1:=f(x); a:=(z1>=z);
if a then h1:=-h1/k;
z:=z1;
until a and (d1<e1);
end;
begin
clrscr;
writeln ('Введите координаты начального вектора (x1,x2):');
for i:=1 to n do read (x[i]);
writeln ('Задайте точность нахождения точки min f(x):');
read (e);
h:=0.2; e1:=e/k;
repeat d:=abs(h);
for i:=1 to n do
begin
h1:=h; scan (i);
end;
h:=h/k;
until d<e;
writeln ('Точка минимума: x1=',x[1]:9:6,' ','x2=',x[2]:9:6);
writeln ('Погрешность:',e:9:6);
pausa;
end.
Приложение 2
Результат работы программы:
Введите координаты начального вектора (x1,x2):
1
2
Задайте точность нахождения точки min f(x):
0.01
Точка минимума: x1= 2.996875 x2= 2.000000
Погрешность: 0.010000
Для выхода нажмите любую клавишу.
Наоборот, если функция достаточно гладкая, то в некоторой окрестности минимума процесс спуска по координатам сходится к этому минимуму. Пусть функция имеет непрерывные вторые производные, а ее минимум не вырожден. Для простоты опять рассмотрим функцию двух переменных
Докажем, что тогда спуск по координатам из данного нулевого приближения сходится к минимуму, причем линейно.
Значения функции вдоль траектории спуска не возрастают; поэтому траектория не может выйти из области
где через
Следовательно, за один цикл
Значит, когда число циклов
Первые производные одновременно обращаются в нуль в точке минимума и вблизи него являются линейными однородными функциями приращений координат. Поэтому координаты точек спуска линейно стремятся к координатам точки минимума, т. е. в данном случае спуск по координатам сходится, причем линейно.
Случай (15) заведомо реализуется в достаточно малой окрестности невырожденного минимума, ибо эти условия эквивалентны требованию положительной определенности квадратичной формы (12). Такими образом, вблизи невырожденного минимума достаточно гладкой функции спуск по координатам линейно сходится к минимуму. В частности, для квадратичной функции этот метод сходится при любом нулевом приближении.
Фактическая скорость сходимости будет неплохой при малых
Если сходимость медленная, но траектория уже попала в близкую окрестность минимума, то итерации можно уточнять процессом Эйткена; разумеется, при этом надо брать в качестве исходных значения не на трех последних спусках, а на трех циклах спусков (т. е. не точки
Разрешимый овраг напоминает сильно вытянутую котловину (см. рис. 3, б). При попадании траектории спуска в такой овраг сходимость становится настолько медленной, что расчет практически невозможно вести. Отметим, что в стохастических задачах наличие ошибок эквивалентно превращению истинных оврагов и гребней в разрешимые; расчет при этом можно продолжать, хотя практическая ценность такого расчета невелика: сходимость очень медленная.
Метод спуска по координатам несложен и легко программируется на ЭВМ. Но сходится он медленно, а при наличии оврагов – очень плохо. Поэтому его используют в качестве первой попытки при нахождении минимума.
Пример. Рассмотрим квадратичную функцию
Уточнение по Эйткену дает
2.3 Наискорейший спуск
Спускаться можно не только параллельно осям координат. Вдоль любой прямой
Наиболее известным является метод наискорейшего спуска, когда выбирается
Однако этот метод значительно сложнее спуска по координатам, ибо требуется вычислять производные и градиент и переходить к другим переменным. К тому же, по сходимости наискорейший спуск не лучше спуска по координатам. При попадании траектории в истинный овраг спуск прекращается, а в разрешимом овраге сильно замедляется.
Если функция является положительно определенной квадратичной функцией
то формулы наискорейшего спуска приобретают несложный вид. Вдоль прямой
Из уравнения
дающий нам следующую точку спуска:
направление наискорейшего спуска определяется градиентом квадратичной функции (16):
Подставляя это значение в формулы (18) – (19), получим окончательные выражения для вычисления последовательных спусков.
Если воспользоваться разложением всех движений по базису, состоящему из собственных векторов матрицы
здесь
Есть такие начальные приближения (рис. 4), когда точно реализуется наихудшая возможная оценка, т. е. в (21) имеет место равенство.
Причины нетрудно понять. Во-первых, в данной точке любую прямую, в том числе невыгодную для спуска, можно сделать направлением градиента, если специально подобрать изменение масштабов по осям. Во-вторых, каждый спуск кончается в точке, где его направление касается линии (поверхности) уровня. Градиент перпендикулярен поверхности уровня. Следовательно, в методе наискорейшего спуска каждый спуск перпендикулярен предыдущему. В двумерном случае это означает, что мы совершаем спуск по координатам, повернутым так, что одна ось параллельна градиенту начальной точки.
Для улучшения метода наискорейшего спуска предлагают «кухонные» поправки к алгоритму – например, совершают по каждому направлению спуск не точно до минимума. Наиболее любопытным представляется такое видоизменение алгоритма. Будем делать по направлению, противоположному градиенту, только бесконечно малый шаг и после него вновь уточнять направление спуска. Это приводит к движению по кривой
Вдоль этой кривой
Однако от идеи метода еще далеко до надежного алгоритма. Фактически систему дифференциальных уравнений (22) надо численно интегрировать. Если интегрировать с большим шагом, то численное решение будет заметно отклоняться от линии градиента. А при интегрировании малым шагом сильно возрастает объем расчетов. Кроме того, если рельеф имеет извилистые овраги, то трудно ожидать хорошей сходимости этого метода.
Алгоритмы наискорейшего спуска и всех его видоизменений сейчас недостаточно отработаны. Поэтому метод наискорейшего спуска для сложных нелинейных задач с большим числом переменных (
2.4 Случайный поиск
Методы спуска неполноценны на неупорядоченном рельефе. Если локальных экстремумов много, то спуск из одного нулевого приближения может сойтись только к одному из локальных минимумов, не обязательно абсолютному. Тогда для исследования задачи применяют случайный поиск.
Предполагают, что интересующий нас минимум (или все минимумы) лежит в некоторой замкнутой области; линейным преобразованием координат помещают ее внутрь единичного
Даже при миллионе пробных точек вероятность того, что хотя бы одна точка попадет в небольшую окрестность локального минимума, ничтожно мала. В самом деле, пусть диаметр котловины около минимума составляет
Поэтому берут небольшое число точек
Сравнивая (визуально или при помощи программы) окончательные значения функции на всех спусках между собой, можно изучить расположение локальных минимумов функции и сопоставить их величины. После этого можно отобрать нужные по смыслу задачи минимумы и провести в них дополнительные спуски для получения координат точек минимума с высокой точностью.
Обычно в прикладных задачах нужно в первую очередь добиться того, чтобы исследуемая функция приняла минимальное или почти минимальное значение. Но вблизи минимума значение функции слабо зависит от изменения координат. Зачем тогда нужно находить координаты точки минимума с высокой точностью? Оказывается, что это имеет не только теоретический, но и практический смысл.
Пусть, например, координаты – это размеры деталей механической конструкции, а минимизируемая функция есть мера качества конструкции. Если мы нашли минимум точно, то мы находимся в самом центре котловины около минимума. В этом случае вариации координат влияют на функцию слабее, чем в точках, расположенных ближе к краям котловины. А безопасные вариации координат имеют в данном примере смысл допусков на точность обработки деталей. Значит, при аккуратном вычислении координат минимума мы можем разрешить большие допуски, т. е. удешевить обработку деталей.
Метод случайного поиска зачастую позволяет найти все локальные минимумы функции от 10-20 переменных со сложным рельефом. Он полезен и при исследовании функции с единственным минимумом; в этом случае можно обойтись заметно меньшим числом случайных точек. Недостаток метода в том, что надо заранее задать область, в которой выбираются случайные точки. Если мы зададим слишком широкую область, то ее труднее детально исследовать, а если выберем слишком узкую область, то многие локальные минимумы могут оказаться вне ее. Правда, положение несколько облегчается тем, что при спусках траектории могут выйти за пределы заданной области и сойтись к лежащим вне этой области минимумам.
ЗАКЛЮЧЕНИЕ
В работе рассматривались методы нахождения минимума функции одной переменной и функции многих переменных. Поиск минимума функции одной переменной осуществлялся методом золотого сечения, поиск минимума функции многих переменных представлен методами покоординатного спуска, наискорейшего спуска и др.СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
1. Калиткин Н.Н. Численные методы. М.: Наука, 1978. 512с.2. Амосов А.А., Дубинский Ю.А., Копченова Н. В. Вычислительные методы для инженеров. М.: Высшая школа, 1994. 543с.
3. Ракитин В.И., Первушин В.Е. Практическое руководство по методам вычислений. М.: Высшая школа, 1998. 383с.
Приложение 1
Листинг программы:
{Методом покоординатного спуска найти точки локального минимума функции Химмельблау f(x)=(x1*x1+x2-11)*(x1*x1+x2-11)+(x1+x2*x2-7)*(x1+x2*x2-7) с точностью e=0.01}
program spusk;
uses crt;
const n=2; k=2;
type vector=array[1..n] of real;
var i:integer;
d,e,e1,h,h1,z:real;
x:vector; ch:char;
procedure pausa;
begin
writeln;
writeln ('Для выхода нажмите любую клавишу…');
repeat ch:=readkey until ch <> '';
end;
function f(x:vector):real;
var a,b:real;
begin a:=x[1]*x[1]+x[2]-11;
b:=x[1]+x[2]*x[2]-7;
f:=a*a+b*b;
end;
procedure scan (i:integer);
var a:boolean;
d1,z1:real;
begin z:=f(x);
repeat d1:=abs(h1); x[i]:=x[i]+h1; z1:=f(x); a:=(z1>=z);
if a then h1:=-h1/k;
z:=z1;
until a and (d1<e1);
end;
begin
clrscr;
writeln ('Введите координаты начального вектора (x1,x2):');
for i:=1 to n do read (x[i]);
writeln ('Задайте точность нахождения точки min f(x):');
read (e);
h:=0.2; e1:=e/k;
repeat d:=abs(h);
for i:=1 to n do
begin
h1:=h; scan (i);
end;
h:=h/k;
until d<e;
writeln ('Точка минимума: x1=',x[1]:9:6,' ','x2=',x[2]:9:6);
writeln ('Погрешность:',e:9:6);
pausa;
end.
Приложение 2
Результат работы программы:
Введите координаты начального вектора (x1,x2):
1
2
Задайте точность нахождения точки min f(x):
0.01
Точка минимума: x1= 2.996875 x2= 2.000000
Погрешность: 0.010000
Для выхода нажмите любую клавишу.
[1] Множество компактно, если из каждого бесконечного и ограниченного его подмножества можно выделить сходящуюся последовательность.
[2] Множество замкнуто, если предел любой сходящейся последовательности его элементов принадлежит этому множеству.
[3] Это верно не при всяких делениях отрезка, но для деления в соответствии (4) это справедливо.
[4] См. предыдущую сноску.
[5] Квадратичная форма называется положительно определенной, если при любых (за исключением обращающихся одновременно в нуль) она положительна.