Уральское отделение Российской академии наук
Институт математики и механики
Алгоритмы и программные средства параллельных
вычислений -- 1998. Вып. 2




ПАРАЛЛЕЛЬНЫЙ АЛГОРИТМ ПРЯМОГО
ПОИСКА МИНИМУМА ФУНКЦИИ МНОГИХ
ПЕРЕМЕННЫХ

А.Г. Иванов
Рассматриваются три варианта параллельного алгоритма поиска точки минимума скалярной функции. Предполагается, что значение функции является результатом работы численной процедуры. Время расчета одного значения, в зависимости от точки вычисления, может изменяться в несколько раз. Параллельная программа написана на языке Си для системы МВС-100. Тестирование проведено на задаче о брахистохроне с трением.

1.  Варианты последовательного алгоритма

Рассматриваемый алгоритм создан на основе метода прямого поиска, описанного в [1] как метод Хука-Дживса. Общая идеология этого метода состоит в чередовании поиска вокруг базовой точки, при котором происходит определение направления убывания функции, и поиска по образцу, при котором происходит корректируемое движение по направлению убывания.

В оригинальном методе Хука-Дживса, как при поиске вокруг базовой точки, так и при поиске вокруг образца, применен существенно последовательный алгоритм - координаты текущей точки для вычисления зависят от значения функции в предыдущей точке. Это не позволяет провести распараллеливание. Кроме того, алгоритм имеет некоторую анизотропию - предпочтительным является направление возрастания аргумента функции. При распараллеливании было разработано три варианта алгоритма поиска минимума функции многих переменных. Эти алгоритмы различаются глубиной перебора. Алгоритм 1 наиболее близок к оригинальному методу Хука-Дживса. Ввиду того, что на некоторых задачах метод Хука-Дживса дает неудовлетворительные результаты, были разработаны алгоритмы 2 и 3, отличающиеся большей степенью перебора. Применение последних алгоритмов повышает вероятность нахождения глобального минимума.

1.1  Алгоритм 1

В алгоритме 1, как при поиске вокруг базовой точки, так и при поиске вокруг образца, применяется следующее правило - проверяются все точки, у которых только одна координата отличается от координат точки, вокруг которой происходит поиск на текущий шаг:

P = м
н
о
x:  $ i О {
1,n
 
}  | xi - xi* | = h,  xj = xj*, j О {
1,n
 
} \i ь
э
ю
.
Здесь P - множество точек поиска; x* - точка (исходная), вокруг которой происходит поиск; n - размерность вектора x; h - текущий шаг поиска. Другими словами, перебираются все точки, лежащие на координатных осях и отстоящие от исходной на h.

Таким образом, число точек при поиске вокруг точки x* в этом алгоритме - 2 × n, тогда как в методе Хука-Дживса число точек при поиске колеблется от n до 2 × n.

1.2  Алгоритм 2

В алгоритме 2 при поиске вокруг образца без изменений используется алгоритм метода Хука-Дживса.

При поиске вокруг базовой точки в этом алгоритме перебирается большое количество точек:

P = м
н
о
x:  " i О {
1,n
 
}  | xi - xi* | = h ь
э
ю
.
Другими словами, перебираются все точки - вершины гиперкуба размерности n с центром в исходной точке, рeбра которого параллельны координатным осям. Таким образом, число точек при поиске вокруг точки x* в этом алгоритме - 2n.

1.3  Алгоритм 3

Алгоритм 3 отличается от алгоритма 2 еще большим перебором при поиске вокруг базовой точки:

P = м
н
о
x: $M М {
1,n
 
| xi - xi* | = h, xj = xj*, i О M, j О {
1,n
 
}\M ь
э
ю
.
Перебираются все точки, для каждой из которых часть координат совпадает с координатами исходной точки, а остальные отличаются на величину h.

Число точек при поиске вокруг x* в этом алгоритме - 3n - 1.

2.  Параллельные алгоритмы и их реализация

Алгоритм прямого поиска, примененный для решения задачи поиска минимума, является последовательным по своей структуре. Но, несмотря на это, он поддается распараллеливанию на этапе поиска вокруг базовой точки.

Распараллеливание ведется по схеме процессорной фермы. Задача-мастер реализует алгоритм поиска минимума функции, обращаясь, по необходимости, к задачам-рабочим для вычисления значений минимизируемой функции. Рабочий принимает задание от мастера, вычисляет значения функции в точках задания, находит их минимум и отправляет результат мастеру. Обобщенная блок-схема работы алгоритма задачи-рабочего показана на рис. 1.



Рис. 1. Алгоритм задачи-рабочего

2.1  Алгоритм работы задачи-мастера

На рис. 2 приведена обобщенная блок-схема задачи-мастера. Разъясним подробнее смысл некоторых пунктов алгоритма.



Рис. 2: Алгоритм задачи-мастера

Расчет длины задания для рабочего. Длина задания - число точек, которые обрабатываются рабочим как единое целое, - вычисляется по формуле

Lpak = й
к
л
1
Kp
× k
NCPU
щ
ъ
ы
,
где k - общее число точек поиска; NCPU - число процессорных элементов (включая мастера), задействованных на решение задачи; Kp - задаваемый пользователем коэффициент (Kp Ё 1). Так, если Kp = 1 и число точек поиска кратно числу процессоров, то во время обработки одного поиска каждый процессор должен получить по одному пакету.

Выдача задания рабочим. Если есть свободные рабочие и до конца поиска осталось точек не меньше чем Lpak, то на свободный рабочий посылается пакет с заданием. Таким образом, если Kp = 1, то мастер рассчитывает при одном поиске Lpak+ mod (k/NCPU) точек, где под mod(M/N) подразумевается остаток от целочисленного деления.

Коррекция длины пакета. Эффективная загрузка процессоров получается, когда исключаются ситуации, при которых один процессор работает, а остальные ожидают результатов; т.е. все процессоры должны, по возможности, завершить работу одновременно. Для достижения этого, с некоторого момента по мере приближения к концу поиска, первоначальная длина пакета уменьшается. Эффективный алгоритм такой коррекции находится в стадии разработки.

Вычисление точки мастером. На этом этапе происходит вычисление на главном процессоре одной из точек поиска. Значение функции в этой точке сравнивается с текущим минимумом и, при необходимости, обновляет его.

Под обработкой приема от рабочих подразумевается проверка завершенности приема результатов счета от рабочего. Если прием завершен, то принятая минимальная точка пакета сравнивается с текущим минимумом и, при необходимости, обновляет его.

В конце поиска может возникнуть ситуация, когда мастеру считать уже нечего, а от рабочих результаты еще не поступили. В этом случае реализуется цикл, соответствующий стрелке <<Нет>> от условного блока Все приемы состоялись?.

Минимум найден? Если итерации поиска необходимо продолжать, то в зависимости от результатов поиска вокруг базовой точки либо происходит переход к поиску по образцу, либо осуществляется новый цикл поиска вокруг базовой точки с уменьшенным значением h.

2.2  Структура пакетов

Приведем вид пакета с заданием, передаваемый от мастера к рабочему:

typedef struct to__worker
{

double yb[MAXN]; /* координаты базовой точки */
double h; /* шаг */
long n0; /* первый вычисляемый номер */
long n1; /* последний вычисляемый номер */
} TO_WORKER;

По координатам точки, вокруг которой происходит поиск, текущему шагу и номеру точки однозначно (для каждого алгоритма) определяются координаты тестируемой точки. Использование для идентификации точки одной переменной типа long накладывает ограничение на максимальную размерность задачи: n ё 31 для алгоритма 2 и n ё 19 для алгоритма 3. Отметим, что решение задач с размерностью, превышающей данные ограничения, будет занимать огромное время даже при использовании МВС-100. Пакет с результатом, передаваемый от рабочего к мастеру:

typedef struct to__master
{

long nmin; /* номер минимума */
double yr[MAXN+1]; /* координаты
минимума со значением функции */
}
TO_MASTER;

В этой структуре содержится избыточная информация - по номеру точки легко восстанавливаются координаты точки. Но при малом MAXN потери на передачу большего массива будут неощутимы. Следует отметить, что такая избыточность помогла обнаружить ошибку в одном из процессорных узлов.

2.3  Отличия в реализации алгоритма 1 от алгоритмов 2 и 3

В алгоритмах 2 и 3 алгоритм поиска вокруг образца остался таким же, как и в исходном методе Хука-Дживса. Поэтому распараллеливание поиска по образцу в этих алгоритмах признано нецелесообразным, так как число точек, вычисляемых при поиске вокруг образца, пренебрежимо мало по сравнению с числом точек, вычисляемых при поиске вокруг базовой точки.

В алгоритме 1 при поиске вокруг образца применен алгоритм поиска вокруг базовой точки. Этот алгоритм распараллелен. Для алгоритма 1, который допускает большую размерность задачи, неэффективность пакета TO_MASTER становится существенной. Ведутся работы по созданию более эффективного алгоритма и пакета для алгоритма 1.

3.  Результаты счета. Анализ эффективности распараллеливания

На рис. 3-6 приведены графики времени счета для одной из постановок задачи о брахистохроне с трением [2, 3]. Графики, на которых по горизонтальной оси откладывается число процессоров, а по вертикальной оси - время, во многих случаях не обладают достаточной выразительностью даже при использовании логарифмических координат. Введем следующее понятие - относительное время TN*, вычисляемое по формуле

TN* = N TN
T1
.
Здесь N - число процессоров; TN - реальное время счета на N процессорах; T1 - время счета при решении задачи на одном



Рис.  3. Время счета для алгоритма 2, Kp = 1

процессоре. Можно указать следующие свойства TN*:

 - T1* 1,

 - TN* Ё 1 (может нарушаться в отдельных случаях),

 - при <<абсолютном>> распараллеливании TN* = 1.



Рис. 4. Время счета для алгоритма 2, Kp = 3

На рис. 3, 4, в верхней части помещены графики зависимости времени счета от числа процессоров (используется разный масштаб для разного числа процессоров). Верхние кривые - время брутто (от начала считывания исходных данных до конца вывода результатов), нижние кривые - время нетто (время << Метода прямого поиска>>, см. рис. 2). В отдельных случаях проводились неоднократные запуски при постоянном числе процессоров, этим значениям N соответствуют вертикальные участки графиков (особенно это заметно на рис. 4).

В нижней части рис. 3, 4, показано относительное время в зависимости от числа процессоров. Графики получены при усреднении значений времени брутто.



Рис. 5. Сравнение относительного времени счета при Kp = 1 и Kp = 3



Рис. 6. Время счета для алгоритма 3, Kp = 1

На рис. 3, 4 задача о брахистохроне сводилась к минимизации функции 19 переменных, применялся алгоритм 2. Для рис. 3 коэффициент Kp = 1 и видны характерные <<провалы>> при числе процессоров 8, 16, 32, т.е. когда число процессоров равно степени двойки. В этом случае число точек кратно числу процессоров, следовательно, mod(k/N) = 0. На рис. 4 (Kp = 3) разброс результатов для числа процессоров от 33 до 40 объясняется, видимо, попаданием задачи на разные вычислительные поля, содержащие процессоры разного быстродействия. Отсутствие такого эффекта для случая рис. 3 объясняется, возможно, тем, что при Kp = 1 срабатывает эффект торможения счета медленными процессорами.

На рис. 5 для сравнения приведено относительное время при Kp = 1 и Kp = 3. Видно, что для N ё 32 коэффициент Kp = 3 дает лучшую эффективность. При большем числе процессоров однозначно выбрать эффективное значение Kp на данном этапе исследований не уда└тся.

Для рис. 6 решение задачи о брахистохроне сводилось к минимизации функции 11 переменных, применялся более переборный алгоритм 3, Kp = 1. В этом случае легко объясняются провалы при числе процессоров 9, 23, 27 и 46 (9 = 32, 27 = 33, 311-1 = 2 ×23 ×3851).

4.  Дальнейшие направления разработки программы

- Разработка эффективного алгоритма коррекции длины пакета в конце поиска.

- Улучшение начальной части алгоритма, ответственной за раздачу исходной информации. При большом числе процессоров различие между временем брутто и временем нетто может составлять более трети всего времени счета (рис. 6).

- Реализация и отладка алгоритма 1, что позволит минимизировать функции большого числа переменных (более 1000).

- Для решения задач вариационного исчисления полезно создание программы, в которой начальный расчет проводится алгоритмом 2 или 3 при малой размерности оптимизируемой функции, затем уточняется алгоритмом 1 для функции большой размерности.


СПИСОК ЛИТЕРАТУРЫ


  1. Банди Б. Методы оптимизации. Вводный курс. М.: Радио и связь, 1988. 128 с.
  2. Янг Л. Лекции по вариационному исчислению и теории оптимального управления. М.: Мир, 1974. 488 с.
  3. Haws, L., Kiser, T Exploring the brachistochrone problem // Amer. Math. Monthly. 1995. V. 102. P. 328-336.

Иванов А.Г. Параллельный алгоритм прямого поиска минимума функции многих переменных // Алгоритмы и программные средства параллельных вычислений: [Сб. науч. тр.]. Екатеринбург: УрО РАН, 1998, Вып. 2, С.110-122.


File translated from TEX by TTH, version 1.30.
PostScript-версия публикации (155K).