Принципы автоматизации Систем Автоматического Управления.Методы и Алгоритмы

Рефераты, курсовые, дипломные, контрольные (предпросмотр)

Тип: Реферат. Файл: Word (.doc) в архиве zip. Категория: Информатика, IT
Адрес этого реферата http://referat-kursovaya.repetitor.info/?essayId=25067 или
Загрузить
В режиме предпросмотра не отображаются таблицы, графики и иллюстрации. Для получения полной версии нажмите кнопку «Загрузить». Рефераты, контрольные, дипломные, курсовые работы предоставляются в ознакомительных целях, не для плагиата.
Страница 1 из 8 [Всего 8 записей]1 2 3 4 5 » ... Последняя »

Введение

В этом реферате мной изложены широко распространенные алгоритмы и методы поиска, сортировки, сглаживания, накопления, оптимизации, а так же здесь рассматриваются наиболее общие вопросы автоматизированного проектирования Систем Автоматизированного Управления, основные этапы, уровни автоматизации процесса проектирования.

Весь материал мной подобран из справочника "Справочник по теории автоматического управления 1987г".

Алгоритмы.

Алгоритм локального параметрического поиска.

В случае параметрического синтез САУ, алгоритм решения задачи оптимизации имеет параметрический характер.

C[N+1] = C[N] + C[N+1] (13.3.1)

Где приращение C[N+1] вектора параметров C[N] определяется алгоритмом поиска, использующим приращение:

Q[N] = Q[N] - Q[N-1] (15.2.7)

в котором Q[N] = Q (C[N]).

Алгоритм случайного спуска.

Этот алгоритм построен с помощь только двух операторов:

* оператора случайного шага () и

* оператора повторения предыдущего шага (+),

которые взаимодействуют как показано на рисунке 15.3.1 , где этот алгоритм изображен в виде графика с условными переходами (условия переходов рядом с соответствующими дугами переходов).

Рекуррентная форма записи этого алгоритма имеет вид:

где a - величина шага ()

- единичный случайный вектор распределенный по всем направлениям пространства оптимизированных параметров {C}

Алгоритм имеет очень простую геометрическую интерпретацию. Это по сути дела, спуск шагами а в выбранном направлении . Как видно это стохастический аналог известного алгоритма наискорейшего спуска, в котором спуск производится в антиградиентом направлении.

Преимущество алгоритма случайного спуска заключается в том, что здесь нет затрат на определение градиентного направления.

Алгоритм случайного спуска опирается на следующие очевидное предположение относительно объекта оптимизации: вероятность удачи (Q 0) в ранее удачном направлении больше, чем в случайном, т.е. целесообразно повторить удачные шаги, а при неудаче (Q 0) делать случайный шаг, т.е. обращаться к оператору .

Такая ситуация обычно имеет место вдали от экстремума Соп, что и определяет рекомендуемую область применения для алгоритма случайного спуска.

Случайный поиск с возвратом.

Этот метод поиска моделирует метод проб и ошибок. Алгоритм этого метода построен из двух операторов: оператора случайного шага () и оператора возврата (-). Граф алгоритма с нелинейной тактикой показан на рисунке 15.3.2. Его работоспособность обеспечивается за счет того, что используется только удачные случайные шаги, а неудачные устраняются (точнее, исправляются) с помощью оператора возврата (-). Рекуррентная формула алгоритма имеет вид:

Рассмотрим область целесообразного использования этого алгоритма.

Анализ показывает, что его следует применять в ситуациях со значительной нелинейностью функционала Q(C), когда целесообразно повторить удачные шаги, так как вероятность повторного успеха в этом случае мала. Такой бывают ситуация в районе экстремума Соп или на дне "оврага" минимизируемой функции. Именно в таких случаях целесообразно применение этого алгоритма.

Релаксационный алгоритм случайного спуска.

Введение возврата в алгоритм случайного спуска (15.3.1) обеспечивает ему релаксационные свойства, т.е. не увеличивает минимизируемый функционал. Граф этого алгоритма изображен на рисунке 15.3.3. Его рекуррентная формула имеет вид:

Здесь - знак конъюнкции, требующий одновременности выполнения событий, указанных в скобках.

Случайный поиск по наилучшей пробе.

Алгоритм имеет вид:

где оп - случайный вектор, минимизирующий функционал в районе точки С[N]:

j - случайные независимые единичные векторы, с помощью которых обеспечивается режим случайных проб вокруг точки C[N].

Если величина g мала и функционал в районе С[N] достаточно гладкий, то можно повысить эффективность алгоритма следующим образом:

,

В этом случае шаг делается по наилучшей пробе _, если модуль приращения функционала при этом больше модуля его приращения при наихудшей пробе +, и по наихудшей пробе + в обратном случае.

Адаптивные параметрические алгоритмы случайного поиска.

Многочисленные ситуации, складывающиеся в процессе решения задачи оптимизации типа "холм", "яма", "плоскогорье", "хребет", "овраг" и т. д. Заставляют искать средства такой перестройки алгоритма поиска, чтобы эти ситуации преодолевались бы с минимальными затратами. Такого рода перестройка алгоритма, реализуемая формально, является адаптацией этого алгоритма.

Таким образом, задача адаптации процесса поиска возникает всегда, когда алгоритм необходимо изменять в процессе поиска, чтобы поддержать его эффективность на необходимом уровне. Проблема адаптации возникает всегда при оптимизации сложных объектов, когда нельзя заранее указать на ситуацию, в которую попадает алгоритм поиска. Такого рода неопределенность типична для задач проектирования систем автоматического управления.

Параметрическая адаптация алгоритма случайного поиска опирается на то, что параметрами алгоритма случайного поиска являются величина рабочего шага a и параметра плотности распределения p() случайного шага . Заметим, что случайный поиск отличается от любого детерминированного именно наличием такого распределения, изменение которого позволяет адаптировать случайный поиск. Этой "рукоятки" управления процессом поиска не имеют регулярные алгоритмы, что выгодно отличает случайный поиск.

Рассмотрим адаптацию по каждому на указанных факторов отдельно.

Адаптация величины рабочего шага.

Она связана с необходимостью уменьшить величину шага по мере приближения к положению экстремума Cоп Очевидно, что в процессе поиска ввиду априорной неопределенности необходимо увеличивать и уменьшать рабочий шаг. Очень плодотворной эвристикой оказалась следующая: нужно уменьшать величину a при неудачном случайном шаге и увеличивать при удачном:

где в соответствии с указанными соображениями 11; 21.

Значения параметров 1 и 2 алгоритма адаптации (15.3.10) зависят от вероятности того, что случайный шаг будет удачен, т. е. От вероятности события Q0. В процессе адаптации следует стремиться к тому значению шага, при котором приближение к цели было бы наибольшим. Пусть вероятность удачного случайного шага при такой оптимальной величине шага равна P .Тогда оптимальные значения 1 и 2 связаны следующими соотношениями (15.2):

где величина P с ростом n стремится к 0,27. Используя это выражение, можно добиться оптимального режима адаптации алгоритма, что позволяет значительно убыстрить решение задачи оптимизации.

Адаптация распределения случайного шага.

Она заключается в том, что получаемая на каждом шаге поиска информация об успехе или неуспехе случайного шага используется для изменения этого распределения так, чтобы эффективность процесса поиска возрастала.

Пусть p() плотность распределения случайного шага . Основной характеристикой всякого распределения является его математическое ожидание E[]. Изменяя эту характеристику, можно эффективно воздействовать на процесс поиска. Практически это сведется к добавлению вектора V к 0 - случайному вектору с нулевым математическим ожиданием (E[0]=0)

откуда следует, что E[]=V , т.е. имеет место "снос" процесса поиска в направлении V. Естественно, что этот снос должен быть направлен в сторону уменьшения функционала Q(C). Вектор V должен при этом отражать предысторию процесса поиска и таким образом выявлять перспективное направление движения при оптимизации.

Здесь помогает довольна очевидная эвристика: направление V следует формировать как взвешенную сумму случайных шагов, причем удачные шаги (Q0) следует брать с положительными весами, а неудачные с отрицательными. При этом предпочтение должно отдаваться более свежей информации. Эта эвристика реализуется, например, такой простой рекуррентной формулой адаптации в процессе поиска:

Случайный поиск, снабженный такой адаптацией вероятностных свойств, обладает, как правило, повышенным быстродействием. Для этого ситуация, которая складывается в процессе оптимизации, не должна изменяться слишком быстро, иначе не к чему будет адаптироваться. Поэтому введение адаптации такого рода (ее часто называют самообучением) не всегда улучшает процесс поиска, но и не ухудшает его.

RSSСтраница 1 из 8 [Всего 8 записей]1 2 3 4 5 » ... Последняя »


При любом использовании материалов сайта обязательна гиперссылка на сайт «Репетитор».
Разработка и Дизайн компании Awelan
www.megastock.ru
Проверить аттестат