Реферат

Реферат Мультиагентные системы

Работа добавлена на сайт bukvasha.net: 2015-10-28

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 26.12.2024





Федеральное агентство по образованию

        Государственное образовательное учреждение

высшего профессионального образования

Тульский государственный университет
КАФЕДРА Автоматизированных информационных и управляющих систем
КОНТРОЛЬНО-КУРСОВАЯ  РАБОТА
по дисциплине ИНТЕЛЛЕКТУАЛЬНЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ.
По теме: «Мультиагентные системы»
Выполнил: студент группы 730981                                      Маслова А.А.
Проверил: преподаватель                                                     Арефьева Е.А.
Тула 2011 г.

Содержание

Введение

1.Основные понятия

2.Рациональный агент

3. Структура мультиагентной системы принятий решений для оценки деятельности предприятия
Заключение


Список литературы


Введение.

Мультиагентные системы созданы для решения различных задач искусственного интеллекта, в которых присутствует несколько участников. Основным понятием является агент.

Агент  — нечто, способное воспринимать свое окружение через сенсоры и изменять его своими действиями.

Современный подход к искусственному интеллекту основан на понятии рационального агента, который всегда старается оптимизировать соответствующую меру полезности своих действий. Например, люди могут рассматриваться как агенты с глазами в качестве сенсоров и способные что-то делать при помощи рук. Роботы способны воспринимать мир через камеры и передвигаться при помощи колес. Для программ графический интерфейс является средством и восприятия, и действия. Однако, агенты редко являются одиночными системами. Чаще они взаимодействуют друг с другом. Системы, содержащие группу агентов, которые могут взаимодействовать между собой и называются мультиагентными системами.
1.   
Основные понятия


Используя понятие «агент», каждый автор или сообщество определяют своего агента с конкретным набором свойств в зависимости от целей разработки, решаемых задач, техники реализации и т. п. критериев. Как следствие, в рамках данного направления появилось множество типов агентов, например: автономные агенты, мобильные агенты, персональные ассистенты, интеллектуальные агенты, социальные агенты и т.д., а вместо единственного определения базового агента – множество определений произвольных типов.

Учитывая вышесказанное, понятие агента целесообразно трактовать как метаимя или класс, который включает множество подклассов. Далее будем придерживаться следующей концепции по этому поводу:

Агент — это развитие известного понятия объект, представляющего абстракцию множества экземпляров предметов реального мира, имеющих одни и те же свойства и правила поведения. Свойства объекта описываются исходной системой, а правила поведения — порождающей системой, чаще всего структурированной (рис. 1). Состояние объекта определяется перечнем его свойств с текущими значениями. Объект со значениями всех его свойств определяет экземпляр, моделью которого является кортеж соответствующего реляционного отношения из системы данных. В число свойств объекта включаются его идентификатор, а также указывающие, описывающие и вспомогательные атрибуты. Последние два типа атрибутов делятся по отношению к методу объекта на входные и выходные (рис. 6). Описательные атрибуты определяют свойства, внутренне присущие объекту, а вспомогательные — его структурные связи с экземплярами других объектов.

http://www.techno.edu.ru:8000/images/pub_en_jour/2005/12/01/0000027912/image010.gif

Рис. 1. Модель интеллектуального агента
Интеллектуальным является объект, поведение которого определяет база знаний. Активный объект, или агент, — это объект, способный изменять свое состояние, используя информацию о состоя­нии смежных объектов. Для этого агенты объединяются в структурированную исходную систему, называемую мультиагентной. Носителем модели такой системы являются объекты и их свойства, а сигнатурой — семантическая сеть, используемая операционной средой для передачи информации, активизирующей поведение агентов. В результате этого формируется некоторое множество экземпляров агентов, являющееся целью всего процесса.

Агент – это аппаратная или программная сущность, способная действовать в интересах достижения целей, поставленных перед ним владельцем и/или пользователем.

Типы агентов
1. интеллектуальные агенты в языковой среде,
2. агенты, созданные с помощью логического программирования,
3. агенты, использующие онтологии для поиска информации .в Интернет




Использование агентов
1. моделирование действий группы беспилотных летательных аппаратов,
2. планирование решения связной задачи на кластере,
3. администрирование и мониторинг информационной системы и распределенной БД,
4. виртуальные игры (в частности, виртуальный футбол).
5. в составе мультиагентных систем.


Таким образом, программные агенты рассматриваются как автономные компоненты, действующие от лица пользователя.

Разработана теория использования мультиагентных систем (МАС), предназначенных для поиска и анализа информации. Одним из факторов интереса к мультиагентным системам является развитие технологий в сети Интернет и соответствующих технологий (GRID), Интернет стал подходящей средой исполнения для распределенных автономных программных систем. Для успешного функционирования в такой среде агенты должны быть способны решить две основные задачи: агенты должны уметь находить друг друга и уметь взаимодействовать между собой. Построенные агенты обладают набором из следующих свойств:
  • способность к обучению: агент настраивается на тренировочных этапах;
  • автономность: агент работает как самостоятельная программа, ставя себе цели и выполняя действия для достижения этих целей;
  • коллаборативность: агент может взаимодействовать с другими агентами несколькими способами, например, играя роль поставщика/потребителя информации или одновременно обе эти роли;
  • способность к рассуждениям: агенты могут обладать механизмами вывода, например, как приводить данные из различных источников к одному виду. Агенты могут специализироваться на конкретной предметной области.
  • коммуникативность: агенты могут общаться с другими агентами;
  • мобильность: способность к передаче кода агента с одного специализированного сервера на другой.

В основу организации МАС положен принцип ассоциативного подхода, который имеет преимущество с точки зрения удобства символьного представления знаний, сосредоточенных в словарях-тезаурусах. Традиционные подходы работы с распределенной информацией одновременно используют данные и вычисления необходимые для получения их путем привнесения данных в вычисления. Этот подход требует от агента значительного уровня интеллекта для принятия решений и фильтрации информации. Адаптационные алгоритмы наделяют мобильных агентов способностью подстраиваться под окружающую обстановку. Мобильные агенты представляют хороший пример реализации распределенных приложений. Первое, перемещаясь к месту расположения электронного ресурса, агент может получить доступ к нему локально и исключить дорогостоящую передачу данных по перегруженным сетям. Это сокращает сетевой трафик, потому что зачастую дешевле послать небольшого агента к источнику данных, чем пересылать все промежуточные данные в определенное место. Второе, агент не нуждается в постоянном соединении с основной машиной (т.е. машиной, откуда агент был запущен). Третье, способности сетевого опознавания дают возможность агентам самостоятельно находить основной компьютер, даже если он изменил свое географическое местоположение. И, наконец, агенты имеют независимость в принятии решений: используя возможность возврата, они могут самостоятельно менять план работы или неправильно поставленные запросы.

В зависимости от концепции, выбранной для организации МАС (мультиагентная система), обычно выделяются три базовых класса архитектур:

·        архитектуры, которые базируются на принципах и методах работы со знаниями;

·        архитектуры, основанные на поведенческих моделях типа «стимул – реакция»;

·        гибридные архитектуры.

В первом случае мы имеем дело с «разумными» агентами и архитектурами, имеющими в качестве основы проектирования и реализации модели, методы и средства искусственного интеллекта.

Первоначально идея интеллектуальных агентов связывалась практически полностью с классической логической парадигмой ИИ. Однако по мере развития исследований в этой области стало ясно, что такие «ментальные» свойства агентов, как, например, убеждения, желания, намерения, обязательства по отношению к другим агентам и т. п., невыразимы в терминах исчисления предикатов первого порядка. Поэтому для представления знаний агентов в рамках данной архитектуры были использованы специальные расширения соответствующих логических исчислений, а также разработаны новые архитектуры.

Принципы реактивной архитектуры возникли как альтернативный подход к архитектуре интеллектуальных агентов. Идея реактивных агентов впервые возникла в работах Брукса, выдвинувшего тезис, что интеллектуальное поведение может быть реализовано без символьного представления знаний, принятого в классическом ИИ.

Реактивными называются агенты и архитектуры, где нет эксплицитно представленной модели мира, а функционирование отдельных агентов и всей системы осуществляется по правилам типа ситуация – действие. При этом под ситуацией понимается потенциально сложная комбинация внутренних и внешних состояний.

Данный подход ведет свое начало с работ по планированию поведения роботов, которые активно велись в ИИ в 70-х годах. Простым примером реализации реактивных архитектур в этом контексте можно считать системы,  где реакции агентов на внешние события генерируются соответствующими конечными автоматами.

Многие исследователи считают, что ни первый, ни второй подходы не дают оптимального результата при разработке агентов и МАС. Поэтому попытки их объединения предпринимаются постоянно и уже привели к появлению разнообразных гибридных архитектур. По сути дела, именно гибридные архитектуры и используются в настоящее время во всех, сколько-нибудь значимых проектах и системах.




2.   
Рациональный агент


Здесь будет описана проблема принятия оптимального решения. Это означает, что агенту на каждом шаге следует выбрать наилучшее действие, исходя из того, что ему известно об окружающем мире. Вводится мера полезности действий агента, которую он постоянно пытается оптимизировать. Рационального агента также называют разумным. В дальнейшем мы главным образом будем рассматривать только вычислительных агентов, т.е. тех, что созданы для решения специальных задач и приводятся в исполнение на вычислительных устройствах.

Принятие решения агентом

Предположим, что на каждом временном шаге t = 1, 2,…, ∞ агент может из конечного набора возможных действий A выбрать какое-то действие at. Интуитивно понятно, что, чтобы действовать рационально, агент должен оценивать и прошлое, и будущее при выборе дальнейших действий. Под прошлым подразумевается то, что агент воспринял и какие действия предпринял до момента времени t, а под будущим - что он ожидает и что собирается потом делать. Обозначим oτ наблюдение агента в момент времени τ, тогда для выбора оптимального действия в момент времени  в общем случае необходимо использовать всю историю наблюденийoτ и историю действий aτ, предшествующую моменту времени t.

Функция π(o1, a1, o2, a2,…, ot) = at, которая отображает набор пар «наблюдение–действие» до момента времени  в оптимальное действие at называется стратегией агента.

Если сможем найти функцию π, осуществляющую данное отображение, то часть задачи об отыскании оптимального решения на основе прошлого будет решена. Однако, определение и реализация такой функции весьма проблематичны; сложная история может содержать большое количество пар наблюдений, которые могут меняться от одной задачи к другой. Более того, сохранение всех наблюдений требует очень большого объема памяти и, соответственно, приводит к росту сложности вычислений. Этот факт приводит к необходимости использования более простых стратегий. Например, агент может игнорировать всю историю наблюдений, за исключением последнего. В этом случае стратегия принимает вид π(ot) = at, который отображает текущее восприятие агента в действие.

Агент, который отображает текущее восприятие o в новое действие at, называется рефлексивным, а его стратегию называютреактивной или стратегией без памяти.

Возникает естественный вопрос: насколько хорошим может быть такой рефлексивный агент? Как мы увидим дальше, он может быть довольно неплохим.

Окружение и свойство Маркова

Из сказанного выше следует, что понятия окружения и агента являются спаренными, так что одно понятие не может быть определено без другого. Фактически, различие между агентом и его окружением не всегда отчетливо, и это иногда осложняет проведению четкой границы между ними. Для простоты предположим, что существует мир, в котором есть один или более агентов, в котором они воспринимают, думают и действуют.

Коллективная информация, которая содержится в окружающем мире в момент времени  и которая важна для исполняемой задачи, называется состоянием мира и обозначается st. Множество состояний мира обозначим через S.

В зависимости от природы задачи, мир может быть дискретным или непрерывным. Дискретный мир характеризуется конечным числом состояний. Примером может служить игра в шахматы. С другой стороны примером непрерывного мира может служить мобильный робот, который может свободно передвигаться в декартовой системе координат. Большинство из существующих технологий искусственного интеллекта созданы для дискретного мира, поэтому мы будем в дальнейшем рассматривать именно его.

Наблюдаемость

Важное свойство, характеризующее мир с точки зрения агента, связано с восприятием. Мы будем говорить, что мир полностью наблюдаем, если текущее восприятие агента ot полностью описывает состояние мира st. В противоположность этому, в частично наблюдаемом мире текущее восприятие o описывает лишь часть информации о состоянии мира, задающую вероятностное распределение P(st | ot между действительными состояниями мира. Таким образом, s можно рассматривать как случайную величину, распределенную на S. Частичная наблюдаемость может быть вызвана двумя фактами. Первый из них — это помехи в сенсорной информации агента. Например, вследствие несовершенства сенсоров, в разные моменты времени агент может воспринимать одно и то же состояние мира по-разному. Возможно также, что для агента некоторые состояния неразличимы.

Свойство Маркова

Рассмотрим снова рефлексивного агента с реактивной тактикой π(ot) = at в полностью обозреваемом мире. Предположение обозреваемости подразумевает, что s = ot, и, таким образом, тактика агента π(st) = at. Другими словами, в обозреваемом мире тактика рефлексивного агента является отображением из состояний мира в действия. Выгода состоит в том, что во многих задачах состояние мира в момент времени t дает полное описание истории до момента времени t.

Про такое состояние мира, которое содержит всю важную информацию о прошлом в конкретной задаче, говорят, что оно является марковским или обладает свойством Маркова.

Из выше сказанного мы можем сделать вывод, что в марковском мире агент может безопасно использовать стратегию без памяти для принятия решения вместо теоретически оптимальной стратегии, которая может требовать много памяти.

До сих пор мы рассматривали, как стратегия агента может зависеть от последнего события и отдельных характеристик окружения. Однако, как мы обсуждали вначале, принятие оптимального решения может также зависеть от оценки будущего.

Стохастические переходы

В каждый момент времени  агент выбирает действие a из конечного множества действий A. После выбора агентом действия мир меняется как его следствие. Модель перехода (иногда называют моделью мира) определят, как меняется мир после совершения действия. Если текущее состояние мира s и агент совершает действие at, мы можем выделить два случая.

1.     В детерминистическом мире модель перехода отображает единственным образом пару «состояние–действие» (stat) в новое состояние st + 1. В шахматах, например, каждый ход изменяет игровую позицию.

2.     В стохастическом мире модель перехода отображает пару «состояние–действие» в распределение вероятности P(st + 1  | st, at состояний. Как и в рассмотренном выше случае с частичной обозреваемостью, st + 1  — это случайная величина, которая может принимать все возможные значения в множестве  с соответствующей вероятностью P(st + 1  | st, at). Самые практические приложения включают стохастические модели перехода, например, движение робота неточно из-за того, что его колеса скользят.

Как мы могли заметить, иногда частичная обозреваемость является следствием неточности восприятия агентом его окружения. Здесь мы видим другой пример, где важна неточность, а именно, мир меняется, когда совершается действие. В стохастическом мире эффект действия агента не известен заранее. Вместо этого есть случайный элемент, который определяет, как меняется мир вследствие действия. Ясно, что стохастичность при переходе из одного состояния в другое вносит дополнительные сложности в задаче принятия оптимального решения агентом.

Для классического искусственного интеллекта целью отдельной задачи является желаемое состояние мира. Таким образом,планирование определяется как поиск оптимальной стратегии. Когда мир детерминистический, планирование переходит в поиск по графу для каждого варианта существующего метода. В стохастическом же мире может не перейти в простой поиск по графу, так как переход из состояния в состояние не является детерминистическим. Теперь агент при планировании может принимать в расчет неточности переходов. Чтобы понять, как это может быть использовано, заметим, что в детерминистическом мире агент предпочитает по умолчанию конечное состояние неконечному. В общем случае, агент сохраняет настройки при переходе из состояния в состояние. Например, робот, играющий в футбол, будет стараться забить очко, стараться меньше стоять с мячом перед пустыми воротами и т.п.  Чтобы формализовать это понятие, свяжем с каждым состоянием  вещественное числоU(s), называемое полезностью состояния этого агента. Формально, для двух состояний s  и s*  выполняется U(s) > U(s*) тогда и только тогда, когда агент предпочитает состояние  состоянию s*, а U(s)  = U(s*), если для агента эти состояния неразличимы. Интуитивно понятно, что чем выше полезность, тем выгоднее состояние, в котором находится агент. Заметим, что в мультиагентных системах желаемое состояние для одного из агентов может не быть желаемым для остальных. Например, в футболе забивание гола является нежелательным для противоположной команды.

Принятие решения в стохастическом мире

Теперь возникает вопрос, как агент может эффективно использовать функции полезности для принятия решения. Предположим, что у нас мир стохастический с моделью перехода P(st + 1  | st, at), находящийся в состоянии s до тех пор, пока агент обдумывает, какое действие ему совершить. Пусть U(s)  — функция полезности состояния какого-то агента. Предположим, что у нас только один агент. Тогда принятие решения основано на предположении, что оптимальное действие агента должно быть максимумом полезности, т.е.

a*t = max∑P(st + 1 | st, at)·U(st + 1),

где суммирование выполняется по всевозможным состояниям st + 1. Чтобы увидеть, насколько полезно действие, агент должен умножить полезность каждого возможного конечного состояния на вероятность попадания в это состояние, и потом просуммировать полученный результат. Тогда агент может выбрать действие a* с максимальной суммой. Если каждое состояние мира имеет величину полезности, агент может произвести вычисления и выбрать оптимальное действие для каждого возможного состояния. Тогда агент со стратегией может оптимально переводить состояние в действие.


3.    
Структура мультиагентной системы принятий решений для оценки деятельности предприятия


Интеллектуальные мультиагентные системы принятия решений предназначены для оценки качества организационно-технических и экономических решений в процессе деятельности предприятия. Для работы в быстроизменяющихся условиях предприятиям необходимо постоянно трансформировать свои производственные структуры и структуры бизнес-процессов. При этом становиться неизбежным привлечение сторонних специалистов из  различных областей. Оценка предлагаемых решений является сложным и постоянным видом деятельности, требующим участия высококвалифицированных экспертов, которые, как правило, территориально удалены друг от друга. Этим обусловлена актуальность распределенной компьютерной поддержки процессов принятия решений, которая может быть реализована с применением мультиагентных систем.

Общая схема принятия решений включает следующие этапы:

1)    спецификация требований;

2)    генерация решений;

3)    оценка альтернатив;

4)    выбор эффективного решения.

Оценку решений проводит рабочая группа, состоящая из руководителя, аналитика и экспертов.

Руководитель формирует набор показателей, которые будут использоваться для оценки проектов; подбирает состав группы экспертов; составляет персональный график выполнения задач экспертами. Каждый эксперт работает по индивидуальному сценарию. Аналитик высказывает свое мнение о результатах проведенной экспертами работы.

Для поддержки группового процесса принятия решений используется программная реализация метода анализа иерархий:
  • формирование и согласование иерархической структуры показателей;
  • оценка и согласование качественных показателей проекта;
  • оценка и согласование важности показателей;
  • ранжирование альтернативных решений и согласование результатов.

На каждом этапе предусмотрены процедуры согласования экспертных мнений.

Ядром мультиагентной системы является менеджер знаний,  использующий три внешних компонента:
  • информационную модель проблемной области в виде упорядоченного набора показателей качества решений;
  • средства технической и программной поддержки;
  • множество типов пользователей (руководитель, координатор, эксперт, аналитик).

Для координации работы коллектива экспертов используется двухуровневый механизм согласования. Каждый из экспертов представлен агентом, в задачу которого входит оценка предлагаемых руководителем альтернатив по заданному набору показателей качества. С помощью редактора знаний руководитель формирует задания экспертам и проводит анализ полученной от них информации. Задача координации поведения агентов возложена на агента-координатора. Результатом работы системы являются согласованные экспертные оценки, на основании которых производится многокритериальное ранжирование альтернатив.

Основные функции агентов в системе:

Агент-руководитель:
  • предоставляет набор процедур для облегчения работы руководителя в распределенной системе;
  • вычисляет конечный результат на основании данных, полученных от других агентов;
  • отслеживает согласованность решения, вырабатываемого группой;
  • предоставляет средства визуализации результатов работы;
  • подготавливает сообщения агенту-координатору;
  • выполняет почтовые функции в распределенной среде.

Агент-координатор:
  • обеспечивает выполнение пошагового алгоритма принятия решения;
  • поддерживает целостность баз данных системы на групповом уровне и вносит в них необходимые изменения;
  • подготавливает диалоговые формы для информационного обмена через Интернет.

Агент-эксперт:
  • поддерживает выполнение текущего шага задания;
  • готовит сообщение агенту-координатору;
  • поддерживает целостность локальных баз данных;
  • выполняет почтовые функции в распределенной среде.

Работа агентов осуществляется следующим образом. Руководитель формирует задания, оперируя справочниками, содержащими знания об экспертах, показателях качества и решениях, требующих рассмотрения. Задание в виде входного сообщения поступает агенту-координатору, определяющему состав изменений, которые необходимо сделать в базах данных на локальном уровне. Координатор с помощью предоставленного ему набора функций готовит информацию для всех агентов-экспертов рабочей группы. Агенты-эксперты выполняют задания, предназначенные для своих пользователей, анализируя поступившие от координатора сообщения, и отсылают ему ответные сообщения.

Агент-координатор собирает сообщения о готовности выполненных заданий от всех членов группы. При выполнении всего пакета заданий его состояние изменяется, и посылается сообщение агенту руководителя.

Руководитель может выполнять проверку согласованности экспертных суждений либо на основе вычислений, либо с помощью логического анализа предоставленной ему информации. Решение руководителя о степени согласованности суждений посылается агенту-координатору, который продвигает задание на следующий шаг или возвращает экспертов на предыдущий этап в целях достижения лучшей согласованности.

Заключение

Итак,  многоагентная система (МАС, англ. Multi-agent system) — это система, образованная несколькими взаимодействующими интеллектуальными агентами. Многоагентные системы могут быть использованы для решения таких проблем, которые сложно или невозможно решить с помощью одного агента или монолитной системы (англ.). Примерами таких задач являются онлайн-торговля, ликвидация чрезвычайных ситуаций, и моделирование социальных структур.

В многоагентной системе агенты имеют несколько важных характеристик:
  • Автономность: агенты, хотя бы частично, независимы
  • Ограниченность представления: ни у одного из агентов нет представления о всей системе, или система слишком сложна, чтобы знание о ней имело практическое применение для агента.
  • Децентрализация: нет агентов, управляющих всей системой

Обычно в многоагентных системах исследуются программные агенты. Тем не менее, составляющими мультиагентной системы могут также быть роботы, люди или команды людей. Также, многоагентные системы могут содержать и смешанные команды.

В многоагентных системах может проявляться самоорганизация и сложное поведение даже если стратегия поведения каждого агента достаточно проста. Это лежит в основе так называемого роевого интеллекта.

Агенты могут обмениваться полученными знаниями, используя некоторый специальный язык и подчиняясь установленным правилам «общения» (протоколам) в системе. Примерами таких языков являются Knowledge Query Manipulation Language (KQML) и FIPA’s Agent Communication Language (ACL).
Список литературы:

1.Гаврилова Т. А., Хорошевский В. Ф.Базы знаний интеллектуальных систем. – СПб.: Питер, 2000.

2.Смирнов А. В., Шереметов Л. Б. Многоагентная технология проектирования сложных систем.

3.Городецкий В.И. Многоагентные системы: современное состояние исследований и перспективы //Новости искусственного интеллекта, н.1, 1996.

4.Борщёв А. От системной динамики и традиционного ИМ – к практическим агентным моделям: причины, технология, инструменты/ www.gpss.ru.

5. http://aivanoff.blogspot.com/2007/12/blog-post_18.html

6. Андрейчиков А.В. Андрейчикова О.Н.  Интеллектуальные информационные системы: Учебник для вузов



1. Реферат на тему Saibaba Essay Research Paper On November 23
2. Реферат на тему Денежно кредитная политика ЦБ РФ 2
3. Реферат на тему Chaos Theory Essay Research Paper Chaos TheoryWhen
4. Реферат Инвазионные болезни птиц
5. Реферат Правовий статус президенту України адміністрація президента РНБО
6. Реферат Кинематическое описание положения тела человека
7. Реферат на тему Философия Н Ф Федорова
8. Диплом Торгово-развлекательные центры
9. Реферат на тему Экологическая обстановка в г Ростове на Дону
10. Реферат Парламент