1 / 53

МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ

Институт оптико-нейронных технологий РАН www.iont.ru Ассоциация нейроинформатики www.ni.iont.ru Редько Владимир Георгиевич vg redko@gmail.com. МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ. План. Кибернетический подход к эволюции В.Ф. Турчина Задача моделирования когнитивной эволюции

luana
Download Presentation

МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Институт оптико-нейронных технологий РАН www.iont.ru Ассоциация нейроинформатики www.ni.iont.ru Редько Владимир Георгиевич vgredko@gmail.com МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ

  2. План • Кибернетический подход к эволюции В.Ф. Турчина • Задача моделирования когнитивной эволюции • Направление исследований «Адаптивное поведение» • Модель эволюции популяции адаптивных агентов • Проект программы будущих исследований (в порядке обсуждения) • Данная презентация: www.ni.iont.ru/r.zip

  3. Кибернетический подход к эволюции В.Ф. ТурчинаВ.Ф. Турчин ввел термин «Эволюционная кибернетика»

  4. Феномен науки • В.Ф. Турчин. Феномен науки: Кибернетический подход к эволюции – М.: Наука, 1993 (1-е изд.). М.: ЭТС, 2000 (2-е изд.).

  5. Теория метасистемных переходов В.Ф.Турчина Схема метасистемного перехода. Si- системы нижнего уровня, C - управление объединенными подсистемами, S' - система нового уровня иерархии

  6. Теория метасистемных переходов В.Ф.Турчина • Метасистемный переход: объединение ряда подсистем Si нижнего уровня и появление дополнительного механизма управленияC объединенными подсистемами. • В результате метасистемного перехода формируется система S' нового уровня (S' = C + S1+ S2 +…+ Sn), которая может быть включена как подсистема в следующий метасистемный переход. • Перед метасистемным переходом -- количественное накопление "потенциала развития" в подсистемах Si • После метасистемного перехода -- размножения и развития подсистем предпоследнего уровня иерархии. • Метасистемный переход -- кибернетический аналог физического фазового перехода.

  7. Теория метасистемных переходов В.Ф.Турчина В.Ф. Турчин характеризует биологическую эволюцию следующими метасистемными переходами: - управление положением = движение - управление движением = раздражимость (простой рефлекс) - управление раздражимостью = (сложный) рефлекс - управление рефлексами = ассоциации (условный рефлекс) - управление ассоциациями = человеческое мышление - управление человеческим мышлением = культура

  8. ЗАДАЧА ИССЛЕДОВАНИЯ КОГНИТИВНОЙ ЭВОЛЮЦИИ

  9. Гносеологическая проблема Почему логический вывод, сделанный человеком, применим к реальному объекту в природе?

  10. Надо разобраться, как наша логика возникла в процессе когнитивной эволюции

  11. Можем ли мы исследовать эволюционные корни нашей логики? Математик при доказательстве теорем использует правило modusponens: «если имеет место А, и из А следует В, то имеет место В», или {А, A --> B} => B После выработки условного рефлекса у собаки И.П. Павлова в памяти формируется связь «за УС должен последовать БС» (УС – условный стимул, БС – безусловный стимул), или УС --> БС. Когда собаке предъявляют УС, то она делает «логический вывод»: {УС, УС --> БС} => БС

  12. Методология исследований Использовать «метод последовательных приближений». Первое приближение -- исследовать принципы работы «интеллектуальных изобретений» эволюции, на функциональном уровне, не акцентируя особое внимание на биологической элементной базе (молекулы, нейроны,…). Должен быть набор моделей «интеллекта» разного эволюционного уровня. Использовать задел направления «Адаптивное поведение»

  13. НАПРАВЛЕНИЕ ИССЛЕДОВАНИЙ «АДАПТИВНОЕ ПОВЕДЕНИЕ»

  14. Адаптивное ПоведениеFrom Animal to Animat – модели адаптивного поведения животного и робота • Первая конференция: Париж, 1990 г. (Ж.-А. Мейер, С. Вильсон) • Основной подход – конструирование и исследование искусственных (в виде компьютерной программы или робота) "организмов" (аниматов, агентов), способных приспосабливаться к внешней среде. • ANIMAL + ROBOT = ANIMAT • Программа-минимум – исследовать архитектуры и принципы функционирования, которые позволяют животным или роботам жить и действовать в переменной внешней среде • Программа-максимум – попытаться проанализировать эволюцию когнитивных способностей животных и эволюционное происхождение интеллекта человека • Предшественники: М.Л. Цетлин, М.М. Бонгард, Д.А. Поспелов Гаазе-Рапопорт М.Г., Поспелов Д.А. От амебы до робота: модели поведения. М.: Наука, 1987, УРСС, 2004.

  15. Адаптивное Поведение • International Society for Adaptive Behaviorhttp://www.isab.org/ • Журнал Adaptive Behavior • Конференции SIMULATION OF ADAPTIVE BEHAVIOR (SAB'06) 25-30 September 2006, Roma, Italy

  16. Исследователи адаптивного поведения AnimatLab (Paris) (Париж, руководитель – один из инициаторов анимат-подхода Ж.-А. Мейер) Широкий спектр исследований адаптивных роботов и адаптивного поведения животных. Подход AnimatLab предполагает, что система управления анимата может формироваться и модифицироваться посредством 1) обучения, 2) индивидуального развития (онтогенеза) и 3) эволюции. http://animatlab.lip6.fr/index.en.html

  17. Исследователи адаптивного поведения Лаборатория искусственного интеллекта в университете Цюриха (руководитель Рольф Пфейфер) Основной подход – познание природы интеллекта путем его создания ("understanding by building"). Подход включает в себя 1) построение моделей биологических систем, 2) исследование общих принципов естественного интеллекта животных и человека, 3) использование этих принципов при конструировании роботов и других искусственных интеллектуальных систем. Pfeifer R., Scheier C., Understanding Intelligence. MIT Press, 1999. http://www.ifi.unizh.ch/groups/ailab/

  18. Исследователи адаптивного поведения Институт нейронаук Дж. Эдельмана (Калифорния) http://www.nsi.edu/ Разработки поколений моделей работы мозга (Darwin I, Darwin II, …) Исследования поведения искусственного организма NOMAD (Neurally Organized Mobile Adaptive Device), построенного на базе этих моделей http://vesicle.nsi.edu/nomad/

  19. NOMAD

  20. Исследователи адаптивного поведения В.А. Непомнящих.Моделирование поискового поведения животных на основе анимат-подхода А.А. Жданов.Схемы и модели автономного адаптивного управления на базе аппарата эмоций. Накопление знаний - одна главных компонент адаптивного управления А.И. Самарин.Самообучающиеся роботы (с 1970-х годов) Л.А. Станкевич.Первые в России антропоморфные роботы. Нейрологические архитектуры систем управления гуманоидных роботов на базе когнитивных агентов В.Г. Редько, М.С. Бурцев, О.П. Мосалов.Модели адаптивного поведения на базе эволюционных и нейросетевых подходов

  21. ОТ МОДЕЛЕЙ ПОВЕДЕНИЯ К ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ (коллективная монография, под редакцией В.Г. Редько, УРСС, 2006) Часть I. Ретроспектива П.К. Анохин. Принципиальные вопросы общей теории функциональных систем М.М. Бонгард и сотр. Проект модели организации поведения - «Животное» М.Н. Вайцвайг, М.Н. Полякова. Об одном подходе к проблеме создания искусственного интеллекта А.И. Самарин. Мобильные роботы и самоорганизация в нейронных структурах - ретроспективный взгляд Часть II. Современные исследования В.Г. Редько. From Animal to Animat - направление исследований адаптивное поведение В.А. Непомнящих. Модели автономного поискового поведения В.Ю. Рощин, А.А. Фролов. Нейросетевая модель выработки пространственной координации на основе сенсомоторного опыта Д. В. Прохоров. Адаптивные критики и нейронные сети М.Н. Вайцвайг, М.Н. Полякова. О моделировании мышления С.В. Корниенко, О.А. Корниенко. Искусственная самоорганизация и коллективный искусственный интеллект: на пути от индивидуума к социуму А.А. Жданов. Бионический метод автономного адаптивного управления Л.А. Станкевич. Когнитивный подход к управлению гуманоидными роботами

  22. Наши модели • Модель эволюционного формирования целенаправленного адаптивного поведения («Кузнечик») (М.С. Бурцев, Р.В. Гусарев, В.Г.Редько, 2000) • Модель эволюционного возникновения иерархии целей (развитие модели «Кузнечик»). (М.С. Бурцев, 2002) • Проект "Мозг Анимата". Разработка архитектур систем управления целенаправленным адаптивным поведением на базе теории функциональных систем П.К. Анохина и проекта «Животное» М.М. Бонгарда (В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004) • Модель эволюции автономных адаптивных агентов (О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005) • Модель возникновения кооперации в популяциях адаптивных агентов (М.С. Бурцев, П.В. Турчин, 2005)

  23. МОДЕЛЬ ЭВОЛЮЦИИ ПОПУЛЯЦИИ АДАПТИВНЫХ АГЕНТОВ (О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005)

  24. Обучение с подкреплением t= 1,2,… S(t)– текущая ситуация, a(t)–действие анимата, r(t)–подкрепление (положительное или отрицательное) Цель анимата –максимизировать суммарную награду Σkr(t+k), получаемую за длительный период времени. В процессе обучения анимат формирует политику (policy). Политика определяет выбор (детерминированный или вероятностный) действия в зависимости от ситуации. Обучение с подкреплением может рассматриваться как развитие автоматной теории адаптации (М.Л. Цетлин и др.)

  25. Обучение с подкреплением(Richard Sutton, Andrew Barto) Цель анимата–максимизировать суммарную награду Σ r(t),получаемую за длительный период времени. Оценка награды: U(t) = Σkγkr(t+k), γ –дисконтный фактор, фактор забывания, 0 < γ < 1, k = 0,1,… Теоретическаяоснова обучения с подкреплением (Reinforcement Learning): Ø Динамическое программирование Ø Марковские процессы Обучение с подкреплением – самообучение, без учителя, на основе только наград и наказаний

  26. Robot Weightlifting Michael Rosenstein, Univ of Mass Modeled as a three-link pendulum with • Joint constraints • Contact constraints • Torque constraints start configuration goal configuration

  27. Проект "Мозг Анимата". Архитектура системы управления аниматом на базе теории ФС П.К. Анохина (В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004)

  28. Функциональная система по П.К. Анохину

  29. Архитектура системы управления анимата ФС1, ФС2, … соответствуют ведущим потребностям:питание, размножение, безопасность, накопление знаний ФС - на основе нейросетевых адаптивных критиков

  30. Схема адаптивного критика (V-критика) S(t) - ситуация Spri(t+1) - прогноз ai(t) - i-е действие V(S) - оценка качества ситуации S Критик и Модель- многослойные нейронные сети, Критикпоказан для двух последователь-ных тактов времени Роль Модели -- прогноз будущих ситуаций Роль Критика -- оценка качества ситуаций

  31. Описание модели: Обучение + эволюция

  32. Агенты-брокеры • Рассматриваются агенты-брокеры. Капитал агентаC(t) состоит из денег и акций. Доля капитала в акциях естьu(t).Динамика капитала описывается уравнением: • С(t+1) = С(t) [1 + u(t+1) ΔX(t+1) / X(t)], (1) • где ΔX(t+1) = X(t+1) – X(t), X(t) – временной ряд курса акций,t = 1,2,… • R(t) = log C(t). • Текущее подкрепление агента r(t) есть: r(t) = R(t+1) – R(t), • r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)] (2) • Предполагается, что величина u(t) принимает только два значения: u(t) = 0 (весь капитал в деньгах) или u(t) = 1 (весь капитал в акциях)

  33. Система управления агента (обучение) Система управления – адаптивный критик, состоящий из двух нейросетей: Модель и Критик. Модель предсказывает изменения временного ряда, Критик оценивает качество ситуаций V(S). Ситуация S(t) = {ΔX(t), u(t)} V (S(t)) - оценка ожидаемого суммарного подкрепления U(t) = Σ γkr(t+k)для ситуации S(t), k = 0,1,… Действия выбираются с помощью ε-жадного правила. Действия есть: u(t+1) = 0 – перевести весь капитал в деньги u(t+1) = 1 – перевести весь капитал в акции

  34. Алгоритм работы V-критика 1. Модель делает прогноз Spri(t+1) 2. Критик оценивает V (S(t)), V (Spri(t+1)) 3. Применяется ε - жадное правило и выбирается действие ak: k = arg maxi{ V(Spri(t+1))} с вероятностью 1- ε , kвыбирается произвольно с вероятностью ε. 4. Действие ak выполняется 5. Оценивается подкрепление r(t). Происходит переход к следующему такту времени t+1. Критик оценивает V (S(t+1)). 6. Оценивается ошибка временной разности δ(t) = r(t)+ γV (S(t+1)) - V (S(t)) . 7. Обучаются Модель и Критик V (S(t)) есть оценка ожидаемого суммарного подкрепления U(t) = Σ γkr(t+k), (k = 0,1,…)для ситуации S(t), V (S(t)) – качество ситуации S(t)

  35. Нейронные сети V-критика Нейронная сеть Критика Нейронная сеть Модели

  36. Обучение V-критика Обучение проводится путем подстройки весов синапсов Модели и Критика градиентным методом Обучение Модели(уточнение прогноза): ΔWM= αMgradWM(Sprk(t+))T(S(t+)-Sprk(t+)). Обучение Критика(уточнение оценок качества ситуации): ΔWC= αC δ(t) gradWС(V (t)) , WM, и WC- набор весов нейронных сетей Модели и Критика, αM ,αC- параметры скоростей обучения.

  37. Алгоритм работы V-критика Блок Критик xC = S(t) = {ΔX(t), u(t)},yCj = th (ΣiWCij xCi), V(t) = ΣjVCj yCj. V(t) = V(S(t)) –оценка качества ситуации S(t). δ(t) = r(t) + γV(t) - V(t-1) ΔVCi(t+1) = αCδ(t)yCj ,ΔWCij(t+1) = αCδ(t)VCj (1 – (yCj)2) xCi . Блок Модель xM = {ΔX(t-m+1),…, ΔX(t)},yMj = th (ΣiWMij xMi), ΔXpr(t+1) = Σj VMj yMj. ΔXpr(t+1) – прогноз изменения цены акций ΔVMi(t+1) = - αM(ΔXpr(t+1) – ΔX(t+1)) yMj, ΔWMij(t+1) = - αM(ΔXpr(t+1) – ΔX(t+1)) VMj (1 – (yMj)2) xi.

  38. Эволюция популяции агентов • Эволюционирующая популяция состоит из n агентов. • Каждый агент имеет ресурс R(t), который меняется в соответствии с получаемыми наградами r(t): R(t+1) = R(t) + r(t), • r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)]. (2) • Длительность каждого поколения ng равна T тактов времени. Начальный ресурс рождающего агента равен нулю, R(T(ng-1)+1) = 0. • Начальные веса синапсов нейронных сетей агента составляют его геном G. Текущие весаW изменяются в процессе обучения. • Для вновь рождающегося агента W= G. • В конце каждого поколения находится агент, который имеет максимальный ресурс Rmax (ng). Этот наилучший агент дает n потомков, которые составляют следующее поколение. Геном потомка G отличается от генома родителя малыми мутациями.

  39. Результаты моделирования

  40. Схема моделирования Рассматривается два вида временного ряда: 1) синусоида: X(t) = 0.5[1 + sin(2πt/20)] +1 , 2) стохастический ряд: X(t) = exp[p(t)/1200], p(t) = p(t-1) + (t-1) + k(t), (t) = (t-1) + (t), где (t) и (t) - случайные нормальные процессы N(0,1),  = 0.9, k = 0.3. Параметры моделирования: число входов нейронной сети Модели m = 10, число нейронов в скрытом слое Модели и Критика NhM = NhC = 10, скорость обучения Модели и Критика M = C = 0.01, дисконтный фактор  = 0.9. Длительность поколения T, численность популяции n, интенсивность мутаций Pmut, параметр ε в ε -жадном правиле варьировались. Анализировались следующие случаи: L - только обучение E - только эволюция LE - обучение совместно с эволюцией

  41. Что эффективней: обучение или эволюция? L - обучение E - эволюция LE – обучение совместно с эволюцией Результаты усреднены по 1000 расчетам. Pmut = 0.1, ε = 0.05, n = 10, T = 200. ε = 0 послеng =100 (случай LE) и ng =2000 (случай L). Величина ресурса лучшего агента Rmax, получаемая после 200 временных шагов для синусоиды. ng - номер поколения В случаях E и LE агенты находят оптимальную политику: покупать/продавать при росте/падении курса

  42. Обучение в наших экспериментах несовершенно Политика агента u(t) (синяя линия). Случай L. Расчет для синусоиды X(t) (красная линия) Pmut = 0.1, ε = 0.05, n = 10, T = 200. Агент явно предпочитает держать капитал в акциях. Политика неплохая, но не оптимальная.

  43. Тем не менее, обучение помогает эволюции находить хорошую политику быстрее Ресурс лучшего агента в популяции Rmax, случай LE, синусоида. n = 10, T = 1000, ε = 0.05, Pmut = 0.1 . В первых поколениях неплохая политика находится путем обучения. В последних поколениях агент имеет хорошую политику с рождения. Эффект Балдвина: приобретаемые навыки становятся наследуемыми.

  44. Особенности предсказания Модели Предсказанные ΔXpr(t+1) (синяя линия)и действительные значения ΔX (t+1) (красная линия). Случай E. Стохастический ряд; n = 10, T = 200, Pmut = 0.1, ε = 0.05. Форма предсказанной кривой правильная. Однако, предсказанные величины ΔXpr(t+1) отличаются множителем 25 от действительных ΔX(t+1).

  45. Практика не есть критерий истины Предсказанные ΔXpr(t+1) (синяя линия)и действительные значения ΔX (t+1) (красная линия). Случай LE. Стохастический ряд; n = 10, T = 200, Pmut = 0.1, ε = 0.05. Предсказываемые значения могут отличаться от действительных не только величиной, но и знаком. Эти неправильные предсказания используются агентом в оптимальной политике. Практика не есть критерий истины.

  46. Обучение в нашем моделировании эволюционно неустойчиво. Почему? Задача, которую «решает» эволюция (выбор действия), значительно проще, чем та задача, которую решает обучение (прогноз ситуации S, оценка качества прогнозируемых ситуаций для альтернативных действий, итеративное формирования оценок качества ситуаций V(S) и выбор действия на основе этих оценок), поэтому эволюция «задавливает» сложный механизм обучения. Обучение в наших адаптивных критиках эволюционно нестабильно. Эволюция модифицирует нейронные сети Модели и Критика таким образом, чтобы сделать систему управления эволюционно устойчивой.

  47. Эволюционным путем находится поведение, подобное поведению простых животных (есть инерционность и игнорирование мелочей) X(t) - курс акций (красная линия), u(t) – доля капитала в акциях (синяя линия)

  48. Поведение ручейников (эксперименты В.А. Непомнящих) Ручейники строят домик. У ручейников есть две тактики поведения: 1)собрать частицы и прикреплять их к домику и 2)искать скопление крупных частиц. Переход от одной тактики к другой характеризуется инерционностью и игнорированием мелочей

  49. Следующая версия «Мозга анимата» Есть первичный и вторичный репертуар действий. Первичный – формируется в процессе эволюции популяции аниматов, вторичный – в процессе обучения. Каждая ФС состоит из двух нейронных сетей: Контроллер и Модель. Контроллер предназначен для формирования действий (часть действий – передача управления другим ФС), Модель – для прогноза результатов действий. Достоинство версии – согласованность эволюционного и индивидуального режимов адаптации. Одна из важных задач моделирования – проверить эффективность одновременного формирования цепочек действий, определяемых Контроллерами, и прогнозов результатов действия, определяемых Моделями.

  50. Задача моделирования когнитивной эволюцииИсследовать происхождение логики, мышления, интеллекта

More Related