slide1 n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ PowerPoint Presentation
Download Presentation
МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ

Loading in 2 Seconds...

play fullscreen
1 / 53

МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ - PowerPoint PPT Presentation


  • 205 Views
  • Uploaded on

Институт оптико-нейронных технологий РАН www.iont.ru Ассоциация нейроинформатики www.ni.iont.ru Редько Владимир Георгиевич vg redko@gmail.com. МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ. План. Кибернетический подход к эволюции В.Ф. Турчина Задача моделирования когнитивной эволюции

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ' - luana


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
slide1
Институт оптико-нейронных технологий РАН

www.iont.ru

Ассоциация нейроинформатики

www.ni.iont.ru

Редько Владимир Георгиевич

vgredko@gmail.com

МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ
slide2
План
  • Кибернетический подход к эволюции В.Ф. Турчина
  • Задача моделирования когнитивной эволюции
  • Направление исследований «Адаптивное поведение»
  • Модель эволюции популяции адаптивных агентов
  • Проект программы будущих исследований (в порядке обсуждения)
  • Данная презентация: www.ni.iont.ru/r.zip
slide3
Кибернетический подход к эволюции В.Ф. ТурчинаВ.Ф. Турчин ввел термин «Эволюционная кибернетика»
slide4
Феномен науки
  • В.Ф. Турчин. Феномен науки: Кибернетический подход к эволюции – М.: Наука, 1993 (1-е изд.). М.: ЭТС, 2000 (2-е изд.).
slide5
Теория метасистемных переходов В.Ф.Турчина

Схема метасистемного перехода. Si- системы нижнего уровня, C - управление объединенными подсистемами, S' - система нового уровня иерархии

slide6
Теория метасистемных переходов В.Ф.Турчина
  • Метасистемный переход: объединение ряда подсистем Si нижнего уровня и появление дополнительного механизма управленияC объединенными подсистемами.
  • В результате метасистемного перехода формируется система S' нового уровня (S' = C + S1+ S2 +…+ Sn), которая может быть включена как подсистема в следующий метасистемный переход.
  • Перед метасистемным переходом -- количественное накопление "потенциала развития" в подсистемах Si
  • После метасистемного перехода -- размножения и развития подсистем предпоследнего уровня иерархии.
  • Метасистемный переход -- кибернетический аналог физического фазового перехода.
slide7
Теория метасистемных переходов В.Ф.Турчина

В.Ф. Турчин характеризует биологическую эволюцию следующими метасистемными переходами:

- управление положением = движение

- управление движением = раздражимость (простой рефлекс)

- управление раздражимостью = (сложный) рефлекс

- управление рефлексами = ассоциации (условный рефлекс)

- управление ассоциациями = человеческое мышление

- управление человеческим мышлением = культура

slide9
Гносеологическая проблема

Почему логический вывод, сделанный человеком, применим к реальному объекту в природе?

slide10
Надо разобраться, как наша логика возникла в процессе когнитивной эволюции
slide11
Можем ли мы исследовать эволюционные корни нашей логики?

Математик при доказательстве теорем использует правило modusponens: «если имеет место А, и из А следует В, то имеет место В», или

{А, A --> B} => B

После выработки условного рефлекса у собаки И.П. Павлова в памяти формируется связь «за УС должен последовать БС» (УС – условный стимул, БС – безусловный стимул), или

УС --> БС.

Когда собаке предъявляют УС, то она делает «логический вывод»:

{УС, УС --> БС} => БС

slide12
Методология исследований

Использовать «метод последовательных приближений».

Первое приближение -- исследовать принципы работы «интеллектуальных изобретений» эволюции, на функциональном уровне, не акцентируя особое внимание на биологической элементной базе (молекулы, нейроны,…).

Должен быть набор моделей «интеллекта» разного эволюционного уровня.

Использовать задел направления «Адаптивное поведение»

slide13
НАПРАВЛЕНИЕ ИССЛЕДОВАНИЙ «АДАПТИВНОЕ ПОВЕДЕНИЕ»
from animal to animat
Адаптивное ПоведениеFrom Animal to Animat – модели адаптивного поведения животного и робота
  • Первая конференция: Париж, 1990 г. (Ж.-А. Мейер, С. Вильсон)
  • Основной подход – конструирование и исследование искусственных (в виде компьютерной программы или робота) "организмов" (аниматов, агентов), способных приспосабливаться к внешней среде.
  • ANIMAL + ROBOT = ANIMAT
  • Программа-минимум – исследовать архитектуры и принципы функционирования, которые позволяют животным или роботам жить и действовать в переменной внешней среде
  • Программа-максимум – попытаться проанализировать эволюцию когнитивных способностей животных и эволюционное происхождение интеллекта человека
  • Предшественники: М.Л. Цетлин, М.М. Бонгард, Д.А. Поспелов Гаазе-Рапопорт М.Г., Поспелов Д.А. От амебы до робота: модели поведения. М.: Наука, 1987, УРСС, 2004.
slide15
Адаптивное Поведение
  • International Society for Adaptive Behaviorhttp://www.isab.org/
  • Журнал Adaptive Behavior
  • Конференции

SIMULATION OF ADAPTIVE BEHAVIOR (SAB'06)

25-30 September 2006, Roma, Italy

slide16
Исследователи адаптивного поведения

AnimatLab (Paris)

(Париж, руководитель – один из инициаторов анимат-подхода Ж.-А. Мейер)

Широкий спектр исследований адаптивных роботов и адаптивного поведения животных.

Подход AnimatLab предполагает, что система управления анимата может формироваться и модифицироваться посредством

1) обучения,

2) индивидуального развития (онтогенеза) и

3) эволюции.

http://animatlab.lip6.fr/index.en.html

slide17
Исследователи адаптивного поведения

Лаборатория искусственного интеллекта в университете Цюриха (руководитель Рольф Пфейфер)

Основной подход – познание природы интеллекта путем его создания ("understanding by building").

Подход включает в себя

1) построение моделей биологических систем,

2) исследование общих принципов естественного интеллекта животных и человека,

3) использование этих принципов при конструировании роботов и других искусственных интеллектуальных систем.

Pfeifer R., Scheier C., Understanding Intelligence. MIT Press, 1999.

http://www.ifi.unizh.ch/groups/ailab/

slide18
Исследователи адаптивного поведения

Институт нейронаук Дж. Эдельмана (Калифорния)

http://www.nsi.edu/

Разработки поколений моделей работы мозга (Darwin I, Darwin II, …)

Исследования поведения искусственного организма NOMAD (Neurally Organized Mobile Adaptive Device), построенного на базе этих моделей

http://vesicle.nsi.edu/nomad/

slide20
Исследователи адаптивного поведения

В.А. Непомнящих.Моделирование поискового поведения животных на основе анимат-подхода

А.А. Жданов.Схемы и модели автономного адаптивного управления на базе аппарата эмоций. Накопление знаний - одна главных компонент адаптивного управления

А.И. Самарин.Самообучающиеся роботы (с 1970-х годов)

Л.А. Станкевич.Первые в России антропоморфные роботы. Нейрологические архитектуры систем управления гуманоидных роботов на базе когнитивных агентов

В.Г. Редько, М.С. Бурцев, О.П. Мосалов.Модели адаптивного поведения на базе эволюционных и нейросетевых подходов

slide21

ОТ МОДЕЛЕЙ ПОВЕДЕНИЯ К ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ

(коллективная монография, под редакцией В.Г. Редько, УРСС, 2006)

Часть I. Ретроспектива

П.К. Анохин. Принципиальные вопросы общей теории функциональных систем

М.М. Бонгард и сотр. Проект модели организации поведения - «Животное»

М.Н. Вайцвайг, М.Н. Полякова. Об одном подходе к проблеме создания искусственного интеллекта

А.И. Самарин. Мобильные роботы и самоорганизация в нейронных структурах - ретроспективный взгляд

Часть II. Современные исследования

В.Г. Редько. From Animal to Animat - направление исследований адаптивное поведение

В.А. Непомнящих. Модели автономного поискового поведения

В.Ю. Рощин, А.А. Фролов. Нейросетевая модель выработки пространственной координации на основе сенсомоторного опыта

Д. В. Прохоров. Адаптивные критики и нейронные сети

М.Н. Вайцвайг, М.Н. Полякова. О моделировании мышления

С.В. Корниенко, О.А. Корниенко. Искусственная самоорганизация и коллективный искусственный интеллект: на пути от индивидуума к социуму

А.А. Жданов. Бионический метод автономного адаптивного управления

Л.А. Станкевич. Когнитивный подход к управлению гуманоидными роботами

slide22
Наши модели
  • Модель эволюционного формирования целенаправленного адаптивного поведения («Кузнечик») (М.С. Бурцев, Р.В. Гусарев, В.Г.Редько, 2000)
  • Модель эволюционного возникновения иерархии целей (развитие модели «Кузнечик»). (М.С. Бурцев, 2002)
  • Проект "Мозг Анимата". Разработка архитектур систем управления целенаправленным адаптивным поведением на базе теории функциональных систем П.К. Анохина и проекта «Животное» М.М. Бонгарда (В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004)
  • Модель эволюции автономных адаптивных агентов (О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005)
  • Модель возникновения кооперации в популяциях адаптивных агентов (М.С. Бурцев, П.В. Турчин, 2005)
slide23

МОДЕЛЬ ЭВОЛЮЦИИ ПОПУЛЯЦИИ АДАПТИВНЫХ АГЕНТОВ

(О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005)

slide24
Обучение с подкреплением

t= 1,2,…

S(t)– текущая ситуация,

a(t)–действие анимата,

r(t)–подкрепление

(положительное или отрицательное)

Цель анимата –максимизировать суммарную награду

Σkr(t+k), получаемую за длительный период времени.

В процессе обучения анимат формирует политику (policy). Политика определяет выбор (детерминированный или вероятностный) действия в зависимости от ситуации.

Обучение с подкреплением может рассматриваться как развитие автоматной теории адаптации (М.Л. Цетлин и др.)

richard sutton andrew barto
Обучение с подкреплением(Richard Sutton, Andrew Barto)

Цель анимата–максимизировать суммарную награду Σ r(t),получаемую за длительный период времени.

Оценка награды:

U(t) = Σkγkr(t+k), γ –дисконтный фактор, фактор забывания,

0 < γ < 1, k = 0,1,…

Теоретическаяоснова обучения с подкреплением (Reinforcement Learning):

Ø Динамическое программирование

Ø Марковские процессы

Обучение с подкреплением – самообучение, без учителя, на основе только наград и наказаний

robot weightlifting
Robot Weightlifting

Michael Rosenstein, Univ of Mass

Modeled as a three-link pendulum with

  • Joint constraints
  • Contact constraints
  • Torque constraints

start configuration

goal configuration

slide27

Проект "Мозг Анимата".

Архитектура системы управления аниматом на базе теории ФС

П.К. Анохина

(В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004)

slide29

Архитектура системы управления анимата

ФС1, ФС2, … соответствуют ведущим потребностям:питание, размножение, безопасность, накопление знаний

ФС - на основе нейросетевых адаптивных критиков

slide30

Схема адаптивного критика (V-критика)

S(t) - ситуация

Spri(t+1) - прогноз

ai(t) - i-е действие

V(S) - оценка качества ситуации S

Критик и Модель- многослойные нейронные сети, Критикпоказан для двух последователь-ных тактов времени

Роль Модели -- прогноз будущих ситуаций

Роль Критика -- оценка качества ситуаций

slide31

Описание модели:

Обучение + эволюция

slide32

Агенты-брокеры

  • Рассматриваются агенты-брокеры. Капитал агентаC(t) состоит из денег и акций. Доля капитала в акциях естьu(t).Динамика капитала описывается уравнением:
    • С(t+1) = С(t) [1 + u(t+1) ΔX(t+1) / X(t)], (1)
    • где ΔX(t+1) = X(t+1) – X(t), X(t) – временной ряд курса акций,t = 1,2,…
    • R(t) = log C(t).
    • Текущее подкрепление агента r(t) есть: r(t) = R(t+1) – R(t),
    • r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)] (2)
    • Предполагается, что величина u(t) принимает только два значения: u(t) = 0 (весь капитал в деньгах) или u(t) = 1 (весь капитал в акциях)
slide33

Система управления агента (обучение)

Система управления – адаптивный критик, состоящий из двух нейросетей: Модель и Критик.

Модель предсказывает изменения временного ряда, Критик оценивает качество ситуаций V(S).

Ситуация S(t) = {ΔX(t), u(t)}

V (S(t)) - оценка ожидаемого суммарного подкрепления U(t) = Σ γkr(t+k)для ситуации S(t), k = 0,1,…

Действия выбираются с помощью ε-жадного правила. Действия есть:

u(t+1) = 0 – перевести весь капитал в деньги

u(t+1) = 1 – перевести весь капитал в акции

slide34

Алгоритм работы V-критика

1. Модель делает прогноз Spri(t+1)

2. Критик оценивает V (S(t)), V (Spri(t+1))

3. Применяется ε - жадное правило и выбирается действие ak:

k = arg maxi{ V(Spri(t+1))} с вероятностью 1- ε ,

kвыбирается произвольно с вероятностью ε.

4. Действие ak выполняется

5. Оценивается подкрепление r(t). Происходит переход к следующему такту времени t+1. Критик оценивает V (S(t+1)).

6. Оценивается ошибка временной разности

δ(t) = r(t)+ γV (S(t+1)) - V (S(t)) .

7. Обучаются Модель и Критик

V (S(t)) есть оценка ожидаемого суммарного подкрепления U(t) = Σ γkr(t+k), (k = 0,1,…)для ситуации S(t), V (S(t)) – качество ситуации S(t)

slide35

Нейронные сети V-критика

Нейронная сеть Критика

Нейронная сеть Модели

slide36

Обучение V-критика

Обучение проводится путем подстройки весов синапсов Модели и Критика градиентным методом

Обучение Модели(уточнение прогноза):

ΔWM= αMgradWM(Sprk(t+))T(S(t+)-Sprk(t+)).

Обучение Критика(уточнение оценок качества ситуации):

ΔWC= αC δ(t) gradWС(V (t)) ,

WM, и WC- набор весов нейронных сетей Модели и Критика, αM ,αC- параметры скоростей обучения.

slide37

Алгоритм работы V-критика

Блок Критик

xC = S(t) = {ΔX(t), u(t)},yCj = th (ΣiWCij xCi), V(t) = ΣjVCj yCj.

V(t) = V(S(t)) –оценка качества ситуации S(t).

δ(t) = r(t) + γV(t) - V(t-1)

ΔVCi(t+1) = αCδ(t)yCj ,ΔWCij(t+1) = αCδ(t)VCj (1 – (yCj)2) xCi .

Блок Модель

xM = {ΔX(t-m+1),…, ΔX(t)},yMj = th (ΣiWMij xMi), ΔXpr(t+1) = Σj VMj yMj.

ΔXpr(t+1) – прогноз изменения цены акций

ΔVMi(t+1) = - αM(ΔXpr(t+1) – ΔX(t+1)) yMj,

ΔWMij(t+1) = - αM(ΔXpr(t+1) – ΔX(t+1)) VMj (1 – (yMj)2) xi.

slide38

Эволюция популяции агентов

    • Эволюционирующая популяция состоит из n агентов.
    • Каждый агент имеет ресурс R(t), который меняется в соответствии с получаемыми наградами r(t): R(t+1) = R(t) + r(t),
  • r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)]. (2)
    • Длительность каждого поколения ng равна T тактов времени. Начальный ресурс рождающего агента равен нулю, R(T(ng-1)+1) = 0.
    • Начальные веса синапсов нейронных сетей агента составляют его геном G. Текущие весаW изменяются в процессе обучения.
    • Для вновь рождающегося агента W= G.
    • В конце каждого поколения находится агент, который имеет максимальный ресурс Rmax (ng). Этот наилучший агент дает n потомков, которые составляют следующее поколение. Геном потомка G отличается от генома родителя малыми мутациями.
slide40

Схема моделирования

Рассматривается два вида временного ряда:

1) синусоида: X(t) = 0.5[1 + sin(2πt/20)] +1 ,

2) стохастический ряд:

X(t) = exp[p(t)/1200], p(t) = p(t-1) + (t-1) + k(t), (t) = (t-1) + (t),

где (t) и (t) - случайные нормальные процессы N(0,1),  = 0.9, k = 0.3.

Параметры моделирования: число входов нейронной сети Модели m = 10, число нейронов в скрытом слое Модели и Критика NhM = NhC = 10, скорость обучения Модели и Критика M = C = 0.01, дисконтный фактор  = 0.9. Длительность поколения T, численность популяции n, интенсивность мутаций Pmut, параметр ε в ε -жадном правиле варьировались.

Анализировались следующие случаи:

L - только обучение

E - только эволюция

LE - обучение совместно с эволюцией

slide41

Что эффективней: обучение или эволюция?

L - обучение

E - эволюция

LE – обучение совместно с эволюцией

Результаты усреднены по 1000 расчетам. Pmut = 0.1, ε = 0.05, n = 10, T = 200.

ε = 0 послеng =100 (случай LE) и ng =2000 (случай L).

Величина ресурса лучшего агента Rmax, получаемая после 200 временных шагов для синусоиды. ng - номер поколения

В случаях E и LE агенты находят оптимальную политику: покупать/продавать при росте/падении курса

slide42

Обучение в наших экспериментах несовершенно

Политика агента u(t) (синяя линия). Случай L. Расчет для синусоиды X(t) (красная линия) Pmut = 0.1, ε = 0.05, n = 10, T = 200.

Агент явно предпочитает держать капитал в акциях. Политика неплохая, но не оптимальная.

slide43

Тем не менее, обучение помогает эволюции находить хорошую политику быстрее

Ресурс лучшего агента в популяции Rmax, случай LE, синусоида. n = 10, T = 1000, ε = 0.05, Pmut = 0.1 .

В первых поколениях неплохая политика находится путем обучения. В последних поколениях агент имеет хорошую политику с рождения. Эффект Балдвина: приобретаемые навыки становятся наследуемыми.

slide44

Особенности предсказания Модели

Предсказанные ΔXpr(t+1) (синяя линия)и действительные значения ΔX (t+1) (красная линия). Случай E. Стохастический ряд; n = 10, T = 200, Pmut = 0.1, ε = 0.05.

Форма предсказанной кривой правильная. Однако, предсказанные величины ΔXpr(t+1) отличаются множителем 25 от действительных ΔX(t+1).

slide45

Практика не есть критерий истины

Предсказанные ΔXpr(t+1) (синяя линия)и действительные значения ΔX (t+1) (красная линия). Случай LE. Стохастический ряд; n = 10, T = 200, Pmut = 0.1, ε = 0.05.

Предсказываемые значения могут отличаться от действительных не только величиной, но и знаком. Эти неправильные предсказания используются агентом в оптимальной политике. Практика не есть критерий истины.

slide46

Обучение в нашем моделировании эволюционно неустойчиво. Почему?

Задача, которую «решает» эволюция (выбор действия), значительно проще, чем та задача, которую решает обучение (прогноз ситуации S, оценка качества прогнозируемых ситуаций для альтернативных действий, итеративное формирования оценок качества ситуаций V(S) и выбор действия на основе этих оценок), поэтому эволюция «задавливает» сложный механизм обучения.

Обучение в наших адаптивных критиках эволюционно нестабильно.

Эволюция модифицирует нейронные сети Модели и Критика таким образом, чтобы сделать систему управления эволюционно устойчивой.

slide47

Эволюционным путем находится поведение, подобное поведению простых животных

(есть инерционность и игнорирование мелочей)

X(t) - курс акций (красная линия),

u(t) – доля капитала в акциях (синяя линия)

slide48

Поведение ручейников

(эксперименты В.А. Непомнящих)

Ручейники строят домик. У ручейников есть две тактики поведения: 1)собрать частицы и прикреплять их к домику и 2)искать скопление крупных частиц. Переход от одной тактики к другой характеризуется инерционностью и игнорированием мелочей

slide49

Следующая версия «Мозга анимата»

Есть первичный и вторичный репертуар действий. Первичный – формируется в процессе эволюции популяции аниматов, вторичный – в процессе обучения.

Каждая ФС состоит из двух нейронных сетей: Контроллер и Модель. Контроллер предназначен для формирования действий (часть действий – передача управления другим ФС), Модель – для прогноза результатов действий.

Достоинство версии – согласованность эволюционного и индивидуального режимов адаптации. Одна из важных задач моделирования – проверить эффективность одновременного формирования цепочек действий, определяемых Контроллерами, и прогнозов результатов действия, определяемых Моделями.

slide50
Задача моделирования когнитивной эволюцииИсследовать происхождение логики, мышления, интеллекта
slide51

Контуры плана будущих исследований

  • Разработка схем и моделей адаптивного поведения на базе проекта «Мозг Анимата»
  • Исследование перехода от физического уровня обработки информации в нервной системе животных к уровню обобщенных образов, уровню понятий (аналогов слов)
  • Исследование процессов формирования причинной связи в памяти животных. Например, связи между условным стимулом (УС) и следующим за ним безусловным стимулом (БС). Анализ роли прогнозов в адаптивном поведении
  • Исследование процессов формирования логических выводов в «сознании» животных. {УС, УС --> БС} => БС – аналог modus ponens
  • Исследование коммуникаций, процессов возникновения языка
slide52

Литература

Непомнящих В.А. Поиск общих принципов адаптивного поведения живых организмов и аниматов // Новости искусственного интеллекта. 2002. N. 2. С. 48-53.

Редько В.Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики. М.: УРСС, 2005.

«От моделей поведения к искусственному интеллекту»

(коллективная монография, под редакцией В.Г. Редько), УРСС, 2006.

Mikhail Burtsev and Peter Turchin. Evolution of cooperative strategies from first principles// Nature, 2006. V. 440, No 7087 (April 20). PP.1041-1044.

slide53
Вопросы для обсуждения
  • Проблема происхождения интеллекта человека -– одна наиболее глубоких проблем современной науки. Попробуйте назвать более глубокую проблему
  • Исследования причин происхождения естественного интеллекта могут стать научной базой для искусственного интеллекта
  • Эти исследования могут поставить эпистемологию на твердую естественнонаучную почву
  • Здесь возможно повышение престижа науки. Как произошел интеллект -- это интересно и ученому, и просто любознательному человеку
  • Так почему же здесь почти никто толком не работает?