1 / 32

Chapter: 9 Genetic Algorithms

Chapter: 9 Genetic Algorithms. GA(Genetic Algorithms) 란?. 자연계의 유전 현상을 모방하여 적합한 가설을 얻어내는 방법 특성 진화는 자연계에서 성공적이고 정교한 적응 방법이다. 부분별로 모델하기 힘든 복잡한 문제에도 적용 가능하다. 병렬화 가능하고 , H/W 의 성능에 도움을 받을 수 있다. GA. 대량의 탐색공간에서 최적의 fitness 의 해를 찾는 일적인 최적화 과정 최적의 해를 찾는다고 보장할 수는 없지만 높은 fitness 의 해를 얻을 수 있다.

frasier
Download Presentation

Chapter: 9 Genetic Algorithms

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Chapter: 9 Genetic Algorithms

  2. GA(Genetic Algorithms)란? • 자연계의 유전 현상을 모방하여 적합한 가설을 얻어내는 방법 • 특성 • 진화는 자연계에서 성공적이고 정교한 적응 방법이다. • 부분별로 모델하기 힘든 복잡한문제에도 적용 가능하다. • 병렬화 가능하고 ,H/W의 성능에 도움을 받을 수 있다.

  3. GA • 대량의 탐색공간에서 최적의 fitness의 해를 찾는 일적인 최적화 과정 • 최적의 해를 찾는다고 보장할 수는 없지만 높은 fitness의 해를 얻을 수 있다.

  4. GA에서 쓰이는 용어 • Fitness-산술적인 단위로 가설의 적합도를 표시한다. • Population-가설들의 집합 • Evaluate-모든 population에 대해 fitness값을 구한다.

  5. 기본적인 GA

  6. 가설의 표현 • Bit-string(다른 표현도 있음) • Outlook={Sunny,Overcast,Rain}, Wind={String,Weak} Outlook Wind 011 10 • IF Wind=Strong THEN PlayTennis = yes Outlook Wind PlayTennins 111 10 10

  7. 유전 연산자 • 교차(crossover) • single-point,two-point,uniform crossover • 돌연변이(mutation) • point mutation

  8. 유전 연산자(2)

  9. 적합도 함수와 선택 • 적합도 함수(fitness function) • 다음 세대까지 존재 가능한 정도를 표시 • 분류 정확도, 규칙의 복잡도, 규칙의 일반성 • 선택(selection) • fitness proportionate selection(roulette wheel selection) • tournament selection • p-> 승자, (1-p)-> 패자,다양성 • ranking selection

  10. GABIL • Concept learning에 GA를 사용한 예(De Jong) • learn boolean concepts represented by a distinctive set of propositional rules • breast cancer diagnosis판별 문제 • table 9.1. 과 동일한 과정 • r=0.6 m=0.001 p=100~1000 • 정확도:92.1% 다른 방법(91.2%~96.6%)

  11. GABIL(2) • 가설 표현 • 돌연변이 • 교차-표현 구조가 깨지지 않도록 교정 • 적합도 함수

  12. GABIL(3)

  13. GABIL의 확장(1) • AddAlternative • 어떤 attribute의 bit에서 0을 1로 바꿈 • p=0.01 • DropCondition • 어떤 attribute를 1로 채움 • p=0.60 • 효과 • 정확도 95.2%(이전 92.1%)

  14. GABIL의 확장(2) • Bit-string의 확장 • AA:AddAlternative 허가 • DC:DropCondition 허가 • 효과 • 성능 향상은 없었으나, 흥미로운 현상을 보였다.

  15. 가설 공간 탐색 • 다른 탐색 방법과의 비교 • local minima에 빠질 확률이 적다.(급격한 움직임 가능) • crowding • 유사한 개체들이 개체군의 다수를 점유하는 현상 • 다양성을 감소시킨다.

  16. Crowding • Crowding의 해결법 • 선택방법을 바꾼다. • Tournament selection,ranking selection • “fitness sharing” • 유사한 개체가 많으면 fitness를 감소시킨다. • 결합하는 개체들을 제한 • 가장 비슷한 개체끼리 결합 • 개체들을 부분적으로 분포시키고 근처의 것끼리만 결합가능하게 함

  17. Schema Theorem • Schema • any string composed of 0s, 1s, and *’s • *->don’t care : 00**, 0*10, ***, etc • m(s,t) : 시간 t에서 스키마 s에 속하는 원소수 • f(h) : bit string h의 적합도 값 • : 시간 t에서 평균 적합도 값 • : 시간 t에서 스키마 s의 평균 적합도 • E[m(s,t+1)] : 시간 t+1에서 m의 기대값

  18. Schema Theorem-(2) • 선택과정

  19. Schema Theorem-(3) • 교차와 돌연변이를 고려한 경우 • o(s) : defined bits(0,1)의 수 • d(s) : 가장 왼쪽과 오른쪽 defined bit사이의 거리 • l : bit string의 길이 • o(s),d(s)가 작고 적합도값이 큰 스키마가 증가

  20. GP(Genetic Programming) • 개체는 bit string이 아닌 컴퓨터 프로그램으로 표시된다. • 프로그램의 표현 • 프로그램의 parse tree • 예)

  21. GP-(2) • 교차 • subtree의 교환

  22. GP-(3) • Fitness • training set에 대한 실행 결과 • Koza의 방법 • 10%의 개체는 다음 세대로 전달. • 현재 개체끼리 교차해서 나머지 수를 채움. • 돌연변이는 사용하지 않음.

  23. GP의 예제(Koza) • 최초의 배치에 관계없이 단어 ‘universal’을 순서대로 만드는 문제 • 한번에 한 개의 블록만 이동 가능. • 최상위 블록만이 탁자에 내려갈 수 있다. • 혼자 놓여진 것만이 최상위 블록 위로 올라갈 수 있다.

  24. GP의 예제-(2) • 인자(단말 노드) • CS(current stack) • 스택의 최상위 원소, 없으면 F • TB(top correct block) • 아래 쪽이 정확한 배열이 된 최상위 블록의 이름 • NN(next necessary) • TB위로 올라가야 하는 블록의 이름,없으면 F

  25. GP의 예제-(3) • 기본 함수(비단말 노드) • (MS x) : x가 탁자에 있으면 스택위로 올림 • (MT x) : x가 스택에 있으면 스택의 최상위 원소를 탁자로 내림 • (EQ x y):x가 y와 같으면 T를 되돌려 줌 • (NOT x):x가 F이면 T를 되돌려 줌 • (DU x y):y가 T가 되는 동안 x를 실행

  26. GP의 예제-(4) • 결과 • 10세대 만에 모든 training set을 만족하는 프로그램을 찾음 • (EQ (DU (MT CS) (NOT CS)) (DU (MS NN) (NOT NN)) ) • 첫번째 DU • 모든 스택을 비움 • 두번째 DU • 순서대로 스택을 쌓음

  27. GP의 확장 • 전자회로 구성문제에 적용 • 10% 유지, 89% 교차로 생성, 1% 돌연변이로 생성 • 137세대 만에 원하는 명세와 유사한 결과를 얻음 • GP의 성능은 개체 표현과 적합도 함수의 선택에 의존한다.

  28. 진화와 학습의 모델 • 자연계 • 개체는 일생동안 적응을 한다. • 생물학적,사회적인 과정 • 종은 많은 세대동안에 변화한다. • Lamarckian Evolution • Baldwin Effect

  29. Lamarckian Evolution • 개체가 얻은 경험을 자식에게 유전한다. • 생물학적으로 부정됨 • GA에서 효율향상이 있음

  30. Baldwin Effect • 개체의 학습이 유전되지는 않지만 진화의 방향을 바꾼다. • 변화하는 환경에서는 학습 능력이 뛰어난 개체가 선택되는 경향이 있다. • 유전적으로 뛰어나게 최적화된 것 보다는 학습능력이 뛰어난 개체가 적응을 잘한다. • 학습을 잘 하는 개체는 유전자의 오류에 덜 영향을 받는다. • 개체의 학습능력은 진화속도를 증가시킨다.

  31. Baldwin Effect-ANN에 응용 • ‘lifetime’동안 weight가 변하지 않는 것과 훈련가능 한 것과의 비교 • 초기 세대:훈련 가능한 것이 다수 • 유전적으로 fixed, correct network weights를 가진 것이 증가

  32. 병렬 유전 알고리즘(PGA) • Coarse grain approach • 전체 개체들이 부분 개체군(demes)에 나뉘어 존재 • migration : deme 사이에서 개체 교환 • crowding 감소 • Fine-grained approach • 1프로세서에 1개체 • 인접하는 개체 사이에 유전자 조합 • 여러 인접방법 : planar ,torus

More Related