1 / 41

Méthodes Numériques d’Intelligence Artificielle

Hamache Samuel Faculté des Sciences/Département d’informatique Université Libre de Bruxelles. Méthodes Numériques d’Intelligence Artificielle. [ Vie artificielle et théorie du chaos ]. Année académique 2002-2003.

leigh
Download Presentation

Méthodes Numériques d’Intelligence Artificielle

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Hamache Samuel Faculté des Sciences/Département d’informatique Université Libre de Bruxelles Méthodes Numériques d’Intelligence Artificielle [ Vie artificielle et théorie du chaos ] Année académique 2002-2003

  2. Le but de ce travail est de donner un aperçu général de l’utilisation de la théorie du chaos en intelligence artificielle. Il a été présenté en mars 2003 comme sujet oral pour l’examen d’intelligence artificielle. Il représente un premier pas dans la direction que je compte prendre dans mon approfondissement de l’IA. • La partie concernant les algorithmes génétiques et le chaos doit encore être améliorée, je tâcherai de m’y consacrer. • Théorie du Chaos. • Vie Artificielle. • Chaos et cerveau. • Automates Cellulaires. • L-Systèmes. • Algorithmes génétiques. • Mémoires associatives. • Bibliographie. • Pour des questions, remarques ou commentaires : shamache@ulb.ac.be

  3. Théorie du chaos • Un système chaotique est un système complexe régi par une grande variété de facteurs dépendant de plusieurs paramètres et dont les caractéristiques fondamentales sont une extrême sensibilité aux conditions initiales et un aspect aléatoire. • Premier pressentiment du chaos : Poincaré définit le concept de sensibilité critique aux conditions initiales. • Années 60 : Lorenz et l’application à la météorologie et le fameux « effet papillon ». Mandelbrot et les objets fractals. • Un objet fractal révèle une forme fragmentée qui, lorsqu’elle est subdivisée, reproduit toujours la même forme, indépendamment de l'échelle ( l’invariance d'échelle ). • Le champ d’action de la théorie du chaos s’étale sur une multitude de discipline dont l’économie (évolution des marchés financiers) et la biologie (rythme cardiaque, électroencéphalogramme).

  4. Théorie du chaos • Le comportement est imprévisible, bien que les composantes soient gouvernées par des lois simples, déterministes. • Disjonction entre déterminisme et prédictibilité. • On peut représenter l’état du système à chaque instant par un point dans un espace. Cet espace est appelé espace des phases. Celui-ci représente la dynamique d’un système. • Les axes de coordonnées de cet espace des phases correspondent aux différents degrés de liberté caractérisant les mouvements du système. • On appelle attracteur un ensemble de points vers lequel converge la trajectoire de l’espace des phases. • Il existe plusieurs sortes d’attracteurs : des attracteurs de point fixe, des attracteurs cycliques, qui définissent des états du système revenant de manière périodique, et des attracteurs étranges ou chaotiques qui modélisent des états complexes, non parfaitement prévisibles.

  5. Théorie du chaos • Pratiquement, à partir de quelques itérations, on considère que l’ensemble des points de l’espace des phases décrit l’attracteur. • D'un point de vue dynamique, ils sont chaotiques, et d'un point de vue géométrique, ils sont fractals. • La nature fractale et les propriétés de l'attracteur étrange ont été découvertes en 1971 par Ruelle et Takens. • Attracteur de Lorenz : Attracteur de Rössler :

  6. Théorie du chaos • L’ensemble des conditions initiales telles que l’itération converge est le bassin d’attraction de l’attracteur. Il est l'ensemble des points dont les trajectoires convergent vers l'attracteur. • En prenant les valeurs suivantes: a = 1.4 et b = 0.3 , proposées par Hénon , nous pouvons observer un comportement chaotique.

  7. Théorie du chaos • Etude d’un système chaotique : évolution d’une population. • L’équation logistique : • Lorsque le taux de croissance (a) d’une population dépasse un certain seuil, on observe un comportement chaotique.

  8. Théorie du chaos • On peut représenter pour une valeur initiale donnée et pour chaque valeur de a, les valeurs prises par la suite pour de grandes valeurs dei, nous obtenons le « diagramme de Feigenbaum de l'itérateur »ou « diagramme de bifurcation ». On peut y retrouver les observations : évolution vers un point fixe pour a = 2, un cycle de deux valeurs pour a = 3.2, un cycle de quatre valeurs pour a = 3.5 et un régime chaotique pour a = 4 .

  9. Théorie du chaos • Le diagramme de bifurcation permet d'observer les différentes bifurcations qu'un système dynamique peut subir selon la variation d'un paramètre de contrôle. Pour pouvoir dessiner ces bifurcations, il suffit d’appliquer l’algorithme suivant : 1) changement du paramètre de contrôle. 2) choix aléatoire d'une condition initiale. 3) évolution du système jusqu'à un attracteur selon ce nouveau paramètre. • dessin des derniers états du système, reflétant ainsi sa dynamique intéressante. • retour au point (1).

  10. Théorie du chaos • Il faut également savoir qu’il existe des constantes universelles qui caractérisent les dédoublements de période. Au delà d’un certain seuil, on peut rencontrer du chaos intermittent et des fenêtres de périodicité. • Le chaos intermittent se caractérise pas une alternance apparemment aléatoire de fluctuations tantôt identiques à celle qui prévalaient avant la bifurcation, tantôt chaotiques. • 2 trajectoires d’un attracteur, aussi voisines que l’on veut, finissent toujours par s’écarter l’une par rapport à l’autre, mais, toutes les trajectoires restent confinées à l’attracteur. Cet écart varie exponentiellement par rapport au temps à un taux qui est mesuré par l’exposant de Lyapunov (sans démonstration) :

  11. Théorie du chaos • Un exposant de Lyapunov positif signifie que la divergence entre deux trajectoires voisines augmenteexponentiellement avec le temps. Plus simplement, un système est chaotique s’il existe un exposant de Lyapunov positif. La somme des exposants de Lyapunov doit être négative (en effet, le système converge tout de même vers un attracteur étrange). • Algorithme de Wolf pour le calcul du plus grand exposant de Lyapunov : • changement du paramètre de contrôle, • choix aléatoire d'une condition initiale, • évolution du système dans le but d'atteindre un attracteur, • création d'une nouvelle trajectoire à partir de la trajectoire courante à laquelle on ajoute une petite perturbation, • évolution dans l'attracteur de ces deux trajectoires voisines et calculs de la moyenne de la divergence renormalisée entre ces deux trajectoires, • réajustement de l'écart, permettant ainsi à chaque pas de temps de l'évolution du point précédant le calcul d'une moyenne de la divergence, • retour au point (5) effectué selon un nombre donné, • retour au point (1) • dessin de l'exposant de Lyapunov le plus grand en fonction du paramètre de contrôle donné.

  12. Vie Artificielle • En opposition avec l’intelligence artificielle symbolique. • Façon de pratiquer la science => méthode synthétique (Langton). • Outil pour l’optimisation, la robotique et aide importante pour le biologiste théoricien. • Interdisciplinarité. Discipline clairement en opposition à l’excès de spécialisation. • Approche « bottom-up » plutôt que « top-down ». • Comprendre la vie et l’intelligence humaine en remontant le fil de l’évolution. Comprendre comment des structures aussi compliquées que le cerveau ont pu apparaître. Construire une définition de la vie. • Imiter le vivant (biomimétisme). Simuler des populations. Utiliser l’ordinateur pour faire intéragir des composants de manière parallèle. Intéractions simultanées et indépendantes => émergence.

  13. Vie Artificielle • Le concept d’émergence est au centre de la vie artificielle • Définition plus intuitive que rigoureuse. • L’analyse des comportements individuels ne permet pas de connaître le comportement global. Conséquence de la non-linéarité. • Des choses nouvelles qui ne sont absolument pas codées, apparaissent. Les règles simples de départ en sont responsables. • Itération un grand nombre de fois de règles simples. • L’émergence suppose le parallélisme du système. Faculté d’auto-organisation. • Intéraction entre des éléments élémentaires engendre le complexe. • Le tout vaut plus que la somme des parties (superadditivité). • Wolfram : Les règles à l’origine de notre Univers sont simples. • L’émergence est une propriété des systèmes parallèles ? Théorie générale des réseaux ? • L’auto-organisation trouve son origine dans le pouvoir créateur des processus non-linéaires. Pour les étudier, il faut les reproduire. • Les propriétés intéressantes des systèmes non-linéaires dépendent de l’intéraction entre les composants.

  14. Vie Artificielle • IA Distribuée et Système multi-agent : • Un agent est une entité autonome, ayant des aptitudes sociales, qui peut prendre des initiatives, agir sans stimulation externe et qui contient un module de connaissance, de communication, de comportement et d’action. • Un système multi-agents est composé d’un environnement E, un ensemble d’objets O (ayant une position dans E), un ensemble A (les agents, cas particulier d’objets), un ensemble de relation R entre les éléments de O, un ensemble d’opération OP permettant aux agents A d’intéragir avec E. • Intéraction d’agents spécialisés => Emergence. • Stigmergie. La régulation des constructions dépendent de la construction elle-même. Le comportement de l’ouvrier est influencé par son travail. • Pont entre l’IA symbolique et la vie artificielle.

  15. Vie Artificielle • La vie artificielle et l’IA en général engendrent de nombreuses questions éthiques. • La vie est un phénomène d’organisation indépendant du substrat. • Tout fait organisationnel est simulable par une machine de Turing universelle. • Les virus informatiques ont des facultés d’auto-reproduction. • La robotique évolutionnaire nous présente des comportements étonnants d’adaptation à l’environnement. => Peut-on considérer ces premières créations comme vivantes ? • Il en découle l’interprétation forte de la vie artificielle : • Le but de la vie artificielle est de recréer la vie dans un substrat virtuel. • Remonter le fil de l’évolution et arriver à terme à simuler l’intelligence humaine. • Insuffler la vie aux machines ? • D’un point de vue robotique : créer une nouvelle espèce plus intelligente ? Danger ? • La science-fiction et l’art en général ont déjà pas mal puisé dans ces interrogations.

  16. Chaos et Cerveau • Les activités cérébrales (psychologiques et cognitives) sont des propriétés nouvelles qui émergent de l'auto-organisation des divers ensembles de neurones du cortex cérébral. • Un nombre élevé de connexions dans le cerveau : de 1000 à 10.000 par neurone. • le cerveau se compose d'environ neurones • Les mêmes neurones se retrouvent à la fois dans des couches, dans des colonnes et dans des amas appelés noyaux. • En  étudiant les électroencéphalogrammes avec les outils de la théorie du chaos, l’activité du cortex, notamment, devient de plus en plus cohérente à mesure que le sujet s’éloigne de l’état d’éveil. L'activité d’ensemble des neurones devient périodique dans le sommeil profond, le "petit-mal" épileptique et la maladie de Creutzfeldt-Jacob.

  17. Chaos et Cerveau • En résumé, on sait que l’électroencéphalogramme est chaotique dans l’état conscient et dans l’état de sommeil paradoxal. Au contraire, l’électroencéphalogramme est périodique en état de sommeil lent. • EEG chaotique => Forme d’activité cérébrale considérée comme la plus favorable pour le traitement de l’information… • Le cerveau dépend d’un système d’organisation très complexe, sensible aux conditions initiales. • L’attention découle de l’activité régulière de l’une des couches du cortex. • Le chaos produit par le cerveau contient une infinité de mouvements périodiques instables de fréquence différente et offre des possibilités d'ajustements, de mises au point et de rodages infinies.

  18. Chaos et Cerveau • Les biologistes ont pu montrer que les différentes activités électriques du cerveau présentaient différents types d’attracteurs dont la dimension fractale a pu être mesurée. • En biologie, la régularité est signe de pathologie. • La dimension fractale de l'EEG d'un sujet en train de respirer une odeur :

  19. Automates Cellulaires • Quadruplet A = (d,G,S,f) avec d nombre de dimension, G le voisinage cellulaire, S l’ensemble fini d’états, f la fonction de transition. Les propriétés principales sont le parallélisme, interactivité locale et l’homogénéité. • Les propriétés observées sont incalculables à partir des règles de base (émergence). • Le plus connu est le jeu de la vie de Conway. Une cellule morte entourée d’exactement trois cellules vivantes naît. Une cellule vivante entourée de deux ou trois voisines vivantes reste en vie. Dans les autres cas, la cellule meurt. On peut y observer des blocs, des oscillateurs, des planeurs et d’autres créatures étranges… • Conway a démontré que le jeu de la vie permet de construire une machine universelle de Turing. Les machines satisfaisant cette propriété d’universalité des capacités de calcul sont susceptibles de simuler tout système physique. • On peut également générer d’autres types d’automates cellulaires : non uniformes, asynchrones, probabilistes (dans la fixation des règles).

  20. Automates Cellulaires • Wolfram a classifié les automates cellulaires en 4 classes : • CLASSE I : L’évolution conduit à des configurations où toutes les cellules sont dans le même état (Attracteur fixe). • CLASSE II : L’évolution conduit vers configurations stables et simples ou éventuellement périodiques (Attracteur cyclique). • CLASSE III : L’évolution conduit à des configurations chaotiques, elle peut générer des structures fractales. (Attracteur étrange). • CLASSE IV : L’évolution engendre des comportements type « jeu de la vie ». Ces automates sont capables de porter une machine de Turing en leur sein. • La classe IV représente, d’après Wolfram, 5.5% des automates.Ils sont entre l’ordre et le chaos.

  21. Automates Cellulaires • Langton a introduit un taux de comportement dynamique d’un automate cellulaire. • Le paramètre est le rapport entre le nombre de configurations de voisinage qui conduisent à un état actif et le total des configurations possibles. K est le nombre d’état. N est le nombre de cellules voisines d’un état, n est le nombre de transition vers l’état de repos. • Il a posé l’hypothèse que les capacités de calcul universel des CA ont une valeur critique correspondant à une transition de phase en ordre et chaos. Packard a testé cette hypothèse en utilisant un algorithme génétique qui développe des AC qui assure un calcul complexe particulier, il a interprété les résultats en montrant que le AG tend à sélectionner des AC enfermés dans des régions critiques .

  22. Automates Cellulaires • Packard a été inspiré par la règle GKL pour réaliser son AG. Cette règle peut-être considérée comme un calcul complexe. Il fait évoluer des règles pour qu’elle puisse réaliser ce calcul. • Les facultés d’universalité apparaissent entre l’ordre et le chaos. L’explication de la fameuse classe IV vient de là. On parle aussi de vie au bord du chaos. Aujourd’hui, des recherches récentes laissent penser que le paramètre de Langton n’est pas suffisant pour décrire de manière rigoureuse la classe IV. • Certains pensent que si on itère le jeu de la vie pendant très très longtemps, on y verrait apparaître des formes de vie très évoluées.

  23. Automates Cellulaires • « A new kind of science » du physicien contreversé Stephen Wolfram. Appliquer la puissance des automates cellulaires dans toutes les sciences, y compris dans la physique théorique : • Les opérations conduites dans les automates cellulaires se retrouvent presque partout dans le monde réel. • Les systèmes biologiquesconstruisent de l'ordre par auto-organisationen opposition au courant global d'accroissement de l'entropie. • Il existe une similitude dans les règles d’évolution des systèmes physiques et des AC. La 2eme loi de la thermodynamique est respectée dans la plupart des AC. Certains sont capables d’auto-organisation comme la vie. • On peut retrouver dans des AC les lois de conservation de l’énergie. • SW montre que certaines règles génèrent des limites absolues à la vitesse de transmission de l'information dirigeant un AC. Apparition de constantes universelles propres à un AC.

  24. Automates Cellulaires • On peut y retrouver les propriétés de la relativité générale. • Les AC de classe IV génèrent des structures proches des particules fondamentales de l’Univers. Si cela était exact, cela signifierait qu'à un certain niveau, les règles de l'univers ne feraient pas référence à un type particulier de particules. Les différentes particules que nous observont émergeraient comme des structures formées à partir d'éléments plus fondamentaux. On remarquera la compatibilité entre de tels modèles et les nouvelles hypothèses de la physique théorique, comme la théorie des cordes, qui dit que les différentes particules découlent d’un mode vibratoire particulier d’une corde. • Les CA peuvent illustrer de nombreuses, sinon toutes les caractéristiques mises en évidence par la théorie quantique. Le prouver sera difficile, car le formalisme quantique ne s'exprime pas de façon visuelle. • L'auteur avoue plusieurs fois qu'un travail important reste encore à faire pour que ces indices puissent être transformés en certitude. • Physiciens assez réfractaires face au livre de SW. • En bref : Notre Univers serait-il au AC et découle-t’il de règles simples ? => Un champ de recherche vaste et complexe.

  25. L-systèmes • L-systèmes : • Basé sur l’inférence grammaticale les grammaires de Chomsky. • Un système de Lindenmayer (L-système) : Un ensemble E d'objets et une transformation f qui à un objet de E associe une suite finie d'objets de E. Partant d'un objet x de E, on lui applique f : on obtient la suite d'objets de E à l'étape 1 notée S1, à l'étape 2 S2. On réitère ce processus à l'infini, jusqu'à obtenir une suite infinie S , appelée "point fixe" du système. Si on remplace chaque élément de S par son transformé par f, la suite reste inchangée. Si E={0,1} et f(0)=01, f(1)=10, on obtient S0 = 0 S1 = 01 S2 = 0110 S3 = 01101001 dont le point fixe S = 01101001100101101001011001101001est appelé suite de Thue-Morse. Création de figures fractales proches des formes crées par la nature (organes, nuages…). Permet la modélisation de la morphogenèse de nombreux végétaux. • Application à l’art et à la musique.

  26. L-systèmes • L-systèmes • Une fois de plus, à partir de règles simples, itérées, on obtient des structures complexes. En faisant varier des paramètres et en introduisant une petite dose d’aléatoire, le figures sont extrêmement proches de ce que l’on trouve dans la nature. • On retrouve le concept d’invarianced’échelle. Si on change l’échelle de la figure, cette dernière reste semblable à elle-même. • A noter que l’équivalence L-systèmes et automates cellulaires a été démontrée. • Les L-systèmes peuvent transmettre de l’information (Langton) : R1 : <{C} –> C R2 : C{C} –> C R3 : *{C} –> * R4 : {*}C –> C R5 : {*}> –> C *CCCC C*CCC CC*CC CCC*C CCCC*

  27. Algorithmes génétiques 1.Codage du problème sous forme d’une chaîne de bits. 2.Génération aléatoire d’une population. 3.Calcul du niveau d’adaptation (fitness) 4.Sélection des reproducteurs en fonction du fitness 5.Construction des descendants (croisement, mutations) 6.Remplacement de la population. Retour en 3.

  28. Algorithmes génétiques • Méthode de sélection, roulette, sélection tournoi, sélection stochastic tournament. • La méthode élitiste limite le fossé des générations. Ranking. Mettre en place en début d’algo des mécanismes évitant la sursélection. • Préserver la diversité, prohibition de l’inceste. • On peut simuler l’existence de plusieurs sexes. • Mutation : Introduire de la diversité, pouvoir de création. Pas trop de mutation sinon introduction de bruit et pas de convergence. • On parcourt des espaces de recherche vastes, parsemés d’optima locaux. • Groupement en îlots, ou notion de voisinage comme dans les AC. • Puissance des AG ? Le théorème des schémas. AG peut traiter n³ schémas, n étant le nombre d’individu.

  29. Algorithmes génétiques • No-free-lunch theorem. • Mieux cerner les familles de problèmes pour lesquels ils sont les + adaptés. • Chaos. (Mise à jour prochaine) • L’idée est d’observer au sein de la population des variations proches de celles que l’on peut observer dans l’équation logistique (quand le taux de croissance vaut 4). Une variation chaotique du nombre d’individus dans la population pourrait permettre une plus grande diversité… Beaucoup de travaux doivent encore être réalisé.

  30. Reseaux de neurones • Les réseaux de neurones se distinguent par des interconnexions denses entre des unités de traitement simples, travaillent en parallèle : les neurones. • A chaque connexion est associé un poids qui détermine l'influence réciproque des deux unités connectées. • Les poids des connexions sont modifiables, ce qui donne lieu aux facultés d'adaptation et d'apprentissage.

  31. Reseaux de neurones • On appelle « apprentissage » des réseaux de neurones la procédure qui consiste à estimer les paramètres des neurones du réseau, afin que celui-ci remplisse au mieux la tâche qui lui est affectée. • Toute fonction bornée suffisamment régulière peut-être approchée uniformément, avec une précision arbitraire, dans un domaine fini de l’espace de ses variables, par un réseau de neurones comportant une couche de neurones cachés en nombre fini, possédant tous la même fonction d’activation et un neurone de sortie linéaire. • Réseau bouclé : Réseau multicouche non bouclé :

  32. Mémoires associatives • Réseau de Hopfield. • Modèle proposé en 1982 par Hopfield. Il souligna un lien permettant de traiter les réseaux de neurones comme un système physique classique (modèle d’Ising). Il a rapproché la physique des systèmes complexes et les sciences cognitives. • Modèle dynamique. Le modèle réinjecte les sorties calculées à chaque itération dans le réseau afin d’initier une itération supplémentaire jusqu’à ce que l’état interne devienne stable. Après une phase dynamique, l’activité neuronale se loge sur un point fixe. • Basé sur la loi de Hebb, connectivité totale et symétrique. Les liens synaptiques entre 2 neurones se renforcent ou s’affaiblissent selon leur activation dans la pattern à mémoriser.

  33. Mémoires associatives Fonction d’énergie : On peut démontrer que : La fonction d’énergie est aussi appelée « fonction de Lyapunov ». • Contraintes pour que Hopfield converge : • Mise à jour asynchrone. • W, la matrice de connectivité, est symétrique. • La diagonale de W est nulle.

  34. Mémoires associatives • La fonction est une fonction de Lyapunov ssi • Elle est continument dérivable • Où est un voisinage de 0. • Cette fonction permet de se rendre compte de la stabilité d’un état. • L'apprentissage engendre des particularités dynamiques qui peuvent être vues comme autant d'attracteurs (de point fixe) au sein desquelles est associée l'information. • Il n'est pas difficile d'étendre la mémoire associative à un réseau où des cycles limites périodiques ou quasi-périodiques serviraient de la même manière.

  35. Mémoires associatives • Le modèle de Hopfield n’est pas très performant : • Le modèle s’est présenté à ses débuts comme une modélisation du cerveau. Il est cependant basé sur des simplifications irréalistes. • Meilleures performances si l’orthogonalité des vecteurs d’entrée est respectée. • La connectivité est totale et symétrique. • Une capacité beaucoup trop faible, de l’ordre de 0.14N, N étant le nombre de neurones. • L’effondrement total des performances, une fois la capacité limite dépassée.

  36. Mémoires associatives • Bidirectionnal Associative Memory (BAM) • Modèle de Kosko (1988) a prolongé le modèle de Hopfield en incorporant une couche additionnelle pour exécuter des auto-associations récurrentes aussi bien que des hétéro-associations sur les mémoires stockées.Les liaisons sont bidirectionnelles. • Capacité de mémoire sévèrement basse, minimum (m,n). Tanaka montre que la capacité tourne autour de 0.1998n. • Le décodage implique de réverbérer l'information distribuée entre les deux couches jusqu'à ce que le réseau devienne stable.

  37. Mémoires associatives • Local learning, modèle de Storkey. • Cette règle d’apprentissage augmente de façon considérable la capacité de la mémoire.

  38. Mémoires associatives chaotiques • La notion d'attracteur semble être utilisée à chaque fois dans un contexte où un élément, une couleur, une odeur, se détache d'un fond chaotique pour devenir signifiant, se trouve une identité. • Les points fixes ne tiennent pas la comparaison avec les facultés de stockage de notre cerveau. • Aujourd’hui, on pense surtout que l’alternance périodicité/chaos est la solution pour s’approcher des performances du cerveau. • Le chaos frustré apparaît quand on croise des connections entre 2 réseaux ayant un attracteur périodique. En supprimant certaines connexions, on peut voir un chaos intermittent apparaître.

  39. Mémoires associatives chaotiques * Modèle de Aihara. Associative Chaotic Neural Network [1990]

  40. Mémoires associatives chaotiques • Quand les paramètres a, kf, krsont mis à zéro, on peut observer la dynamique habituelle du modèle de Hopfield. • Par contre, quand on incrémente le facteur kr , • kr=0.85 : Périodicité. • kr=0.90 : Longues périodes, chaos intermittent. • kr=0.95 :Chaotique. • Dans le deuxième état, les sorties ne vont converger vers aucun état d’équilibre correspondant aux patterns stockées, mais vont vagabonder autour.Le système se comporte comme un processus de recherche dynamique dans une mémoire. Ces mécanismes sont présents dans le cerveau humain. Si on rentre une pattern connue, on va cycler autour, si on rentre une pattern inconnue, on va rentrer dans une période très longue.

  41. Bibliographie • Gleick « La Théorie du Chaos » Flammarion. • Dreyfus-Martinez-Samuelides-Gordon-Badran-Thiria-Hérault « Reseaux de neurones » Eyrolles. • Rennard « Vie Artificielle » Vuibert. • Cornuéjols – Miclet « Apprentissage Artificiel » Eyrolles. • Crevier « A la recherche de l’intelligence artificielle » Flammarion. • Wolfram « A new kind of science ». • Pour la Science n°302 « Spécial cerveau ». • Bersini « The frustrated and compositionnal nature of chaos in small Hopfield networks ». • Mitchell-Crutchfield-Hraber « Dynamics, Computation and the « Edge of Chaos » ». • Corcoran – Wainwright « The Performance of Genetic Algorithm on a Chaotic Objective Function ». • Philemotte « Etudes de réseaux de neurones en tant que systèmes dynamiques chaotiques » Mémoire ULB. • Li – Deng « Pattern Retrieval Control in Associative Chaotic Neural Network ». • http://chaos.ph.utexas.edu/research/dsane/slog.html • http://membres.lycos.fr/vmallet/chaos/presentation.html • http://www.scf.fundp.ac.be/~amayer/cours/app.num/chaos.html • www.vieartificielle.com • http://www.automates-intelligents.com

More Related