Architectures d agents intelligents
This presentation is the property of its rightful owner.
Sponsored Links
1 / 47

Architectures d’agents intelligents PowerPoint PPT Presentation


  • 50 Views
  • Uploaded on
  • Presentation posted in: General

Architectures d’agents intelligents. Procedural Reasoning System (PRS) Belief Desire Intention (BDI). Module Intelligence artificielle P. De Loor - enib - 2001/2002. Introduction. Entités autonomes « intelligentes » : Pro-Activité (but) Autonomie (refus, échec) Robustesse Apprentissage

Download Presentation

Architectures d’agents intelligents

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Architectures d agents intelligents

Architectures d’agents intelligents

Procedural Reasoning System (PRS)Belief Desire Intention (BDI)

Module Intelligence artificielle

P. De Loor - enib - 2001/2002


Introduction

Introduction

  • Entités autonomes « intelligentes » :

    • Pro-Activité (but)

    • Autonomie (refus, échec)

    • Robustesse

    • Apprentissage

    • Les autres

  • Comportements complexes


Architectures d agents intelligents

Introduction

  • Spécifier un comportement

    • code « en dur »,

    • modèles -> « interpréteur »,

      • bas niveau : équadiff, behavior net, rdn, -physique et biologie-

      • haut niveau : règles (IA), script, storytelling -psychologie-

      • association des deux -robotique-


I a classique cognitive

I.A Classique (cognitive)

modèle générique

capteurs

actionneurs

modéliser

planifier

agir

Grandeurs physiques

Grandeurs physiques

Symboles

Inférence

  • lent

  • global

  • pro-activité , échec ?

  • dynamicité ?

STRIP, Chrdlu, Allen,

(Pert ?)


Ia comportementale r active

IA « Comportementale » (réactive)

  • Pas de planification/inférence

  • Pas de représentation symbolique (?)

capteurs

actionneurs

Fonction

sans

mémoire

Grandeurs physiques

Grandeurs physiques

  • rapide

  • modulaire

  • pro-actif : oui et non

    • la notion d’échec n ’existe pas mais réaction possible

    • pas d ’inférence

  • dynamicité : au niveau perception, pas comportement


Probl me

Problème

  • A la fois réactif et cognitif ?

    • abstraction

  • Adaptation à un environnement dynamique

    • échec d ’une action

    • modification d ’un but

  • Deux exemples d ’approches

    • Architecture de P. Maës

    • Architecture des BDI


Approche symbolique beliefs desires intentions

Approche Symbolique : Beliefs Desires Intentions

  • Architecture formelle  

    • Origines

      • psychologique, « Practical Reasoning » [BRA 87]

      • robotique, « Procedural Reasoning System » [GEO 86]

    • Puis :

      • modèles formels [Coh90], [Woo94], [Rao91]

      • aspect sociaux [Woo94]

      • raisonnement des agents rationnels [Woo00]


Formaliser

Formaliser

théorie

formaliser

système

formel

réel

prédire

fonctionne seul


Mots cl s des formalistes

Mots clés des formalistes

Langage formel : syntaxe

Modèle : théorie des modèles

Interprétation sémantique

Axiomatique : théorie de la démonstration

concept

Interprétation syntaxique


Les liens mod le axiomatique

Les liens modèle-axiomatique

complétude

axiomatique

modèle

réel

adéquation

Notion de vérité {v,f}

de validité

Notion de preuve :

théorèmes


Architectures d agents intelligents

Procedural Reasoning System

PRS

Réactif

Notion d ’échecs

procédures

Cognitif planification

aspect déclaratif


Procedural reasoning system

Procedural Reasoning System

  • Ce dont on part :

    • But et environnement dynamique.

    • Connaissance de tâches (processus)

      • déclarative (précondition, effet)

      • procédurale (plan d ’actions)

  • Ce que l ’on fait :

    • Raisonner sur les processus/état/but

      • « means ends reasoning»

    • Lancer les processus (donc les actions).

    • Réévaluer en fonction des succès/échecs


Exemple de processus

Exemple de processus

  • Precondition : exist(a)  ...

  • Effect : position(a,3)

  • Connaissance procédurale

action1

action2

  • Action : prédicats du 1er ordre

    • formules : (on a b)(on b c),

    • comportements : (WALK a, b)

    • qui peuvent échouer.

succes

action3


Processus

Processus

  • c<P>g le processus P permet d ’atteindre un but c, s ’il s ’exécute avec succès à partir de l ’état (partiel) c.

  • un processus est en échec si toutes les solutions possibles ont été évaluées

  • difficulté : connaissant P définir c et g de la façon la plus complète


Planifier hi rarchisation de plans

Planifier = Hiérarchisation de Plans

  • Raisonner à un niveau donné défini par les circonstances

  • Abstraire les « détails » non prévisibles à un niveau donné

  • Etre dynamique : modifier ses intentions (plan d ’actions)

  • Préserver un but


Ex cution

Exécution

but

A

pre:true

effect : !A

unification

pre:true

effect : !A

C

Lien environnement :

capable de répondre

succès ou échec


Un p r s bras manipulateur sur navette spatiale

Un P.R.S : Bras manipulateur sur navette spatiale

Monitor

Entrées

Base de données

(faits, croyances)

(Procedures)

process assertion

Capteurs

Shuttle

Subsystems

Interpréteur

(Raisonnement)

Interface Utilisateur

Buts

Procedures actives

Actionneurs

Sorties

Génération de commande


P r s

P.R.S

  • Interpréteur

    • faits et buts ---> processus « activables »

    • choix de l ’un d ’entre eux en tête de pile d ’exécution

    • ajout dynamique de faits et de buts donc de processus « activables »

    • LISP

  • Problème : maintient de la cohérence


P r s exemples d applications

P.R.S : exemples d ’applications

  • Bras manipulateur [GEO 86]

  • Système de Control de la réaction de la NASA [ING 92]

  • Robocup [BER 97]


Ajout d un niveau suppl mentaire

Ajout d ’un niveau supplémentaire

  • Niveau « méta »

    • règles de choix des procédures

    • auto-création de nouveaux buts

    • nouveaux désirs, croyances, intentions

    • même syntaxe et sémantique que le modèle précédent : même interpréteur

    • B.D.I.


B d i

B.D.I

  • Principe de P.R.S

  • Formalisation des concepts B.D.I (BGI)

  • Règles de mise à jours liées aux concepts

    • Caractérisation d ’un agent

  • Preuves

  • Aspects « multi » :

    • partage de croyances

    • appartenance à un groupe


Croyances

Croyances

  • Affirmation :

    • connaissance …

    • sur l ’environnement.

    • sur soi (croyances(intentions) ..


D sirs

Désirs

  • Buts pouvant être atteints.

  • peuvent être contradictoires.

  • « moteurs » de l ’agent.


Intentions brat87

Intentions ([Brat87])

  • But(s) ou désirs non contradictoires

  • Plan à exécuter pour satisfaire un désir

  • Réside d ’un choix à partir des croyances et des désirs.

  • influent sur des délibérations à venir.

  • re-considération «régulière» (réactif-pro-actif )


Bdi wei 99

BDI [Wei 99]

Capteur/entrée

maj

brf

beliefs

generate options

desires

Processus itératif

filter

délibération

intentions

action

sortie


Architecture abstraite

Architecture abstraite :

  • Interpréteur de base

    • états = formules (différentes logiques)

    • file d ’événements (externes/internes)

    • retour : événement ‘échec ’ ou ‘ succès ’ d ’actions

    • une option : fonction, plan, règle, tache, automate...


Architecture abstraite sin 99

Architecture Abstraite [Sin 99]

  • Interpréteur BDI

    initialize-state();

    do

    options:= option-generator(event-queue, B,G,I);

    selected-options = deliberate(option, B,G,I);

    update-intention(selected-options,I);

    execute(I);

    get-new-external-events();

    drop-successful-attitudes(B,G,I);

    drop-impossible-attitudes(B,G,I);

    until quit.

    Maj = prise en compte d ’événements : belief-add, belief-remove…

    + compatibilité : belief-compatible, goal-compatible, intention-compatible

état


Formaliser les bdi

Formaliser les BDI

  • Formaliser : préciser ???

    • syntaxe

      • « grammaire » + « formules acceptables »

      • « proof theory » : liens et substitutions entre formules (axiomes et règles d ’inférences)

    • sémantique

      • « model theory » : lien avec la réalité (simplifiée)

    • les systèmes formels sont à « l ’exécution » ce que les méthodologies objets sont à la P.O.O.


Formaliser les bdi1

Formaliser les BDI

  • Axiomes des BDI

    • caractéristiques « statiques »

    • déduction et inférence (B G I)

      • compatibilité entre-eux

      • ajout, retrait : interpréteur

      • mise à jour «dynamique»

    • vers l ’action

    • vers la « personnalisation » (esprit simple, ouvert)


Formalisation des bdi

Formalisation des BDI

  • Différentes Propositions

    • Logique du premier ordre : Intention/Engagement [Gen 87]

      • Bel(Janine,Father(Zeus,Chronos))

      • problème d ’expressivité

    • Logiques Modales :

      • mondes possibles

      • buts/désirs [Coh90], [Woo94]

      • buts/désirs/intentions/croyances/plan [Rao91]

      • « social plan » [Rao92]

  • Voire annexes


  • Exemple de sp cification en bdi

    Exemple de spécification en BDI

    BEL(inevitable (have-soda;fill-glass;drink)quenched-thirst)

    BEL(inevitable (open-tap;fill-glass;drink)quenched-thirst)

    BEL(inevitable (open-fridge;remove-soda)have-soda)

    BEL(optional (have-soda;fill-glass;drink))

    BEL(optional (open-tap;fill-glass;drink))

    BEL(optional (open-fridge;remove-soda))

    BEL(inevitable (¬(soda-in-fridge)inevitable¬ (remove-soda))

    GOAL(inevitable (quenched-thirst))


    Exemples d interpr tation

    Exemples d ’interprétation

    • Axiomes en annexes

    • agent aveugle : l ’agent n ’accepte pas (comme but) qu’on lui demande de ne pas remplir son verre si dans ses buts il veut boire. Il n ’accepte pas (comme croyance) qu’il n ’y ait plus de soda non plus !

    • Esprit simple : si il n ’y a plus de soda dans le frigo, l ’agent le croit et garde l ’option de l ’eau. N ’accepte pas qu’on lui demande de ne pas remplir son verre.

    • Esprit ouvert : accepte de ne plus boire si on lui demande de ne pas remplir son verre.


    Impl menter les bdi

    Implémenter les BDI

    • Interface avec l ’environnement

      • mondes ? (taille)

      • environnement -> état « cognitif »

      • état cognitif-> action -> environnement

      • Représentation des buts …

    • Primitives exécutables ?

    • ...


    Une impl mentation sin 99

    Une Implémentation [Sin 99]

    • restrictions (temps/mémoire)

    • croyance de « faits », pas de conséquence

    • croyances et buts courant = prédicats sans disjonctions ou implications

    • formules de logique modale = plan = graphe

      • pour atteindre un but : « means-end reasoning »

    • plans hiérarchiques

    • croyances de plans

    • intentions = plans


    Interpr teur r alisable

    Interpréteur « réalisable »

    • Mise à jour I,G,B

    • buts à atteindre

      • ajoutés à la liste des intentions / hiérarchie

      • exécution des buts atomiques

    • but atteints

      • retirés des intentions

      • ajoutés aux croyances

      • mise à jour des intentions encore « réalistes »


    Conclusions sur les bdi

    Conclusions sur les BDI

    • Nombreux travaux

    • Approche formelle

      • Idées sur les concepts

      • Difficulté de leur mise en œuvre

      • Réaliste ?


    Conclusions sur les bdi1

    Conclusions sur les BDI

    • Aspect « multi » peu traité (Rao 92)

      • Mutual BEL …

      • Joint GOAL ..

    • Langages logiques SMA :

      • Congolog

      • MetateM


    Annexe bdi unification d composition d actions

    Annexe BDI : Unification : décomposition d’actions

    • Problème d ’unification but->processus

    • exemple :

      si le but est : ! (pq)

      unification avec deux sortes de processus

      c<P1>(!p)

      c<P2>(!q)

      c<P1>f(#c)

      c<P2>f (#c)

    • c<P1|P2> (!(p q))


    Annexe exemple ctl bdi rao91

    Annexe : Exemple : CTL BDI [Rao91]

    Logique CTL

    BDI

    • Etats (propositions)

    • Chemins

      • next O

      • eventually 

      • always 

      • until U

    • BEL()

    • GOAL()

    • INTEND()

    • succeeded(e)

    • failed(e)

    • done(e)

    • does(e)

    • occured(extern)

    optionnels, inévitables


    Annexe formalisation des bdi

    Annexe : Formalisation des BDI

    • Modèle des BDI

      • M = <W,E,T,, U, B,G,I,>

      • B  W x T x W

      • G  W x T x W

      • I  W x T x W

      • Monde w de W = <Tw,Aw,Sw,Fw>

      • plus sub-world, sémantique, et …. j ’arrête là

    Lien entre formules du premier ordre (pour

    chaque monde à chaque instant) et U

    mondes

    événements

    univers du discourt !

    relation de succession entre instants

    instants

    Sous ensemble de T

    Sous ensemble de 

    Tw x Tw  E = événements réussis

    Tw x Tw  E = événements échecs


    Annexe formalisation des bdi1

    Annexe : Formalisation des BDI

    • Exemples d ’axiomes « statiques »

    • AI1 : GOAL()  BEL() un nouveau but ne peut être possible que s ’il est cru (goal-compatible).

    • AI2 : une intention ne peut être possible que si elle fait partie des buts (intention-compatible)

    • AI3 : INTEND(does(e))  does(e) : un agent tente une action ‘ a ’ si does(a) fait partie de ses intentions.

    • AI4 : un agent ayant l ’intention Ø ajoute cette intention dans ses croyances (BEL(INTEND(Ø))

    • AI5 : un agent ayant le but Ø ajoute celui ci dans ses croyances (BEL(GOAL(Ø))

    • AI7 : un agent ajoute à ses croyances le fait qu’il tente une action

    • AI8 : INTEND()  inevitable(¬INTEND()) un agent peut changer d ’avis.


    Annexe formalisation des bdi2

    Annexe : Formalisation des BDI

    • Exemple d ’axiome de déduction

      • si INTEND(inevitable(INTEND(does(e))))

        alors BEL(optional(INTEND(does(e)))

        et BEL(optional(BEL(does(e))))


    Annexe axiomes du changement

    Annexe : Axiomes du changement

    • Aveugle : AI9a

      • Garde le but dans ses intentions jusqu’à ce qu’il le croit atteint.

      • Refuse de croire des choses incompatibles avec ses intentions

      • INTEND(inévitable( ))

        (inévitable(INTEND(inévitable  ))U(BEL())

        (notons l ’axiome done(e)  BEL(done(e))

        drop-impossible-attitude met dans les croyances le but associé à l ’intention retirée.

        belief-compatible retourne false sur belief-add(Ø) si on a  tel que INTEND() et que BEL(Ø) implique BEL(¬ )


    Annexe axiomes du changement1

    Annexe : Axiomes du changement

    • Esprit simple AI9b,

      • Engagement par les buts, ouverture sur les croyances

      • Les intentions persistent tant qu’on les croit atteignables

      • L ’agent accepte de croire des choses en contradiction avec ses intentions et donc de les retirer

      • INTEND(inevitable ( ))

        (inévitable(INTEND(inévitable  ))U(BEL()  ¬BEL(optional  )))

        belief-compatible : toujours vrai

        drop-impossible-attitudes : retire les intentions qui ne sont plus en accord avec les croyances


    Annexe axiomes du changement2

    Annexe : Axiomes du changement

    • Esprit ouvert AI9c

      • accepte de changer de buts (en fonction de croyances)

      • maintient des intentions tant qu’elles font parties des buts.

      • INTEND(inevitable ( ))

        (inévitable(INTEND(inévitable  ))U(BEL()  ¬GOAL(optional  )))

        goal-compatible : toujours vrai(sauf si en contradiction avec AI1)

        drop-impossible-aptitude : retire les intentions qui ne sont plus des buts ou qui sont exclues des croyances


    Bibliographie

    Bibliographie

    [All 94] J.M Alliot et T. SCHIEX, Intelligence artificielle& Informatique théorique, cépadues édition, ISBN 2-85428-324-4.

    [Arb 81] M.A. Arbib, Perceptual strucutures and distributed motor control, Handbook of Physiology -- The nervous System II, ed. V. Brooks, 1981.

    [Arb 95] M.A. Arbib, Schema Theory, The Handbook of Brain Theory and Neural Networks, ed M. Arbib, MIT Press, Cambridge MA, pp. 830-834, 1995.

    [Ark 87] R.C. Arkin, Motor schema based navigation for a mobile robot: an approach to programming by behavior, proceedings of the 1987 IEEE International Conferenceon Robotics and Automation, pp. 264-271, 1987.

    [Ark 98] R.C. Arkin, Behavior-based robotics, MIT Press, Cambridge MA, 1998.

    [Arn 00] P. Arnaud, Des moutons et des robots, Presses Polytechniques et universitaires romandes, 2000.

    [BER 97] Bersano-Begey et al. Multi-Agent Teamwork, Adaptative Learning and Adversial Planning in Robocup Using a PRS Architecture », in IJCAI97.

    [Bra 87] M.E Bratman, Intentions, Plans and Practical Reason, Havard University Press, Cambridge, MA, 1987.

    [BRO 86] R. Brooks, A robust layered control system for a mobile robot, IEEE Journal of Robotics and Automation, RA-2/1, pp. 14-23, mars 1986.

    [Cav 01] M. Cavazza, F. Charles and J.M. Steven, Characters in Search of an Author: AI-Based Virtual Storytelling, ICVS 2001, LNCS 2197, pp.145-154,2001.

    [Del00] De Loor Pand Chevaillier P, Generation of Agent Interactions from Temporal Logic Specifications, 16 th IMACS World congress on Scientific Computation, Applied Mathematics and Simulation, Lausanne, 2000.

    [Don 01] S. Donikian, HPTS : a behaviour modelling language for autonomous agents. In: Fifth International Conference on Autonomous Agents. Montreal, Canada, mai 2001.

    [Coh 90] Cohen and Levesque, Intention is choice with commitment. Artificial Intelligence, 42(3), 1990.

    [GBR 95] J.P. Granieri et al Behavioral control for real-time simulated human agents. Symposium on Interactive 3D Graphics, pp. 173-180, 1995.


    Bibliographie suite

    Bibliographie (suite)

    [Geo 86] M.P. Georgeff, A. L. Lansky, Procedural Knowledge, Proceedings of the IEEE Vol 74, N° 10, October 1986.

    [Gen 87] Genesereth, M.R. and Nilson N. Logical Foundations of Artifical Intelligence. Morgan Kaufmann Publishers, San Mateo, CA, 1987.

    [Hay 95] Haye-Roth, B., An Architecture for Adaptive Intelligent Systems, Artificial Intelligence : Special Issue on Agents and Interactivity, (72), 1995.

    [Hin 62, J. Hintikka, Knowledge and Belief, Cornell University Press: Ithaca, NY.

    [Kri 63 Semantical analysis of modal logic. Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 9:67-96.

    [MAES 89] P. Maes, The dynamics of action selection, Proceedings of the international Joint Conference on Artificial Intelligence, IJCAI-89, 1989.

    [Mat97] M. Mateas An Oz-Centric Review of Interactive Drama and Believable Agents, Internal report CMU-CS-97-156, 1997.

    [PG 96] K. Perlin, A. Golderg, Improv: A system for scripting interactive actors in virtual worlds. In SIGGRAPH ’96 - 1196.

    [Rao92] Rao A.S. Georgeff M.P and Sonenberg E.A. SOCIAL PLANS: A PRELIMINARY REPORT, decentralized A.I - 3, 1992.

    [Sin 99] Singh M P. Rao A.S. and Georgeff M.P. Formal Methods in DAI : Logic-Based Representation and Reasoning, in « Multiagent Systems », edited by Gerhard Weiss, The MIT Press.

    [TOP99] X. Topin, C. Régis, MP. Gleizes et P. Glize, Comportement individuels adaptatifs dans un environnement dynamique pour l ’exploitation collective de ressources , Intelligences arrificielle située, Hermes, 1999.

    [Van 91] K.VanLehn, Architectures for Intelligence. Lawrence Erlbaum Associates, New Jersey, 1991.

    [Woo 94] Wooldridge, M. Coherent social action. In Proceedings of the Eleventh European Conference on Artificial Intelligence (ECAI-94), pages 279-283, Amsterdam, 1994.

    [Woo 95] M. Wooldridge and R.Jennings, Intelligent Agents : Theory and practice. The knowledge Engineering Review, 10(2), p115-152, 1995.


  • Login