Architectures d agents intelligents
This presentation is the property of its rightful owner.
Sponsored Links
1 / 47

Architectures d’agents intelligents PowerPoint PPT Presentation


  • 54 Views
  • Uploaded on
  • Presentation posted in: General

Architectures d’agents intelligents. Procedural Reasoning System (PRS) Belief Desire Intention (BDI). Module Intelligence artificielle P. De Loor - enib - 2001/2002. Introduction. Entités autonomes « intelligentes » : Pro-Activité (but) Autonomie (refus, échec) Robustesse Apprentissage

Download Presentation

Architectures d’agents intelligents

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Architectures d’agents intelligents

Procedural Reasoning System (PRS)Belief Desire Intention (BDI)

Module Intelligence artificielle

P. De Loor - enib - 2001/2002


Introduction

  • Entités autonomes « intelligentes » :

    • Pro-Activité (but)

    • Autonomie (refus, échec)

    • Robustesse

    • Apprentissage

    • Les autres

  • Comportements complexes


Introduction

  • Spécifier un comportement

    • code « en dur »,

    • modèles -> « interpréteur »,

      • bas niveau : équadiff, behavior net, rdn, -physique et biologie-

      • haut niveau : règles (IA), script, storytelling -psychologie-

      • association des deux -robotique-


I.A Classique (cognitive)

modèle générique

capteurs

actionneurs

modéliser

planifier

agir

Grandeurs physiques

Grandeurs physiques

Symboles

Inférence

  • lent

  • global

  • pro-activité , échec ?

  • dynamicité ?

STRIP, Chrdlu, Allen,

(Pert ?)


IA « Comportementale » (réactive)

  • Pas de planification/inférence

  • Pas de représentation symbolique (?)

capteurs

actionneurs

Fonction

sans

mémoire

Grandeurs physiques

Grandeurs physiques

  • rapide

  • modulaire

  • pro-actif : oui et non

    • la notion d’échec n ’existe pas mais réaction possible

    • pas d ’inférence

  • dynamicité : au niveau perception, pas comportement


Problème

  • A la fois réactif et cognitif ?

    • abstraction

  • Adaptation à un environnement dynamique

    • échec d ’une action

    • modification d ’un but

  • Deux exemples d ’approches

    • Architecture de P. Maës

    • Architecture des BDI


Approche Symbolique : Beliefs Desires Intentions

  • Architecture formelle  

    • Origines

      • psychologique, « Practical Reasoning » [BRA 87]

      • robotique, « Procedural Reasoning System » [GEO 86]

    • Puis :

      • modèles formels [Coh90], [Woo94], [Rao91]

      • aspect sociaux [Woo94]

      • raisonnement des agents rationnels [Woo00]


Formaliser

théorie

formaliser

système

formel

réel

prédire

fonctionne seul


Mots clés des formalistes

Langage formel : syntaxe

Modèle : théorie des modèles

Interprétation sémantique

Axiomatique : théorie de la démonstration

concept

Interprétation syntaxique


Les liens modèle-axiomatique

complétude

axiomatique

modèle

réel

adéquation

Notion de vérité {v,f}

de validité

Notion de preuve :

théorèmes


Procedural Reasoning System

PRS

Réactif

Notion d ’échecs

procédures

Cognitif planification

aspect déclaratif


Procedural Reasoning System

  • Ce dont on part :

    • But et environnement dynamique.

    • Connaissance de tâches (processus)

      • déclarative (précondition, effet)

      • procédurale (plan d ’actions)

  • Ce que l ’on fait :

    • Raisonner sur les processus/état/but

      • « means ends reasoning»

    • Lancer les processus (donc les actions).

    • Réévaluer en fonction des succès/échecs


Exemple de processus

  • Precondition : exist(a)  ...

  • Effect : position(a,3)

  • Connaissance procédurale

action1

action2

  • Action : prédicats du 1er ordre

    • formules : (on a b)(on b c),

    • comportements : (WALK a, b)

    • qui peuvent échouer.

succes

action3


Processus

  • c<P>g le processus P permet d ’atteindre un but c, s ’il s ’exécute avec succès à partir de l ’état (partiel) c.

  • un processus est en échec si toutes les solutions possibles ont été évaluées

  • difficulté : connaissant P définir c et g de la façon la plus complète


Planifier = Hiérarchisation de Plans

  • Raisonner à un niveau donné défini par les circonstances

  • Abstraire les « détails » non prévisibles à un niveau donné

  • Etre dynamique : modifier ses intentions (plan d ’actions)

  • Préserver un but


Exécution

but

A

pre:true

effect : !A

unification

pre:true

effect : !A

C

Lien environnement :

capable de répondre

succès ou échec


Un P.R.S : Bras manipulateur sur navette spatiale

Monitor

Entrées

Base de données

(faits, croyances)

(Procedures)

process assertion

Capteurs

Shuttle

Subsystems

Interpréteur

(Raisonnement)

Interface Utilisateur

Buts

Procedures actives

Actionneurs

Sorties

Génération de commande


P.R.S

  • Interpréteur

    • faits et buts ---> processus « activables »

    • choix de l ’un d ’entre eux en tête de pile d ’exécution

    • ajout dynamique de faits et de buts donc de processus « activables »

    • LISP

  • Problème : maintient de la cohérence


P.R.S : exemples d ’applications

  • Bras manipulateur [GEO 86]

  • Système de Control de la réaction de la NASA [ING 92]

  • Robocup [BER 97]


Ajout d ’un niveau supplémentaire

  • Niveau « méta »

    • règles de choix des procédures

    • auto-création de nouveaux buts

    • nouveaux désirs, croyances, intentions

    • même syntaxe et sémantique que le modèle précédent : même interpréteur

    • B.D.I.


B.D.I

  • Principe de P.R.S

  • Formalisation des concepts B.D.I (BGI)

  • Règles de mise à jours liées aux concepts

    • Caractérisation d ’un agent

  • Preuves

  • Aspects « multi » :

    • partage de croyances

    • appartenance à un groupe


Croyances

  • Affirmation :

    • connaissance …

    • sur l ’environnement.

    • sur soi (croyances(intentions) ..


Désirs

  • Buts pouvant être atteints.

  • peuvent être contradictoires.

  • « moteurs » de l ’agent.


Intentions ([Brat87])

  • But(s) ou désirs non contradictoires

  • Plan à exécuter pour satisfaire un désir

  • Réside d ’un choix à partir des croyances et des désirs.

  • influent sur des délibérations à venir.

  • re-considération «régulière» (réactif-pro-actif )


BDI [Wei 99]

Capteur/entrée

maj

brf

beliefs

generate options

desires

Processus itératif

filter

délibération

intentions

action

sortie


Architecture abstraite :

  • Interpréteur de base

    • états = formules (différentes logiques)

    • file d ’événements (externes/internes)

    • retour : événement ‘échec ’ ou ‘ succès ’ d ’actions

    • une option : fonction, plan, règle, tache, automate...


Architecture Abstraite [Sin 99]

  • Interpréteur BDI

    initialize-state();

    do

    options:= option-generator(event-queue, B,G,I);

    selected-options = deliberate(option, B,G,I);

    update-intention(selected-options,I);

    execute(I);

    get-new-external-events();

    drop-successful-attitudes(B,G,I);

    drop-impossible-attitudes(B,G,I);

    until quit.

    Maj = prise en compte d ’événements : belief-add, belief-remove…

    + compatibilité : belief-compatible, goal-compatible, intention-compatible

état


Formaliser les BDI

  • Formaliser : préciser ???

    • syntaxe

      • « grammaire » + « formules acceptables »

      • « proof theory » : liens et substitutions entre formules (axiomes et règles d ’inférences)

    • sémantique

      • « model theory » : lien avec la réalité (simplifiée)

    • les systèmes formels sont à « l ’exécution » ce que les méthodologies objets sont à la P.O.O.


Formaliser les BDI

  • Axiomes des BDI

    • caractéristiques « statiques »

    • déduction et inférence (B G I)

      • compatibilité entre-eux

      • ajout, retrait : interpréteur

      • mise à jour «dynamique»

    • vers l ’action

    • vers la « personnalisation » (esprit simple, ouvert)


Formalisation des BDI

  • Différentes Propositions

    • Logique du premier ordre : Intention/Engagement [Gen 87]

      • Bel(Janine,Father(Zeus,Chronos))

      • problème d ’expressivité

    • Logiques Modales :

      • mondes possibles

      • buts/désirs [Coh90], [Woo94]

      • buts/désirs/intentions/croyances/plan [Rao91]

      • « social plan » [Rao92]

  • Voire annexes


  • Exemple de spécification en BDI

    BEL(inevitable (have-soda;fill-glass;drink)quenched-thirst)

    BEL(inevitable (open-tap;fill-glass;drink)quenched-thirst)

    BEL(inevitable (open-fridge;remove-soda)have-soda)

    BEL(optional (have-soda;fill-glass;drink))

    BEL(optional (open-tap;fill-glass;drink))

    BEL(optional (open-fridge;remove-soda))

    BEL(inevitable (¬(soda-in-fridge)inevitable¬ (remove-soda))

    GOAL(inevitable (quenched-thirst))


    Exemples d ’interprétation

    • Axiomes en annexes

    • agent aveugle : l ’agent n ’accepte pas (comme but) qu’on lui demande de ne pas remplir son verre si dans ses buts il veut boire. Il n ’accepte pas (comme croyance) qu’il n ’y ait plus de soda non plus !

    • Esprit simple : si il n ’y a plus de soda dans le frigo, l ’agent le croit et garde l ’option de l ’eau. N ’accepte pas qu’on lui demande de ne pas remplir son verre.

    • Esprit ouvert : accepte de ne plus boire si on lui demande de ne pas remplir son verre.


    Implémenter les BDI

    • Interface avec l ’environnement

      • mondes ? (taille)

      • environnement -> état « cognitif »

      • état cognitif-> action -> environnement

      • Représentation des buts …

    • Primitives exécutables ?

    • ...


    Une Implémentation [Sin 99]

    • restrictions (temps/mémoire)

    • croyance de « faits », pas de conséquence

    • croyances et buts courant = prédicats sans disjonctions ou implications

    • formules de logique modale = plan = graphe

      • pour atteindre un but : « means-end reasoning »

    • plans hiérarchiques

    • croyances de plans

    • intentions = plans


    Interpréteur « réalisable »

    • Mise à jour I,G,B

    • buts à atteindre

      • ajoutés à la liste des intentions / hiérarchie

      • exécution des buts atomiques

    • but atteints

      • retirés des intentions

      • ajoutés aux croyances

      • mise à jour des intentions encore « réalistes »


    Conclusions sur les BDI

    • Nombreux travaux

    • Approche formelle

      • Idées sur les concepts

      • Difficulté de leur mise en œuvre

      • Réaliste ?


    Conclusions sur les BDI

    • Aspect « multi » peu traité (Rao 92)

      • Mutual BEL …

      • Joint GOAL ..

    • Langages logiques SMA :

      • Congolog

      • MetateM


    Annexe BDI : Unification : décomposition d’actions

    • Problème d ’unification but->processus

    • exemple :

      si le but est : ! (pq)

      unification avec deux sortes de processus

      c<P1>(!p)

      c<P2>(!q)

      c<P1>f(#c)

      c<P2>f (#c)

    • c<P1|P2> (!(p q))


    Annexe : Exemple : CTL BDI [Rao91]

    Logique CTL

    BDI

    • Etats (propositions)

    • Chemins

      • next O

      • eventually 

      • always 

      • until U

    • BEL()

    • GOAL()

    • INTEND()

    • succeeded(e)

    • failed(e)

    • done(e)

    • does(e)

    • occured(extern)

    optionnels, inévitables


    Annexe : Formalisation des BDI

    • Modèle des BDI

      • M = <W,E,T,, U, B,G,I,>

      • B  W x T x W

      • G  W x T x W

      • I  W x T x W

      • Monde w de W = <Tw,Aw,Sw,Fw>

      • plus sub-world, sémantique, et …. j ’arrête là

    Lien entre formules du premier ordre (pour

    chaque monde à chaque instant) et U

    mondes

    événements

    univers du discourt !

    relation de succession entre instants

    instants

    Sous ensemble de T

    Sous ensemble de 

    Tw x Tw  E = événements réussis

    Tw x Tw  E = événements échecs


    Annexe : Formalisation des BDI

    • Exemples d ’axiomes « statiques »

    • AI1 : GOAL()  BEL() un nouveau but ne peut être possible que s ’il est cru (goal-compatible).

    • AI2 : une intention ne peut être possible que si elle fait partie des buts (intention-compatible)

    • AI3 : INTEND(does(e))  does(e) : un agent tente une action ‘ a ’ si does(a) fait partie de ses intentions.

    • AI4 : un agent ayant l ’intention Ø ajoute cette intention dans ses croyances (BEL(INTEND(Ø))

    • AI5 : un agent ayant le but Ø ajoute celui ci dans ses croyances (BEL(GOAL(Ø))

    • AI7 : un agent ajoute à ses croyances le fait qu’il tente une action

    • AI8 : INTEND()  inevitable(¬INTEND()) un agent peut changer d ’avis.


    Annexe : Formalisation des BDI

    • Exemple d ’axiome de déduction

      • si INTEND(inevitable(INTEND(does(e))))

        alors BEL(optional(INTEND(does(e)))

        et BEL(optional(BEL(does(e))))


    Annexe : Axiomes du changement

    • Aveugle : AI9a

      • Garde le but dans ses intentions jusqu’à ce qu’il le croit atteint.

      • Refuse de croire des choses incompatibles avec ses intentions

      • INTEND(inévitable( ))

        (inévitable(INTEND(inévitable  ))U(BEL())

        (notons l ’axiome done(e)  BEL(done(e))

        drop-impossible-attitude met dans les croyances le but associé à l ’intention retirée.

        belief-compatible retourne false sur belief-add(Ø) si on a  tel que INTEND() et que BEL(Ø) implique BEL(¬ )


    Annexe : Axiomes du changement

    • Esprit simple AI9b,

      • Engagement par les buts, ouverture sur les croyances

      • Les intentions persistent tant qu’on les croit atteignables

      • L ’agent accepte de croire des choses en contradiction avec ses intentions et donc de les retirer

      • INTEND(inevitable ( ))

        (inévitable(INTEND(inévitable  ))U(BEL()  ¬BEL(optional  )))

        belief-compatible : toujours vrai

        drop-impossible-attitudes : retire les intentions qui ne sont plus en accord avec les croyances


    Annexe : Axiomes du changement

    • Esprit ouvert AI9c

      • accepte de changer de buts (en fonction de croyances)

      • maintient des intentions tant qu’elles font parties des buts.

      • INTEND(inevitable ( ))

        (inévitable(INTEND(inévitable  ))U(BEL()  ¬GOAL(optional  )))

        goal-compatible : toujours vrai(sauf si en contradiction avec AI1)

        drop-impossible-aptitude : retire les intentions qui ne sont plus des buts ou qui sont exclues des croyances


    Bibliographie

    [All 94] J.M Alliot et T. SCHIEX, Intelligence artificielle& Informatique théorique, cépadues édition, ISBN 2-85428-324-4.

    [Arb 81] M.A. Arbib, Perceptual strucutures and distributed motor control, Handbook of Physiology -- The nervous System II, ed. V. Brooks, 1981.

    [Arb 95] M.A. Arbib, Schema Theory, The Handbook of Brain Theory and Neural Networks, ed M. Arbib, MIT Press, Cambridge MA, pp. 830-834, 1995.

    [Ark 87] R.C. Arkin, Motor schema based navigation for a mobile robot: an approach to programming by behavior, proceedings of the 1987 IEEE International Conferenceon Robotics and Automation, pp. 264-271, 1987.

    [Ark 98] R.C. Arkin, Behavior-based robotics, MIT Press, Cambridge MA, 1998.

    [Arn 00] P. Arnaud, Des moutons et des robots, Presses Polytechniques et universitaires romandes, 2000.

    [BER 97] Bersano-Begey et al. Multi-Agent Teamwork, Adaptative Learning and Adversial Planning in Robocup Using a PRS Architecture », in IJCAI97.

    [Bra 87] M.E Bratman, Intentions, Plans and Practical Reason, Havard University Press, Cambridge, MA, 1987.

    [BRO 86] R. Brooks, A robust layered control system for a mobile robot, IEEE Journal of Robotics and Automation, RA-2/1, pp. 14-23, mars 1986.

    [Cav 01] M. Cavazza, F. Charles and J.M. Steven, Characters in Search of an Author: AI-Based Virtual Storytelling, ICVS 2001, LNCS 2197, pp.145-154,2001.

    [Del00] De Loor Pand Chevaillier P, Generation of Agent Interactions from Temporal Logic Specifications, 16 th IMACS World congress on Scientific Computation, Applied Mathematics and Simulation, Lausanne, 2000.

    [Don 01] S. Donikian, HPTS : a behaviour modelling language for autonomous agents. In: Fifth International Conference on Autonomous Agents. Montreal, Canada, mai 2001.

    [Coh 90] Cohen and Levesque, Intention is choice with commitment. Artificial Intelligence, 42(3), 1990.

    [GBR 95] J.P. Granieri et al Behavioral control for real-time simulated human agents. Symposium on Interactive 3D Graphics, pp. 173-180, 1995.


    Bibliographie (suite)

    [Geo 86] M.P. Georgeff, A. L. Lansky, Procedural Knowledge, Proceedings of the IEEE Vol 74, N° 10, October 1986.

    [Gen 87] Genesereth, M.R. and Nilson N. Logical Foundations of Artifical Intelligence. Morgan Kaufmann Publishers, San Mateo, CA, 1987.

    [Hay 95] Haye-Roth, B., An Architecture for Adaptive Intelligent Systems, Artificial Intelligence : Special Issue on Agents and Interactivity, (72), 1995.

    [Hin 62, J. Hintikka, Knowledge and Belief, Cornell University Press: Ithaca, NY.

    [Kri 63 Semantical analysis of modal logic. Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 9:67-96.

    [MAES 89] P. Maes, The dynamics of action selection, Proceedings of the international Joint Conference on Artificial Intelligence, IJCAI-89, 1989.

    [Mat97] M. Mateas An Oz-Centric Review of Interactive Drama and Believable Agents, Internal report CMU-CS-97-156, 1997.

    [PG 96] K. Perlin, A. Golderg, Improv: A system for scripting interactive actors in virtual worlds. In SIGGRAPH ’96 - 1196.

    [Rao92] Rao A.S. Georgeff M.P and Sonenberg E.A. SOCIAL PLANS: A PRELIMINARY REPORT, decentralized A.I - 3, 1992.

    [Sin 99] Singh M P. Rao A.S. and Georgeff M.P. Formal Methods in DAI : Logic-Based Representation and Reasoning, in « Multiagent Systems », edited by Gerhard Weiss, The MIT Press.

    [TOP99] X. Topin, C. Régis, MP. Gleizes et P. Glize, Comportement individuels adaptatifs dans un environnement dynamique pour l ’exploitation collective de ressources , Intelligences arrificielle située, Hermes, 1999.

    [Van 91] K.VanLehn, Architectures for Intelligence. Lawrence Erlbaum Associates, New Jersey, 1991.

    [Woo 94] Wooldridge, M. Coherent social action. In Proceedings of the Eleventh European Conference on Artificial Intelligence (ECAI-94), pages 279-283, Amsterdam, 1994.

    [Woo 95] M. Wooldridge and R.Jennings, Intelligent Agents : Theory and practice. The knowledge Engineering Review, 10(2), p115-152, 1995.


  • Login