architectures d agents intelligents
Download
Skip this Video
Download Presentation
Architectures d’agents intelligents

Loading in 2 Seconds...

play fullscreen
1 / 47

Architectures d’agents intelligents - PowerPoint PPT Presentation


  • 66 Views
  • Uploaded on

Architectures d’agents intelligents. Procedural Reasoning System (PRS) Belief Desire Intention (BDI). Module Intelligence artificielle P. De Loor - enib - 2001/2002. Introduction. Entités autonomes « intelligentes » : Pro-Activité (but) Autonomie (refus, échec) Robustesse Apprentissage

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' Architectures d’agents intelligents' - wilma


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
architectures d agents intelligents

Architectures d’agents intelligents

Procedural Reasoning System (PRS)Belief Desire Intention (BDI)

Module Intelligence artificielle

P. De Loor - enib - 2001/2002

introduction
Introduction
  • Entités autonomes « intelligentes » :
    • Pro-Activité (but)
    • Autonomie (refus, échec)
    • Robustesse
    • Apprentissage
    • Les autres
  • Comportements complexes
slide3

Introduction

  • Spécifier un comportement
    • code « en dur »,
    • modèles -> « interpréteur »,
      • bas niveau : équadiff, behavior net, rdn, -physique et biologie-
      • haut niveau : règles (IA), script, storytelling -psychologie-
      • association des deux -robotique-
i a classique cognitive
I.A Classique (cognitive)

modèle générique

capteurs

actionneurs

modéliser

planifier

agir

Grandeurs physiques

Grandeurs physiques

Symboles

Inférence

  • lent
  • global
  • pro-activité , échec ?
  • dynamicité ?

STRIP, Chrdlu, Allen,

(Pert ?)

ia comportementale r active
IA « Comportementale » (réactive)
  • Pas de planification/inférence
  • Pas de représentation symbolique (?)

capteurs

actionneurs

Fonction

sans

mémoire

Grandeurs physiques

Grandeurs physiques

  • rapide
  • modulaire
  • pro-actif : oui et non
    • la notion d’échec n ’existe pas mais réaction possible
    • pas d ’inférence
  • dynamicité : au niveau perception, pas comportement
probl me
Problème
  • A la fois réactif et cognitif ?
    • abstraction
  • Adaptation à un environnement dynamique
    • échec d ’une action
    • modification d ’un but
  • Deux exemples d ’approches
    • Architecture de P. Maës
    • Architecture des BDI
approche symbolique beliefs desires intentions
Approche Symbolique : Beliefs Desires Intentions
  • Architecture formelle  
    • Origines
      • psychologique, « Practical Reasoning » [BRA 87]
      • robotique, « Procedural Reasoning System » [GEO 86]
    • Puis :
      • modèles formels [Coh90], [Woo94], [Rao91]
      • aspect sociaux [Woo94]
      • raisonnement des agents rationnels [Woo00]
formaliser
Formaliser

théorie

formaliser

système

formel

réel

prédire

fonctionne seul

mots cl s des formalistes
Mots clés des formalistes

Langage formel : syntaxe

Modèle : théorie des modèles

Interprétation sémantique

Axiomatique : théorie de la démonstration

concept

Interprétation syntaxique

les liens mod le axiomatique
Les liens modèle-axiomatique

complétude

axiomatique

modèle

réel

adéquation

Notion de vérité {v,f}

de validité

Notion de preuve :

théorèmes

slide11

Procedural Reasoning System

PRS

Réactif

Notion d ’échecs

procédures

Cognitif planification

aspect déclaratif

procedural reasoning system
Procedural Reasoning System
  • Ce dont on part :
    • But et environnement dynamique.
    • Connaissance de tâches (processus)
      • déclarative (précondition, effet)
      • procédurale (plan d ’actions)
  • Ce que l ’on fait :
    • Raisonner sur les processus/état/but
      • « means ends reasoning»
    • Lancer les processus (donc les actions).
    • Réévaluer en fonction des succès/échecs
exemple de processus
Exemple de processus
  • Precondition : exist(a)  ...
  • Effect : position(a,3)
  • Connaissance procédurale

action1

action2

  • Action : prédicats du 1er ordre
    • formules : (on a b)(on b c),
    • comportements : (WALK a, b)
    • qui peuvent échouer.

succes

action3

processus
Processus
  • c<P>g le processus P permet d ’atteindre un but c, s ’il s ’exécute avec succès à partir de l ’état (partiel) c.
  • un processus est en échec si toutes les solutions possibles ont été évaluées
  • difficulté : connaissant P définir c et g de la façon la plus complète
planifier hi rarchisation de plans
Planifier = Hiérarchisation de Plans
  • Raisonner à un niveau donné défini par les circonstances
  • Abstraire les « détails » non prévisibles à un niveau donné
  • Etre dynamique : modifier ses intentions (plan d ’actions)
  • Préserver un but
ex cution
Exécution

but

A

pre:true

effect : !A

unification

pre:true

effect : !A

C

Lien environnement :

capable de répondre

succès ou échec

un p r s bras manipulateur sur navette spatiale
Un P.R.S : Bras manipulateur sur navette spatiale

Monitor

Entrées

Base de données

(faits, croyances)

(Procedures)

process assertion

Capteurs

Shuttle

Subsystems

Interpréteur

(Raisonnement)

Interface Utilisateur

Buts

Procedures actives

Actionneurs

Sorties

Génération de commande

p r s
P.R.S
  • Interpréteur
    • faits et buts ---> processus « activables »
    • choix de l ’un d ’entre eux en tête de pile d ’exécution
    • ajout dynamique de faits et de buts donc de processus « activables »
    • LISP
  • Problème : maintient de la cohérence
p r s exemples d applications
P.R.S : exemples d ’applications
  • Bras manipulateur [GEO 86]
  • Système de Control de la réaction de la NASA [ING 92]
  • Robocup [BER 97]
ajout d un niveau suppl mentaire
Ajout d ’un niveau supplémentaire
  • Niveau « méta »
    • règles de choix des procédures
    • auto-création de nouveaux buts
    • nouveaux désirs, croyances, intentions
    • même syntaxe et sémantique que le modèle précédent : même interpréteur
    • B.D.I.
b d i
B.D.I
  • Principe de P.R.S
  • Formalisation des concepts B.D.I (BGI)
  • Règles de mise à jours liées aux concepts
    • Caractérisation d ’un agent
  • Preuves
  • Aspects « multi » :
    • partage de croyances
    • appartenance à un groupe
croyances
Croyances
  • Affirmation :
    • connaissance …
    • sur l ’environnement.
    • sur soi (croyances(intentions) ..
d sirs
Désirs
  • Buts pouvant être atteints.
  • peuvent être contradictoires.
  • « moteurs » de l ’agent.
intentions brat87
Intentions ([Brat87])
  • But(s) ou désirs non contradictoires
  • Plan à exécuter pour satisfaire un désir
  • Réside d ’un choix à partir des croyances et des désirs.
  • influent sur des délibérations à venir.
  • re-considération «régulière» (réactif-pro-actif )
bdi wei 99
BDI [Wei 99]

Capteur/entrée

maj

brf

beliefs

generate options

desires

Processus itératif

filter

délibération

intentions

action

sortie

architecture abstraite
Architecture abstraite :
  • Interpréteur de base
    • états = formules (différentes logiques)
    • file d ’événements (externes/internes)
    • retour : événement ‘échec ’ ou ‘ succès ’ d ’actions
    • une option : fonction, plan, règle, tache, automate...
architecture abstraite sin 99
Architecture Abstraite [Sin 99]
  • Interpréteur BDI

initialize-state();

do

options:= option-generator(event-queue, B,G,I);

selected-options = deliberate(option, B,G,I);

update-intention(selected-options,I);

execute(I);

get-new-external-events();

drop-successful-attitudes(B,G,I);

drop-impossible-attitudes(B,G,I);

until quit.

Maj = prise en compte d ’événements : belief-add, belief-remove…

+ compatibilité : belief-compatible, goal-compatible, intention-compatible

état

formaliser les bdi
Formaliser les BDI
  • Formaliser : préciser ???
    • syntaxe
      • « grammaire » + « formules acceptables »
      • « proof theory » : liens et substitutions entre formules (axiomes et règles d ’inférences)
    • sémantique
      • « model theory » : lien avec la réalité (simplifiée)
    • les systèmes formels sont à « l ’exécution » ce que les méthodologies objets sont à la P.O.O.
formaliser les bdi1
Formaliser les BDI
  • Axiomes des BDI
    • caractéristiques « statiques »
    • déduction et inférence (B G I)
      • compatibilité entre-eux
      • ajout, retrait : interpréteur
      • mise à jour «dynamique»
    • vers l ’action
    • vers la « personnalisation » (esprit simple, ouvert)
formalisation des bdi
Formalisation des BDI
  • Différentes Propositions
      • Logique du premier ordre : Intention/Engagement [Gen 87]
        • Bel(Janine,Father(Zeus,Chronos))
        • problème d ’expressivité
      • Logiques Modales :
        • mondes possibles
        • buts/désirs [Coh90], [Woo94]
        • buts/désirs/intentions/croyances/plan [Rao91]
        • « social plan » [Rao92]
  • Voire annexes
exemple de sp cification en bdi
Exemple de spécification en BDI

BEL(inevitable (have-soda;fill-glass;drink)quenched-thirst)

BEL(inevitable (open-tap;fill-glass;drink)quenched-thirst)

BEL(inevitable (open-fridge;remove-soda)have-soda)

BEL(optional (have-soda;fill-glass;drink))

BEL(optional (open-tap;fill-glass;drink))

BEL(optional (open-fridge;remove-soda))

BEL(inevitable (¬(soda-in-fridge)inevitable¬ (remove-soda))

GOAL(inevitable (quenched-thirst))

exemples d interpr tation
Exemples d ’interprétation
  • Axiomes en annexes
  • agent aveugle : l ’agent n ’accepte pas (comme but) qu’on lui demande de ne pas remplir son verre si dans ses buts il veut boire. Il n ’accepte pas (comme croyance) qu’il n ’y ait plus de soda non plus !
  • Esprit simple : si il n ’y a plus de soda dans le frigo, l ’agent le croit et garde l ’option de l ’eau. N ’accepte pas qu’on lui demande de ne pas remplir son verre.
  • Esprit ouvert : accepte de ne plus boire si on lui demande de ne pas remplir son verre.
impl menter les bdi
Implémenter les BDI
  • Interface avec l ’environnement
    • mondes ? (taille)
    • environnement -> état « cognitif »
    • état cognitif-> action -> environnement
    • Représentation des buts …
  • Primitives exécutables ?
  • ...
une impl mentation sin 99
Une Implémentation [Sin 99]
  • restrictions (temps/mémoire)
  • croyance de « faits », pas de conséquence
  • croyances et buts courant = prédicats sans disjonctions ou implications
  • formules de logique modale = plan = graphe
    • pour atteindre un but : « means-end reasoning »
  • plans hiérarchiques
  • croyances de plans
  • intentions = plans
interpr teur r alisable
Interpréteur « réalisable »
  • Mise à jour I,G,B
  • buts à atteindre
    • ajoutés à la liste des intentions / hiérarchie
    • exécution des buts atomiques
  • but atteints
    • retirés des intentions
    • ajoutés aux croyances
    • mise à jour des intentions encore « réalistes »
conclusions sur les bdi
Conclusions sur les BDI
  • Nombreux travaux
  • Approche formelle
    • Idées sur les concepts
    • Difficulté de leur mise en œuvre
    • Réaliste ?
conclusions sur les bdi1
Conclusions sur les BDI
  • Aspect « multi » peu traité (Rao 92)
    • Mutual BEL …
    • Joint GOAL ..
  • Langages logiques SMA :
    • Congolog
    • MetateM
annexe bdi unification d composition d actions
Annexe BDI : Unification : décomposition d’actions
  • Problème d ’unification but->processus
  • exemple :

si le but est : ! (pq)

unification avec deux sortes de processus

c<P1>(!p)

c<P2>(!q)

c<P1>f(#c)

c<P2>f (#c)

  • c<P1|P2> (!(p q))
annexe exemple ctl bdi rao91
Annexe : Exemple : CTL BDI [Rao91]

Logique CTL

BDI

  • Etats (propositions)
  • Chemins
    • next O
    • eventually 
    • always 
    • until U
  • BEL()
  • GOAL()
  • INTEND()
  • succeeded(e)
  • failed(e)
  • done(e)
  • does(e)
  • occured(extern)

optionnels, inévitables

annexe formalisation des bdi
Annexe : Formalisation des BDI
  • Modèle des BDI
    • M = <W,E,T,, U, B,G,I,>
    • B  W x T x W
    • G  W x T x W
    • I  W x T x W
    • Monde w de W = <Tw,Aw,Sw,Fw>
    • plus sub-world, sémantique, et …. j ’arrête là

Lien entre formules du premier ordre (pour

chaque monde à chaque instant) et U

mondes

événements

univers du discourt !

relation de succession entre instants

instants

Sous ensemble de T

Sous ensemble de 

Tw x Tw  E = événements réussis

Tw x Tw  E = événements échecs

annexe formalisation des bdi1
Annexe : Formalisation des BDI
  • Exemples d ’axiomes « statiques »
  • AI1 : GOAL()  BEL() un nouveau but ne peut être possible que s ’il est cru (goal-compatible).
  • AI2 : une intention ne peut être possible que si elle fait partie des buts (intention-compatible)
  • AI3 : INTEND(does(e))  does(e) : un agent tente une action ‘ a ’ si does(a) fait partie de ses intentions.
  • AI4 : un agent ayant l ’intention Ø ajoute cette intention dans ses croyances (BEL(INTEND(Ø))
  • AI5 : un agent ayant le but Ø ajoute celui ci dans ses croyances (BEL(GOAL(Ø))
  • AI7 : un agent ajoute à ses croyances le fait qu’il tente une action
  • AI8 : INTEND()  inevitable(¬INTEND()) un agent peut changer d ’avis.
annexe formalisation des bdi2
Annexe : Formalisation des BDI
  • Exemple d ’axiome de déduction
    • si INTEND(inevitable(INTEND(does(e))))

alors BEL(optional(INTEND(does(e)))

et BEL(optional(BEL(does(e))))

annexe axiomes du changement
Annexe : Axiomes du changement
  • Aveugle : AI9a
      • Garde le but dans ses intentions jusqu’à ce qu’il le croit atteint.
      • Refuse de croire des choses incompatibles avec ses intentions
      • INTEND(inévitable( ))

(inévitable(INTEND(inévitable  ))U(BEL())

(notons l ’axiome done(e)  BEL(done(e))

drop-impossible-attitude met dans les croyances le but associé à l ’intention retirée.

belief-compatible retourne false sur belief-add(Ø) si on a  tel que INTEND() et que BEL(Ø) implique BEL(¬ )

annexe axiomes du changement1
Annexe : Axiomes du changement
  • Esprit simple AI9b,
      • Engagement par les buts, ouverture sur les croyances
      • Les intentions persistent tant qu’on les croit atteignables
      • L ’agent accepte de croire des choses en contradiction avec ses intentions et donc de les retirer
      • INTEND(inevitable ( ))

(inévitable(INTEND(inévitable  ))U(BEL()  ¬BEL(optional  )))

belief-compatible : toujours vrai

drop-impossible-attitudes : retire les intentions qui ne sont plus en accord avec les croyances

annexe axiomes du changement2
Annexe : Axiomes du changement
  • Esprit ouvert AI9c
      • accepte de changer de buts (en fonction de croyances)
      • maintient des intentions tant qu’elles font parties des buts.
      • INTEND(inevitable ( ))

(inévitable(INTEND(inévitable  ))U(BEL()  ¬GOAL(optional  )))

goal-compatible : toujours vrai(sauf si en contradiction avec AI1)

drop-impossible-aptitude : retire les intentions qui ne sont plus des buts ou qui sont exclues des croyances

bibliographie
Bibliographie

[All 94] J.M Alliot et T. SCHIEX, Intelligence artificielle& Informatique théorique, cépadues édition, ISBN 2-85428-324-4.

[Arb 81] M.A. Arbib, Perceptual strucutures and distributed motor control, Handbook of Physiology -- The nervous System II, ed. V. Brooks, 1981.

[Arb 95] M.A. Arbib, Schema Theory, The Handbook of Brain Theory and Neural Networks, ed M. Arbib, MIT Press, Cambridge MA, pp. 830-834, 1995.

[Ark 87] R.C. Arkin, Motor schema based navigation for a mobile robot: an approach to programming by behavior, proceedings of the 1987 IEEE International Conferenceon Robotics and Automation, pp. 264-271, 1987.

[Ark 98] R.C. Arkin, Behavior-based robotics, MIT Press, Cambridge MA, 1998.

[Arn 00] P. Arnaud, Des moutons et des robots, Presses Polytechniques et universitaires romandes, 2000.

[BER 97] Bersano-Begey et al. Multi-Agent Teamwork, Adaptative Learning and Adversial Planning in Robocup Using a PRS Architecture », in IJCAI97.

[Bra 87] M.E Bratman, Intentions, Plans and Practical Reason, Havard University Press, Cambridge, MA, 1987.

[BRO 86] R. Brooks, A robust layered control system for a mobile robot, IEEE Journal of Robotics and Automation, RA-2/1, pp. 14-23, mars 1986.

[Cav 01] M. Cavazza, F. Charles and J.M. Steven, Characters in Search of an Author: AI-Based Virtual Storytelling, ICVS 2001, LNCS 2197, pp.145-154,2001.

[Del00] De Loor Pand Chevaillier P, Generation of Agent Interactions from Temporal Logic Specifications, 16 th IMACS World congress on Scientific Computation, Applied Mathematics and Simulation, Lausanne, 2000.

[Don 01] S. Donikian, HPTS : a behaviour modelling language for autonomous agents. In: Fifth International Conference on Autonomous Agents. Montreal, Canada, mai 2001.

[Coh 90] Cohen and Levesque, Intention is choice with commitment. Artificial Intelligence, 42(3), 1990.

[GBR 95] J.P. Granieri et al Behavioral control for real-time simulated human agents. Symposium on Interactive 3D Graphics, pp. 173-180, 1995.

bibliographie suite
Bibliographie (suite)

[Geo 86] M.P. Georgeff, A. L. Lansky, Procedural Knowledge, Proceedings of the IEEE Vol 74, N° 10, October 1986.

[Gen 87] Genesereth, M.R. and Nilson N. Logical Foundations of Artifical Intelligence. Morgan Kaufmann Publishers, San Mateo, CA, 1987.

[Hay 95] Haye-Roth, B., An Architecture for Adaptive Intelligent Systems, Artificial Intelligence : Special Issue on Agents and Interactivity, (72), 1995.

[Hin 62, J. Hintikka, Knowledge and Belief, Cornell University Press: Ithaca, NY.

[Kri 63 Semantical analysis of modal logic. Zeitschrift für Mathematische Logik und Grundlagen der Mathematik, 9:67-96.

[MAES 89] P. Maes, The dynamics of action selection, Proceedings of the international Joint Conference on Artificial Intelligence, IJCAI-89, 1989.

[Mat97] M. Mateas An Oz-Centric Review of Interactive Drama and Believable Agents, Internal report CMU-CS-97-156, 1997.

[PG 96] K. Perlin, A. Golderg, Improv: A system for scripting interactive actors in virtual worlds. In SIGGRAPH ’96 - 1196.

[Rao92] Rao A.S. Georgeff M.P and Sonenberg E.A. SOCIAL PLANS: A PRELIMINARY REPORT, decentralized A.I - 3, 1992.

[Sin 99] Singh M P. Rao A.S. and Georgeff M.P. Formal Methods in DAI : Logic-Based Representation and Reasoning, in « Multiagent Systems », edited by Gerhard Weiss, The MIT Press.

[TOP99] X. Topin, C. Régis, MP. Gleizes et P. Glize, Comportement individuels adaptatifs dans un environnement dynamique pour l ’exploitation collective de ressources , Intelligences arrificielle située, Hermes, 1999.

[Van 91] K.VanLehn, Architectures for Intelligence. Lawrence Erlbaum Associates, New Jersey, 1991.

[Woo 94] Wooldridge, M. Coherent social action. In Proceedings of the Eleventh European Conference on Artificial Intelligence (ECAI-94), pages 279-283, Amsterdam, 1994.

[Woo 95] M. Wooldridge and R.Jennings, Intelligent Agents : Theory and practice. The knowledge Engineering Review, 10(2), p115-152, 1995.

ad