l alt rit dans un dialogue homme robot n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
L’ altérité dans un dialogue homme-robot PowerPoint Presentation
Download Presentation
L’ altérité dans un dialogue homme-robot

Loading in 2 Seconds...

play fullscreen
1 / 32

L’ altérité dans un dialogue homme-robot - PowerPoint PPT Presentation


  • 89 Views
  • Uploaded on

L’ altérité dans un dialogue homme-robot. Jean Caelen Laboratoire d’Informatique de Grenoble. Partie I : L’altérité dans le dialogue humain Partie II : L’éthique dans l’interaction humain-robot Partie III : Modélisation de l’i nteraction humain-robot. Plan.

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'L’ altérité dans un dialogue homme-robot' - ellard


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
l alt rit dans un dialogue homme robot

L’altérité dans un dialogue homme-robot

Jean Caelen

Laboratoire d’Informatique de Grenoble

slide2

Partie I : L’altérité dans le dialogue humain

Partie II : L’éthique dans l’interaction humain-robot

Partie III : Modélisation de l’interaction humain-robot

Plan

l alt rit comme fondement du dialogue
L’altérité comme fondement du dialogue

Le dialogue est un Faire à deux ou à plusieurs qui prend racine dans le soi et permet de construire une action communeen vue d’un but qui constitue la visée du dialogue ou de l’interaction

L’altéritémaintient et fonde le dialogue comme processus de co-construction de valeurset de signes à travers l’action conjointe.

Dans le dialogue humain l’altérité fonde l’intersubjectivité

l alt rit chez paul ricoeur
L’altérité chez Paul Ricoeur
  • Deux significations majeures de l’identité personnelle
    • Au sens idem = le même

Traits de permanence dans le temps qui fait que l’on s’identifie comme soi, notamment par la mémoire

    • Au sens ipse = le soi-même

Mobile, se maintient par réflexivité à travers l’altérité

  • Se manifeste dans trois types de relation

Soi/monde, soi/autre, soi/soi (conscience) à travers diverses facettes +être, +avoir, +conjoint

les 8 facettes je tu monde
Les 8 facettes Je-Tu-Monde

+être

+être(soi) le regard sur soi, dans un jugement réflexif,

+être(soi-même) ce que je ressens de moi à travers l’autre

+être(autre) attention du Tu vers le Je

+avoir

+avoir(soi) ce que je possède

+avoir(autre) ce qui m’est transmis par l’autre (connaissance, information, objet),

+avoir(monde) ce que je reçois du monde ou d’une institution, d’un groupe, médié par l’autre

+conjoint

+avoir(commun) un bien indivisible

+être(commun) force du lien : de haine (--), méfiance (-), indifférence (0) à empathie (+), connivence (++), amour (+++), etc.

Monde

+avoir(commun)

+avoir(monde)

+avoir(autre)

Je

Tu

+être(commun)

+être(soi-même)

+être(soi)

+avoir(soi)

+être(autre)

le dialogue est un jeu interactionnel bas sur la notion d int r t
Le dialogue est un jeu interactionnel basé sur la notion d’intérêt

Un dialogue est un jeu au cours duquel chaque participant joue des « coups » à l’aide d’actes de langage pour atteindre son but.

Un dialogue se présente comme une suite d’échanges (actions, transactions), les échanges visant à résoudre des sous-buts ou des pré-conditionset à faire progresser des gains (valeurs ou utilités)

Le dialogue se maintient par l’intérêt des acteurs

Intérêt individuel / intérêt conjoint = gains sur les valeurs d’altérité

dialogue d i b i a g i t
Dialogue D = (I, Bi, A, Gi, T)

I = ensemble des interlocuteurs {i} ayant chacun son système de valeurs

Bi = buts des interlocuteurs i

A = ensemble des actes de dialogue {FA, FF, FS, FFS, FD, FP}

Gi = ensemble des gains des interlocuteurs i avec les notations GE= gain espéré, GC = gain conjoint

T = type de jeu (répété ou non, à connaissances incomplètes, à somme nulle ou non, etc.)

hypoth se
Hypothèse

les locuteurs sont seulement capables de savoir si leur gain augmente ou diminue au cours du jeu de dialogue. Ils règlent leur dialogue de manière opportuniste en fonction de l'évolution des gains à l'intérieur même de la finalité du dialogue (leurs buts). Pour cela ils ne font pas de calculs autres que des comparaisons.

algorithme
Algorithme

BeginDialogue

DJ : Initialization of the game D = (B(i), A, I, Gi, T)

If T = repeated gameThen

Initialize gains Gi with those of previous stage game

ElseGi = 0

Endif

Opening of Dialogue by phaticacts

Let iis the first speaker :

Compute goal B(i), expected gain GEi which produces Speech Act Fip

While GE > 0do

For each j ≠ i I do

j analyses Fip according to T

j computes his acquired gain GAj and the joint gain GC

j evaluates his goal B(j) and expected gain GEj

End For each

If  k  I : GEk > GAk + GCthen

i = k

i produces the speech act Fip aiming to increase his gain

Endif

EndWhile

If D = new game Then go to DJ

EndDialogue

application dialogue e ntre un mendiant et un passant
Application : dialogue entre un mendiant et un passant

M (Mendiant) : une pièce svp...

P (Passant) : tu ferais mieux de travailler plutôt que de mendier !

M : j'étais au chômage et je n'ai pas trouvé d'emploi

P : ouais, moi aussi j'ai été au chômage...

M : alors ! vous me comprenez…

P : va te faire voir avec ta pièce !

M : bon, ça va !

ethique et robotique
Ethique et robotique
  • Le robot « autonome » (par ex. drones militaires)
    • Limitation des capteurs et de la perception de l’opérateur via les interfaces du robot et travail déporté dans l’interaction
    • Responsabilité du robot ? (car il agit de plus en plus en lieu et place de l’humain)
  • Le robot « partenaire » (par ex. robot compagnon)
    • Limitation des bonnes intentions du robot
    • Responsabilité du robot ? (car il peut induire de mauvais comportements de l’usager)
responsabilit
Responsabilité
  • Incombe à l’opérateur ou au fabricant en cas de non-conformité
  • Mais…
    • L’opérateur n’a pas le contrôle total du robot (surtout s’il est autonome) ou il peut en avoir une confiance démesurée
    • Les réseaux d’acteurs diluent la responsabilité
    • Il y a une dimension émotionnelle dans la prise de décision
    • La complexité du robot est croissante (on ne maîtrise pas le logiciel qui peut avoir des bugs ou des comportements inattendus)

D’où perte du sens de la responsabilité chez l’opérateur et diminution de la vigilance

slide16

Cette incapacité à prendre en compte l’ensemble des facteurs est une cause d’erreur pouvant engendrer des drames, comme dans le cas de l’opération conduite en novembre 2001 contre le chef des opérations militaires d’Al-Qaïda dans les alentours de Kaboul : les deux missiles tirés depuis un Predator ont effectivement atteint leur but, mais au moment de l’impact, la voiture de la cible croisait un car scolaire, faisant de nombreuses victimes parmi les enfants.

L’homme présente donc deux grandes failles entre sa sensibilité émotionnelle et ses limites physiologiques, notamment cognitives, que les machines, plus fiables, devraient pouvoir combler, à condition de pouvoir y implémenter un comportement éthique.

Ethique incarnée dans le robot ?

l thique des robots
L’éthique des robots

Isaac Asimov (1920-1992). Dès 1942, dans son roman de science-fiction Runaround, avait énoncé ses Trois lois de la robotique :

  • 1. Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
  • 2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • 3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.
droit des robots
Droit des robots

Entre 2006 et 2007, le gouvernement de la Corée du Sud et le Réseau de recherche européen sur la robotique (Euron) posent la possibilité d’établir une charte du droit des robots. 

Le robot « sujet » car autonome et « intelligent » a des droits : il ne doit pas nuire à l’humanité et l’humain ne doit pas lui nuire.

« Tout comme a été créée la notion de personne morale, il devrait être possible de créer une personne robot afin de lui reconnaître des droits et obligations qui l’assimileront à une personne physique. Enfin, il conviendrait de lui attribuer une identité, avec par exemple un numéro identifiant, et de la doter d’un patrimoine, englobant tous les biens représentatifs inhérents au fonctionnement du robot. » A. Bensoussan

« Aussi, il nous semblerait plus pertinent d’intégrer dans le protocole régissant le comportement du robot un ensemble de lois qu’il ne peut enfreindre, et d’établir un cadre juridique international strict concernant leur usage. » O. Sarre

difficult s d impl mentation
Difficultés d’implémentation
  • Un robot est-il capable d’évaluer complètement une situation et les conséquences de ses actions ?
  • A-t-il toutes les informations nécessaires ?
  • A-t-il toutes les règles de droit, principes et normes nécessaires ?
  • Quel est la limite à trouver entre risque et sécurité ?
  • Le robot n’a pas de stress positif appelé intelligence émotionnelle et ne pourrait donc pas non plus utiliser ses « émotions » comme paravent
slide20

Que les machines soient capables de réagir conformément à des règles dites « éthiques » préprogrammées est une chose, mais cela n’en fait pas des agents capables de raisonnements éthiques ou moraux pour autant. Les robots, comme toute machine, ne sont ni moraux ni immoraux mais amoraux, c’est-à-dire qu’on ne peut pas leur prêter de morale : c’est l’utilisation qui en est faite, sous-jacente à des décisions humaines, qui déterminera si leur emploi est ou non éthique

Les robots sont amoraux

ethique de la discussion
Ethique de la discussion

Jürgen Habermas Théorie De L’agir Communicationnel, tente de ramener dans l’éthique kantienne les intérêts et le bien-être des personnes.  Il s’agit de permettre au processus interne induit par l’impératif kantien (la réflexion par rapport à la maxime de l’action et à sa possible universalisation) de se sortir du sujet pour prendre le terrain de la discussion, pratique, externe. Une discussion est éthique si elle ressemble autant que possible à une situation de liberté de parole absolue et de renoncement aux comportements « stratégiques »

Karl-Otto ApelÉthique De La Discussion, s'appuyant en partie sur l'œuvre d'Habermas, cherche dans l’éthique de la discussion une fondation rationnelle de l'éthique…

L’éthique de la discussion répond à deux principes :

  • (U) Seules peuvent prétendre à la validité les normes qui pourraient trouver l’accord de tous les concernés en tant qu’ils participent à une discussion pratique [principe d’universalité]
  • (R) Dans le cas de normes valides, les conséquences et les effets secondaires qui d’une manière prévisible découlent d’une observation universelle de la norme dans l’intention de satisfaire les intérêts de tout un chacun doivent pouvoir être acceptés sans contrainte par tous [principe de rationalité]
critique et limites
Critique et limites
  • Activité morale « idéale » – Recherche de la vérité universelle (sincérité et objectivité à travers l’intersubjectivité)
  • Activité stratégique – Jeu des intérêts (rationalité instrumentale) incompatible avec l’activité morale « idéale »

« Les acteurs, en se mettant d’accord sur quelque chose, émettent des exigences de validité ou plus précisément des exigences de vérité, de justesse ou de sincérité selon qu’ils se réfèrent à quelque chose qui se produit dans le monde objectif (en tant qu’ensemble des états-de-chose existants), dans le monde de la communauté sociale (en tant qu’ensemble des relations interpersonnelles légitimement établies au sein du groupe social) ou dans le monde subjectif personnel (en tant qu’ensemble des expériences vécues auxquelles chacun a le privilège d’accéder). Mais alors que dans l’activité stratégique l’un influe sur l’autre empiriquement (que ce soit en le menaçant d’une sanction ou en lui faisant miroiter des gratifications) afin d’obtenir la continuation escomptée de l’interaction, dans l’activité communicationnelle, chacun est motivé rationnellement par l’autre à agir conjointement et ce en vertu des effets d’engagements illocutoires inhérents au fait que l’on propose un acte de parole. »

lib ralisme john rawls
Libéralisme : John Rawls

Remplace la notion d’éthique par celle de justice ou d’équité dans une vision libérale revisitée de la société :

  • Chaque personne a droit à un système pleinement adéquat de libertés de base égales pour tous, compatible avec un même système de liberté pour tous [principe d’universalité]
  • Les inégalités sociales et économiques doivent satisfaire à deux conditions  [principe d’équité] :
    • Elles doivent d’abord être attachées à des fonctions et à des positions ouvertes à tous, dans des conditions de juste égalité des chances.
    • Elles doivent procurer le plus grand bénéfice aux membres les plus désavantagés de la société. 

Théorie de la Justice, 1971

les courants pragmatistes
Les courants pragmatistes

Les communautariens : Michaël Walser, Alaisder McIntyre, Charles Taylor, Stanley Cavel

  • La morale n’est pas universelle mais un standard au sein de nations ou de sociétés particulières même si ce standard peut s’étendre à d’autres nations par un processus de réitération (McIntyre)
  • L’état de guerre ne justifie pas l’absence d’éthique, une guerre menée de manière juste ne doit pas attaquer directement et intentionnellement des non combattants (Walser)
  • L’éthique passe par la reconnaissance intersubjective des identités (Taylor)
  • La tâche de la rationalité est de découvrir les critères qui guident nos jugements (Cavel), elle établit la supériorité locale d’une solution sur une autre et défend sa validité d’après des critères d’amélioration progressive (Taylor)
  • L’articulation n’est pas une simple exposition du soi de l’agent mais ce qui dans la position de l’agent se réclame du lien social (ce que l’agent reconnaît comme effort incontournable de « faire société » avec les autres)
  • Il s’agit de rendre explicites les engagements mutuels des agents, de manière à les obliger à assumer leurs responsabilités
application homme robot
Application homme-robot
  • La vérité des faits reste contextuelle et découle d’une délibération collective : il n’y a que des normes communautaires et non universelles
  • La responsabilité des agents est basée sur leur engagement, non sur une quelconque rationalité

Ce qui conduirait pour une relation homme/robot à :

  • Délibérer avant la mission/session pour définir des normes ou des règles et engager tous les acteurs dans leurs responsabilités
  • Fixer des normes ou des règles au robot et notamment lui demander de fournir des « faits » au retour de mission (sorte de boîte noire)
  • Examiner ces faits au regard des règles établies à la fin de la mission, les justifier et les juger dans un souci d’amélioration progressive
interaction h r dialogue
Interaction H-R = Dialogue
  • Est un « faire » conjoint
  • Orienté vers un but

C’est donc un dialogue

Dialoguer ou interagir avec un robot = Même

Que doit être l’altérité du robot ? (pour appliquer le même modèle qu’en dialogue humain) = le robot n’a pas les mêmes intérêts, en particulier :

+avoir(soi) = 0

+avoir(soi-même) = 0

mod lisation
Modélisation
  • Le même modèle s’applique en modifiant les gains pour le robot
  • L’utilisation en sera « éthique » si :
  • Un dialogue préalable établit les règles ou normes comportementales du robot entre agents concernés
  • L’opérateur et/ou l’usager reste présent et engagé dans l’interaction
  • Les règles sont réajustées dans un souci d’amélioration permanente
dialogue d i b i a g i t r
Dialogue D = (I, Bi, A, Gi, T, R)

I = ensemble des interlocuteurs {i} ayant chacun son système de valeurs

Bi = buts des interlocuteurs i

A = ensemble des actes de dialogue {FA, FF, FS, FFS, FD, FP}

Gi = ensemble des gains des interlocuteurs i avec les notations GE= gain espéré, GC = gain conjoint

T = type de jeu (répété ou non, etc.)

R = règles comportementales du robot

algorithme1
Algorithme

BeginDialogue

Define Rules R (deliberation + comittment)

EndDialogue

BeginInteraction

DJ : Initialization of the game D = (B(i), A, S, I, Gi, T, R)

If T = repeated game then

Initialize gains Gi with those of previous stage game

Endif

Opening of Dialogue by phatic acts: i is the first speaker

Compute goal B(i), expected gain GEi which produces Speech Act Fip

While GE > 0do

For each j ≠ i I do

j analyses Fip according to T and R

j computes his acquired gain GAj and the joint gain GC

j evaluates his goal B(j)

End For Each

If  k  I : GEk > GAk + GCthen

i= k

i produces the speech act Fip aiming to increase Gi + GC

Endif

EndWhile

If D = new game Then go to DJ

EndInteraction

MissionAnalysis

Debriefing

Reiteration

exemple
Exemple

Discussion de la mission

Règle = FA(tirer) si et ssi!x : cible(x) viseur(x) (= cible unique dans le champ de vision)

Interaction

(…)

Opérateur = « qu’est-ce que tu détectes ? »

Robot = « c’est un pick-up »

Opérateur = « tire »

Robot = « il y a aussi un bus, que faire ? »

Opérateur = « OK, attends »

Ou Opérateur = « tire »

Robot = FA(tirer)  FS(je fais un rapport)  FA(rapport)

conclusion
Conclusion
  • Extension de la théorie des jeux au dialogue comme à l’interaction homme-robot
  • Altérité : dissymétrique, doit être compensée par l’éthique (règles externes)
  • Ethique : résulte alors d’une discussion préalable sur les missions et comportement du robot ainsi que sur la responsabilité de l’opérateur
  • Contrairement au dialogue humain, un niveau d’éthique doit être introduit dans l’interaction homme-robot