1 / 25

Marco de Vito 28. Februar 2006

Emotion Output „We want to build robots that engage in meaningful social exchanges with humans“ Cinthia Breazel. Marco de Vito 28. Februar 2006. Inhaltsverzeichnis. Einleitung Theoretischer Ansatz Design des Modells Roboter-Hardware Kismet. Emotion Output.

meadow
Download Presentation

Marco de Vito 28. Februar 2006

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Emotion Output„We want to build robots that engage in meaningful social exchanges with humans“Cinthia Breazel Marco de Vito 28. Februar 2006

  2. Emotion Output Inhaltsverzeichnis • Einleitung • Theoretischer Ansatz • Design des Modells • Roboter-Hardware • Kismet

  3. Emotion Output Emotion Output • Industrieroboter längst Standard • Heute eingesetzte Roboter „dumm“ • Zukunft: „autonome Robotik“ • Retter im Strassenverkehr, Geländeroboter, Inspektion von Abwasserkanälen • Unterhaltungsindustrie: Roboter als „Spielgefährte“? • Urteilsvermögen, Wahrnehmungs- und Lernfähigkeit und Emotionen • Forschung in Erkennung und Ausgabe von Emotionen noch in den Kinderschuhen

  4. Emotion Output Cynthia Breazel Cynthia Breazeal Massachussets Institute of Technology Artificial Intelligence Laboratory http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet A Motivational System for Regulating Human-Robot Interaction Infant-Like Social Interactions between a Robot and a Human Caretaker Journal: National Conference on Artificial Intelligence, 1998

  5. Emotion Output Inhaltsverzeichnis • Einleitung • Theoretischer Ansatz • Design des Modells • Roboter-Hardware • Kismet

  6. Emotion Output Das Modell basiert auf Interaktion zwischen Erwachsenen und Kleinkindern • Fokus auf Mensch-Roboter Interaktion • Autonomer Roboter der in sozialem Kontext Lernfähig ist • Ansatz an Erwachsenen-Kind Interaktion angelehnt: • Wie lernen Kinder mit Erwachsenen zu kommunizieren? • Erwachsene agieren als „Betreuer“ für Kind • Erwachsene helfen Kindern neue Fähigkeiten zu lernen und ihre Auswirkung auf die Umwelt einzuschätzen • „Lernen“ basiert auf Interaktion • Kind lernt wie er Erwachsene „manipulieren“ kann um seine eigene Bedürfnisse zu befriedigen

  7. Emotion Output Erwachsenen-Kleinkind Interaktion • Emotionen und Antriebe spielen beim Kind eine wichtige Rolle für Interaktion mit Betreuer • Kleinkind lernt neue Verhaltensweisen aus Ergebnissen der Interaktion • Kind sucht nach Verhalten die den Betreuer dazu bringen die eigenen Bedürfnisse zu befriedigen • Emotionaler Zustand des Kleinkinds verrät Bedürfnisse und hilft Betreuer Interaktion zu regulieren • Das Design des Robotersystems soll eine analoge Interaktion zwischen Mensch-Roboter ermöglichen • Das System beinhaltet somit Antriebe, Emotionen und dazugehörige Gesichtsausdrücke • Diese Komponenten interagieren miteinander um eine sich gegenseitig regulierende Interaktion zwischen Mensch-Roboter aufrecht zu erhalten

  8. Emotion Output Inhaltsverzeichnis • Einleitung • Theoretischer Ansatz • Design des Modells • Roboter-Hardware • Kismet

  9. Emotion Output The overall system

  10. Emotion Output Informationsübergabe im System erfolgt mit „Transducers“ • Agent-Basierte Architektur • Rechenprozesse mit Transducer modelliert • Transducer: Gerät, das ein Typ Energiequelle in einen anderen Typ umwandeln kann (Wikipedia) • Transducer bekommt Inputs und berechnet je nach Anzal der Inputs und Gewichtung „Aktivierungsenergie“ • Gewichtung Positiv oder Negativ (erregend, hemmend) • Prozess wird aktiviert wenn eine Reizschwelle überschritten wird • Bei Aktivierung: Spezielle Rechenoperationen, Aktivierung oder Hemmung anderer Bereiche, Auslösung eines Verhaltens • Alle Antriebe, Emotionen, Wahrnehmungsprozesse, Motorische Fähigkeiten haben einen eigenen Transducer mit individueller Gewichtung

  11. Emotion Output The Drive Subsystem (Antrieb) • Allgemein: • Beinflusst die Wahl des Verhaltens • Beeinflusst den emotionalen Zustand des Roboters • Lernkontext • Homöostatische Natur • Aufrechterhaltung der Werte für den Antrieb ist ein endloser Prozess

  12. Emotion Output Das Modell beinhaltet(e) vier Antriebe • Social Drive • Stimulation durch andere Personen • Lonely (sucht Kontakt) vs. Asocial (meidet Kontakt) • Stimulation Drive • Stimulus kann extern oder intern (spontaneous self-play) ausgelöst werden • Bored vs. Confused • Security Drive • Antizipation der Effekte der Interaktion • Anpassung des Modells wenn Interaktion nicht erwartungsgemäss verläuft • Secure vs. Insecure • Fatigue Drive • Wärend des „Lernens“ wird der Roboter „müde“ • Konsolidierung des gelernten (internal housekeeping)

  13. Emotion Output The overall system

  14. Emotion Output The Emotion Subsystem • Allgemein: • Steuert die motorische Ausgabe (Facial Expression) • Wichtig für den persönlichen Kontakt mit den Personen • Bedürfnisse des Roboters werden sichtbar • Grobe Analogien zu den Menschen durch Gesichtsausdrücke • Emotionen sind immer aktiv, aber erst beim überschreiten einer Reizschwelle sichtbar • Einzelne Emotionen abgestuft auf einem Kontinuum • Um Konflikte zu vermeiden schliessen sich kompatible Emotionen gegenseitig aus • Facial Expressions: Gesichtsausdrücke für jede Emotion

  15. Emotion Output Das Modell beinhaltet acht emotionale Zustände • Zorn, Ekel, Angst, Freude und Traurigkeit • Überraschung: • Kinder sind überrascht wenn eine bekannte Handlung anders als erwartet abläuft • Interesse & Aufregung: • Eltern nutzen Interesse und Aufregung der Kinder um Interaktion zu regulieren • Pain: • „Schmerzen“ entstehen wenn die Intensität der wahrgenommenen Signale (Licht, Töne) zu stark ist • Menschen: Neurochemische, Sensorische, Motivationale und Kognitive Auslöser • Hier: Antriebe, andere Emotionen und sensorische (Pain)

  16. Emotion Output Die emotionalen Zustände sind vom Antrieb abhängig • Antriebe: Werte können innerhalb, über oder unter den normalen Parameter liegen • Für jede Kombination der Antriebe (Social, Stimulation etc.) gibt es einen anderen emotionalen Zustand und somit einen anderen Gesichtsausdruck • Gesichtsausdrücke verraten welcher Antrieb ausserhalb der Parameter liegt • Antriebe in normalen Parameter: Freude / Interesse • Antriebe ausserhalb der Parameter: Zorn / Traurigkeit • Gleiche Art der Interaktion kann verschiedene emotionale Zustände auslösen

  17. Emotion Output The overall system

  18. Emotion Output The Behaviour Subsystem • Antriebe können sich nicht selber regulieren - sie werden durch entsprechendes Verhalten reguliert • Roboter jederzeit motiviert das Verhalten zu zeigen, das Antriebe reguliert • Für das Ausführen des Verhaltens, das die Antriebe reguliert können mehrere andere Verhalten nötig sein • Jedes Verhalten ist ein zielgerichteter Prozess • Grösster Input kommt aus Antrieben

  19. Emotion Output Das System beinhaltet vier regulierende Verhalten • Play with People (Face-to-Face Interaktion) • Bewegt den Antrieb social Drive gegen das ungesellige Ende des Spektrums (Lonely vs. Asocial) • Verlangen nach Interaktion wird stärker je näher der Antrieb „social Drive“ bei „Lonely“ ist • Play with Toys • Bewegt den Antrieb „Stimulation Drive“ in Richtung „confused“ (Bored vs. Confused) • Verlangen wird stärker je näher der Antrieb Stimulation bei „Bored“ ist • Expectation Violation • Bewegt den Antrieb „Security“ gegen das „unsichere“ Ende • Verlangen wird stärker je näher der Antrieb am „gelangweilten“ Ende ist • Sleep • Reguliert den Antrieb „Fatigue“ • „Motivational Reboot“

  20. Emotion Output The Motor Subsystem • Für jeden emotionalen Zustand gibt es einen entsprechenden Gesichtsausdruck • Die Intensität des Gesichtsausdrucks variiert je nach „Stärke“ der Emotion • Low Level Face Motor: Kopfbewegung, Blinzeln usw. Traurig Überrascht

  21. Emotion Output Inhaltsverzeichnis • Einleitung • Theoretischer Ansatz • Design des Modells • Roboter-Hardware • Kismet

  22. Emotion Output Die Hardware von Kismet • Vision System: • Active Stereo Vision System • Color CDD Camera 5.6mm focal length • Motor System: • Motorola 68332-based Microcontrollers • Auditory System: • Wireless microphone • MIT - Spoken Language Systems Group • Vocalization: • Articulatory Synthesizer • DECtalk v4.5

  23. Emotion Output Inhaltsverzeichnis • Einleitung • Theoretischer Ansatz • Design des Modells • Roboter-Hardware • Kismet

  24. Emotion Output Kismet in einer Unterhaltung

  25. Emotion Output Danke für eure Aufmerksamkeit

More Related