1 / 43

El proyecto HOPS

El proyecto HOPS. Enabling an Intelligent Natural Language Based H ub for the Deployment of Advanced Semantically Enriched Multi-channel Mass-scale O nline P ublic S ervices http://www.hops-fp6.org/. Descripción del proyecto. Duración : tres años (2004-2006)

Download Presentation

El proyecto HOPS

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. El proyecto HOPS Enabling an Intelligent Natural Language Based Hub for the Deployment of Advanced Semantically Enriched Multi-channel Mass-scale Online Public Services http://www.hops-fp6.org/

  2. Descripción del proyecto Duración: tres años (2004-2006) Financiación: Sexto programa marco de la Comisión Europea Objetivo: facilitar el acceso de los ciudadanos europeos a sus administraciones públicas más cercanas - Desarrollo de una plataforma inteligente que permita al usuario acceder a - Información y servicios - Mediante teléfono e internet

  3. Tecnologías • Portales de voz. Voice XML • Procesamiento de Lenguaje Natural • Web Semántica Lenguas • Castellano, catalán, italiano e inglés

  4. Los participantes Ayuntamiento de Barcelona Empresa de software inteligente Empresa de hardware y software Empresa de aplicaciones

  5. Los participantes (II) Ayuntamiento de Torino Consorcio público de la región de Piamonte Centro de investigación de Piamonte En la division R&D de Telecom Italia Universidad de Torino. Grupo de LN del departamento de IA

  6. Los participantes (III) London Borough of Camden Empresa Runtime Collective Universidad de Amsterdam. Facultad de ciencias. Departamento de informática aplicada a ciencias sociales.

  7. Motivación • Habitantes: 1,5 (4,3 región metropolitana) • Acceso a la web: 40.000 diarias • - 63 servicios administrativos online • Llamadas telefónicas: Más de 4,3 millones al año • - Una media de tiempo de espera de 3 segundos Habitantes: 900.000 Acceso a la web: 125.000 al mes Llamadas telefónicas: 1,5 millones al año Habitantes: 200.000 Más de 120 lenguas diferentes Acceso a la web: utilización de una taxonomía de servicios estándar en el Reino Unido

  8. Arquitectura del Sistema

  9. Integración de los componentes mediante FADALa red de FADA no está centralizada

  10. El módulo de voz • Sintetizador de texto a voz (TTS) • Speech Sintesis Mark-up Language • Reconocedor de voz (ASR) • Speech Recognition Grammar Specification • Intérprete de VoiceXML • Compilador estándard de VoiceXML • Controlador del Servidor de voz • Controla la interacción entre el TTS, el ASR y el Intérprete VoiceXML

  11. El módulo de voz • Speech Recognition grammars • Desarrolladas en formato W3C SRGS-XML • Utilización del mecanismo “garbage” • Utilización de “objetos gramaticales” (built-in grammars)

  12. El módulo de voz • Mapeado conceptos gramaticales a los parámetros utilizados por el controlador de diálogo

  13. Controladores de voz • Voice Server • Plataforma Modular para Voice browsing • Audio Web Server • Interfaz para conectar Voice Server con Application Manager

  14. El módulo de textodel prototipo 1 Analizador left-corner que procesa el texto utilizado por el usuario • Utiliza filtraje top-down • Realiza el análisis sintáctico y semántico en paralelo • Utiliza el conocimiento del contexto del diálogo • Implementado en Prolog

  15. El módulo de textodel prototipo 1 (II) • Usa conocimiento específico del dominio • Representado en la gramática y el léxico • Utiliza conocimiento del contexto • El parámetro cuyo valor se ha preguntado al usuario • Incorpora un mecanismo de “basura”

  16. El módulo de textodel prototipo 1 (III) • Gramáticas y léxicos - Gramáticas libres de contexto incorporan información semántica - Reglas Gramaticales y entradas léxicas generales para todas las aplicaciones - Reglas Gramaticales y entradas léxicas específicas para cada aplicación

  17. El módulo de textodel prototipo 1 (IV) • La interpretación semántica se basa en lambda calculus • El resultado de la interpretación semántica es un conjunto de atributos y sus valores

  18. Integración de voz y textoen el prototipo 1 • Los mensajes del sistema son los mismos • Las gramáticas y léxicos son los mismos • Representados en diferentes formalismos • Adaptados a las particularidades de cada modo (i.e., errores ortográficos)

  19. Integración de voz y textoen el prototipo 1 (II) • Los recursos lingüísticos se obtienen del conocimiento de la aplicación • Se pueden utilizar ontologías de dominio • El flujo del diálogo se obtiene del conocimiento de la aplicación

  20. Integración de voz y textoen el prototipo 1 (III) Los recursos lingüísticos generales se reutilizan • Expresión de parámetros que aparecen en varias aplicaciones • Fechas • Direcciones • Telefónos • Precios

  21. El módulo de textodel prototipo 2-3 • Un analizador sintáctico estadístico • Fácilmente adaptable a lenguas parecidas • Originariamente en italiano • Adaptado al castellano, catalán e inglés • Necesita poca adaptación para nuevos dominios • Un procesador semántico • Obtiene un conjunto de pares atributo-valor

  22. El módulo de web semántica • Ontología de dominio adaptado a la aplicación • Se pueden utilizar ontologías ya existentes con los términos del dominio para obtener el vocabulario

  23. El módulo de web semántica Ontologías • Creadas con Protégé • Representadas en OWL • Accesibles via KPOntology + Jena • Se consultan con RDQL

  24. Controladores de la información • Ontology Manager • Encapsula el acceso a las ontologías • Back-end Manager • Accede a los back-ends de los servicios de cada ciudad

  25. Controlador de diálogo • El controlador de diálogo controla la interacción en texto y voz • Recibe de entrada la interpretación semántica • Un atributo cuyo valor el usuario ha pedido • Parámetros de salida • Un conjunto de atributos y sus valores • Parámetros de entrada

  26. Controlador de diálogo del prototipo 1 y 2 • Basado en un conjunto de estados finitos • Los diálogos son simples y dirigidos por el sistema • Se le pregunta al usuario la información necesaria para acceder a la aplicación

  27. Controlador de diálogo del prototipo 3 • Basado en teoria de los estados de la información(Information state-based theory) • La interacción es más natural • La iniciativa puede ser del usuario o del sistema • Se le pregunta al usuario la información necesaria para acceder a la aplicación • Se le permite cambiar de tema, dar la información en otro orden • Subdiálogos de confirmación, recuperación de errores

  28. Main goals in the design • Facilitate the incorporation of new services, languages, channels • Separation of the channel-specific, language-specific and service-specific aspects from the general components • Flexible communication • Incorporates • A text processing component • A generic dialogue manager

  29. The Dialogue Manager • Main functionalities • Understanding what the user’s intends • Determining what should be next actions • Generating next system sentences • Supports different types of interactions • System-driven dialogues • The system asks the user the information needed • User-driven dialogues • The user takes the initiative

  30. Different types of services • Transactional services • The system asks input parameters and answers output parameters • System-driven dialogues are efficient • Informational services • The user can give different type of information to restrict the search • System-driven dialogues may result unnatural

  31. THE CULTURAL AGENDA SERVICE System: Do you know the title of the event, the place of the event, the date of the event or the type of the event? User: I am looking for classical music concerts

  32. THE DIALOGUE MODEL • In finite state models (VoiceXML) • It supports system-driven communication • Each dialogue state is the result of an action • Information State Theory • It supports flexible communication • It defines general dialogue phenomena: feedback, clarification • A rich representation of dialogue state • Believes, intentions, plans

  33. PLANS • System’s actions are defined in plans • Plans are generated statically when a new service is incorporated • For each service task there is a plan • The actions of the plan can be • Simple • Ask, answer, execution • Compound • A set of simple actions

  34. THE CULTURAL AGENDA SERVICE System: Do you know the title of the event, the place of the event, the date of the event or the type of the event? User: I am looking for classical music concerts

  35. A plan for the cultural agenda service action ask queryFocus multiple action ask title unary precondition queryFocus title action ask type unary preconditionqueryFocus type action ask place unary preconditionqueryFocus place action ask date unary preconditionqueryFocus date action execution compoundaction presentresults System: Do you know the title of the event, the place of the event, the date of the event or the type of the event User: I am looking for classical music concerts

  36. THE LARGE OBJECT COLLECTION SERVICE System: Are you a particular or a company ? User: A particular System: Where do you live? User: 327 Diagonal System: Which is your telephone number? User: 932222222 System: What do you want to throw out? User: A table

  37. Sistemes de diàleg a gran escala • Diferents canals • Diferents llengües • Diferents aplicacions • Certa complexitat • Arquitectura modular i flexible: distribuïda • Integració de mòduls heterogenis

  38. Sistemes de diàleg a gran escala (II) Arquitectures distribuïdes, basades en missatges • Galaxy Communicator Software Infrastructure (Seneff, Lau and Polifroni, 1999) • Un hub central permet la interacció entre mòduls • The Open Agent Architecture (Martin, Cheyer and Moran, 1999) • Un unitat central controla agents heterogenis • The MULTIPLATFORM (Herzog et al, 2004) • Control no centralitzat, comunicació assíncrona

  39. Sistemes de diàleg a gran escala (III) • TRIPS: The Rochester Interactive Planning System (Allen et al, 2001) Especialitzat en planificació de tasques • evacuar gent de una illa amb huracan • coordinació de vehicles en una emergencia,… • COLLLAGEN (Rich, Sidner and Lesh, 2001) • Appicació teoría sobre el discurs col.laboratiu • GEMINI platform (Hamerich et al, 2004) • Basat en VoiceXML • Facilita la generació de sistemes per aplicacions

  40. Rapid Dialogue Prototyping Laboratory Swiss Federal Institute of Techology of Lausane • Eines semi-automàtiques • Genera un model de diàleg per una aplicació concreta en 3 fases: • Recull corupus de diàleg utilitzant tècnica Wizard of Oz • Construcció d’un primer model del diàleg utilitzant l’einaRapid Dialogue Prototyping • Implementació i validació del prototipus

  41. REFERÈNCIES • Allen, J., Byron, D., Dzikovska, M., Ferguson, G., Galescu, L and Stent, A. (2001) ‘Toward Conversational Human-Computer Interaction’, AI Magazine, vol. 22, no. 4, Winter. • Araki, M. and Tachibana, K. (2006) ‘Multimodal Dialog Description Language for Rapid System Development’, Workshop Proceedings, the 7th SIGdial Workshop on Discourse and Dialogue, Sidney, Australia. • Hamerich, W., Schubert, V., Schless, V., Córdoba, R., Pardo, J., D’Haro, L., Kladis, B., Kocsis, O. and Igel, S. (2004) ‘Semi-Automatic Generation of Dialogue Applications in the GEMINI Project’, Workshop Proceedings, SIGdial Workshop on Discourse and Dialogue, Cambridge, USA

  42. REFERÈNCIES (II) • Herzog, G., Ndiaye, A., Merten, S., Kirchmann, H., Becker, T., Poller, P. (2004) ‘Large-scale software integration for spoken language and multimodal dialog systems’, Journal of Natural Language Engineering, vol. 10, no. 3-4, September, pp. 283-305. • Ito, K. (2005) ‘Introducing Multimodal Character Agents into Existing Web applications’, Conference Proceedings, the World Wide Web Conference, Chiba, Japan, pp. 966-967. • Kumar, S., Cohen, P.R. and Huber, M.J. (2002) ‘Direct Execution of Team Specification in STAPLE, Conference Proceedings, AAMAS Conference, Bologna, Italy, pp. 567- 568. • Martin, D. L., Cheyer, A. J. and Moran, D. B. (1999) ‘The Open Agent Architecture: A Framework for Building Distributed Software Systems’, Applied Artificial Intelligence, vol. 13, pp. 91-128.

  43. REFERÈNCIES (III) • Narayan, M., Williams, C. Perugini, S. and Ramakrishnan, N. (2004) ‘Staging Transformations for Multimodal Web interaction Management’, Conference Proceedings, World Wide Web Conference, New York, USA, pp. 212-223. • Seneff, S., Lau, R. and Polifroni, J. (1999), ‘Organization, communication and control in the Galaxy-II conversational system’, Conference Proceedings, Eurospeech, Budapest, Hungary, pp. 1271-1274. • Rich, Ch., Sidner, C. and Lesh, N. (2001) ‘COLLAGEN: Applying Collaborative Discourse Theory to Human-Computer Interaction’, AI Magazine,vol. 22,n 4,15-25. • Richards, J. and Hanson, V. (2004), ‘Web accessibility: A broader view’ Conference Proceedings, World Wide Web Conference, New York, USA, pp. 72-79.

More Related