1 / 49

Fragebeantwortung

Fragebeantwortung. Von Erkan Kaz und Björn Baumann. 0. Gliederung. Einführung Methoden der Fragebeantwortung TREC Fazit. 1. Einführung. Was ist eine Frage/Antwort Was ist Fragebeantwortung Beispielfrage. 1. Einführung 1. Was ist eine Frage/Antwort?. Definition Frage:

ezra
Download Presentation

Fragebeantwortung

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Fragebeantwortung Von Erkan Kaz und Björn Baumann

  2. 0. Gliederung • Einführung • Methoden der Fragebeantwortung • TREC • Fazit PG isie (520): Vortrag Fragebeantwortung

  3. 1. Einführung • Was ist eine Frage/Antwort • Was ist Fragebeantwortung • Beispielfrage PG isie (520): Vortrag Fragebeantwortung

  4. 1. Einführung1.Was ist eine Frage/Antwort? • Definition Frage: • „Eine Frage ist eine Äußerung, mit der der Sprecher eine Antwort zwecks Beseitigung einer Wissenslücke herausfordert.“ (von Wikipedia) • Definition Antwort: • „Ein Satz, der die Leerstelle ausfüllt, die in einer Frage stets enthalten ist.“ (von Wikipedia) PG isie (520): Vortrag Fragebeantwortung

  5. 1. Einführung2.Was ist Fragebeantwortung? (1/2) • Die Aufgabe des Findens einer Antwort auf eine natürlichsprachlich-gestellte Frage im Web / großen Dokumentenarchiven • Steigende Bedeutung der Fragebeantwortung aufgrund von Internet Q/A-Services • Text REtrieval Conference (TREC) -Workshops des National Institute of Standards and Technology (NIST) • Fragebeantwortung auch bekannt als Answer Mining, Q/A PG isie (520): Vortrag Fragebeantwortung

  6. 1. Einführung2.Was ist Fragebeantwortung? (2/2) • Drei Schritte zur Beantwortung: • Analyse der Frage • Antworttyp, Schlüsselwörter für Antwortfindung • Dokumenten-Index nutzen • Finden der relevanten Text-Passagen • Antwort-Extraktion • Berücksichtigung des Antwort-Typs! PG isie (520): Vortrag Fragebeantwortung

  7. 1. Einführung3.Beispielfrage (1/2) Was besichtigen Touristen in Köln? Entfernen der Stopp-Wörter Was besichtigen Touristen Köln? PG isie (520): Vortrag Fragebeantwortung

  8. 1. Einführung3.Beispielfrage (2/2) Was besichtigen Touristen Köln? Was und besichtigen – definieren Antworttyp (Typ: Sehenswürdigkeit) Köln – definiert den Ort besichtigen – deutet auf eine Attraktion / Sehenswürdigkeit hin Antworten: Kölner Dom, Schokoladenmuseum PG isie (520): Vortrag Fragebeantwortung

  9. 2. Methoden d. Fragebeantwortung • Bestimmen der Fragekomplexität • Bestimmung des Antworttyps • Modell der Antworttypen • Ablauf der Fragebeantwortung PG isie (520): Vortrag Fragebeantwortung

  10. 2. Methoden d. Fragebeantwortung1. Bestimmen der Fragekomplexität • Man teilt die Komplexität einer Frage in drei Frageklassen ein: • Klasse 1: Fragen nach Attributen, Events, NEs, Bedingungen, u.a. • Klasse 2: Fragen, die anhand einer Vorlage, von verschiedenen Quellen agglomeriert werden • Klasse 3: Fragen, die eine Zusammenfassung von versch. Quellen geben und nicht typgleich sind Nach M.Pasca / S. Harabagiu PG isie (520): Vortrag Fragebeantwortung

  11. 2. Methoden d. Fragebeantwortung1.1. Beispiel Fragekomplexität • Klasse 1: Wem biss Mike Tyson in einem Boxkampf ein Stück Ohr ab? • Klasse 2: Wer ist Bill Gates? • Klasse 3: Welche Konsequenzen hat die Veruntreuung der UNICEF-Spenden gehabt? PG isie (520): Vortrag Fragebeantwortung

  12. 2. Methoden d. Fragebeantwortung1.1. Beispiel Fragekomplexität (Antwort) A1: Evander Holyfield A2: *28. Oktober 1955 in Seattle  gründete 1975 Microsoft  drittreichster Mann der Welt Quelle: Wikipedia • A3: Mehrere Antworten: • Rücktritt UNICEF-Chef • Imageschaden UNICEF • Spendenrückgänge Quelle: Wikipedia PG isie (520): Vortrag Fragebeantwortung

  13. 2. Methoden d. Fragebeantwortung2. Bestimmung des Antworttyps • Syntaktische Analyse der Frage • Analyse des Satzbaus • Entfernen der Stoppwörter • Antworttyp wird bestimmt aus Question Stem und den Konzepten der Frage  vordefinierte Antworttypen Ergebnis Datum Nummer/Zahl Wie + abgestimmt Wann + eingetreten [Partei] Wie oft + zwischengerufen [Name] Question Stem Konzept d. Frage PG isie (520): Vortrag Fragebeantwortung

  14. 2. Methoden d. Fragebeantwortung2.1. Modell der Antworttypen (1/3) • 4-Tupel: • AT=[Kategorie, Abhängigkeit, Nummer, Format] • Kategorie beschreibt entweder einen vordefinierten Antworttyp, eine Definition, eine Vorlage oder eine Zusammenfassung • Abhängigkeit beschreibt das Verhältnis zwischen der Kategorie und den Antworttypen Nach M.Pasca / S. Harabagiu PG isie (520): Vortrag Fragebeantwortung

  15. 2. Methoden d. Fragebeantwortung2.1. Modell der Antworttypen (2/3) Beispiel für Abhängigkeit Wann wurde Kennedy erschossen? • Abhängigkeit beschreibt nun, dass wir als Antworttyp ein Datum erwarten • weitere Antworttypen: Person, Organisation, Ort,… Richtige Antwort vom Typ Datum: 22. 11. 1963 PG isie (520): Vortrag Fragebeantwortung

  16. 2. Methoden d. Fragebeantwortung2.1. Modell der Antworttypen (3/3) • Nummer ist ein einfacher Boolean-Wert (Flag), der angibt, ob ein einzelner Wert oder eine Liste von Elementen gesucht ist • Format definiert die genaue Struktur des Antworttyps • z.B. bei einem Datum: dd.mm.yy PG isie (520): Vortrag Fragebeantwortung

  17. 2. Methoden d. Fragebeantwortung2.1.1. Kategorie: Antworttyp • Question Stem bestimmt Grundfragetyp (Was, Wo, Wer, Warum oder Wie) • Konzept der Frage (z.B. besichtigen) bestimmt zusammen mit Fragetyp den Antworttyp • Antworttypen sind vordefiniert! (Person, Organisation, Ort, Datum, Nummer,..) • Meistens als NEs in den Textquellen vorhanden PG isie (520): Vortrag Fragebeantwortung

  18. 2. Methoden d. Fragebeantwortung2.1.2. Abbildung Antworttyp  NE Antworttyp Named Entities Person Person Name Geld Geld Preis Geschwindigkeit Quantität Dauer Menge PG isie (520): Vortrag Fragebeantwortung

  19. 2. Methoden d. Fragebeantwortung2.1.3. Probleme! Um das Suchen nach NEs sinnvoll & schnell zu gewährleisten muss eine Vielzahl an semantischen Kategorien festgelegt werden! Fragen richten sich nicht nur nach NEs sondern auch nach Events! PG isie (520): Vortrag Fragebeantwortung

  20. 2. Methoden d. Fragebeantwortung2.1.4. Kategorie: Definition • Auch für die Kategorie „Definition“ muss ein Antwortformat festgelegt werden • Fragen nach Definitionen: • Q1: Was {ist | war} <Objekt_Name>? • Q2: Wie lautet die Definition für <Sachverhalt>? • Das Format der Antwort ergibt sich nun aus der zuvor gestellten Frage • Antworten: • A1: <Objekt_Name> {ist | war} <Antwort> • A2: <Sachverhalt> {ist | sind | …} <Antwort> PG isie (520): Vortrag Fragebeantwortung

  21. 2. Methoden d. Fragebeantwortung2.1.5. Kategorie: Vorlagen • Wenn ein Fragetyp aus verschiedenen Antworttypen (z.B. Datum, Person,..) besteht, ergibt sich daraus automatisch die Kategorie „Vorlage“ • Jede Vorlage enthält eine Menge von Antworttypen (Slots) PG isie (520): Vortrag Fragebeantwortung

  22. 2. Methoden d. Fragebeantwortung2.1.5. Bestimmen der Vorlagenslots (1/2) • Schritt 1: • Für eine Frage werden mögliche Antworten gesucht • Für jede Antwort wird ein Frageabhängigkeitsgraph erstellt • Darin wird bzgl. Der Antworttypen nach gemeinsamen Merkmalen gesucht • Schritt 2: • Identifiziere die häufigsten Merkmale, die in den Antworttypen genannt werden • Schritt 3: • Sammle alle gemeinsamen Merkmale in der Vorlage und nutze diese als Namen für Slots PG isie (520): Vortrag Fragebeantwortung

  23. 2. Methoden d. Fragebeantwortung2.1.5. Bestimmen der Vorlagenslots (2/2) Welche Management-Änderungen passierten 1999 bei IBM? Triggerworte Merkmale A1: Person1 ersetzte Person2 Organisation Position A2: Organisation nominierte Person1 Position Neue Vorlage ANeu: Position Person1 Person2 Organisation PG isie (520): Vortrag Fragebeantwortung

  24. 2. Methoden d. Fragebeantwortung2.1.6. Kategorie: Zusammenfassung • Zusammenfassungen enthalten verschiedene Vorlagen, die nicht aus gemeinsamen Merkmalen bestehen • Daher können diese nicht weiter zusammengefasst werden ( versch. Triggerwörter) PG isie (520): Vortrag Fragebeantwortung

  25. 2. Methoden d. Fragebeantwortung2.2. Ablauf der Fragebeantwortung (1/3) Synonyme Morphologische Varianten Hypernyms (Oberbegriffe) Notwendige Bedingungen Paraphrasen Abbildung 1: Ablauf der Fragebeantwortung (entnommen aus [2]) PG isie (520): Vortrag Fragebeantwortung

  26. 2. Methoden d. Fragebeantwortung2.2. Ablauf der Fragebeantwortung (2/3) • Q/A- System: Um passende Antworten und Textpassagen zu finden • Haben Feedback-loops (lexikalische u. semantische Alternativen) • Eine Anfrage besteht aus Antworttyp und Schlüsselwörtern, diese werden durch Frageabhängigkeiten zusammengesetzt • Zur Anfrage sind die Schlüsselwörter unbekannt, die mit den Antwortabhängigkeiten vereint werden können • Relevance Feedbacks: abhängig von der Anzahl der Passagen (zu viele  Spezialisiere Schlüsselwörter) • Endet, wenn keine neuen Schlüsselwörter hinzugefügt/gelöscht werden können PG isie (520): Vortrag Fragebeantwortung

  27. 2. Methoden d. Fragebeantwortung2.2. Ablauf der Fragebeantwortung (3/3) • Frage- /Antwortabhängigkeiten produzieren lexikalische Alternativen  neue Schlüsselwörter hinzunehmen • Korrektheit der Antworten geprüft durch Prüfungssystem • Hat Wissensbasis • Liefert semantische Alternativen zu Schlüsselwörtern • Mögliche Antworten • Passende Textschnipsel • Zusammengesetzte Antworten (Antwortfusion) PG isie (520): Vortrag Fragebeantwortung

  28. 2. Methoden d. Fragebeantwortung2.3. Was können wir isie nutzen? • Bestimmen des Antworttyps und Prüfung, ob ausgegebene Antwort dem Typ entspricht • Eventuell mehrere interne Schleifendurchläufe • Wenn gleiche & neue Trigger in den extrahierten Textpassagen/Events auftauchen • Als neue Schlüsselwörter/Trigger aufnehmen • Antworten-Fusion? PG isie (520): Vortrag Fragebeantwortung

  29. 3. TREC • Was ist TREC? • Durchführung • Welche Fragetypen gibt es? • Nugget-Pyramide • ciQA-Durchführung • Interaktion mit Nutzer • Ergebnisse PG isie (520): Vortrag Fragebeantwortung

  30. 3. TREC1. Was ist TREC? (1/2) • Text REtrieval Conference (TREC) -Workshops des National Institute of Standards and Technology (NIST) • Seit 1999 abgehalten mit dem Ziel Techniken zur Fragebeantwortung zu entwickeln • Fragetypen und Schwierigkeit der Fragen wurden seitdem ständig erhöht • Zunächst wurden nur Fakten-Fragen (Factoid questions) beantwortet PG isie (520): Vortrag Fragebeantwortung

  31. 3. TREC1. Was ist TREC? (2/2) • Seit 2003 Listen- und Weitere-Fragen (List and other questions) • Ab 2006 komplexe, interaktive Fragen (complex, interactive QA - ciQA) • Interaktion mit Nutzer • Quelldokumente bis 2006 nur Zeitungsartikel, ab 2007 auch Einbezug von Blogs PG isie (520): Vortrag Fragebeantwortung

  32. 3. TREC2. Durchführung (1/3) • Ziel ist es für eine bestimmte Interessentengruppe eine Liste von Fragen zu beantworten • Fragen werden in Serien zu einem bestimmten Thema mit unterschiedlichen Fragetypen zusammengefasst • Mögliche Themen für Frageserien: Person, Organisation, Objekt oder ein Event PG isie (520): Vortrag Fragebeantwortung

  33. 3. TREC2. Durchführung (2/3) • Auswertung der Systemantworten erfolgt durch NIST-Mitglieder • Teilnehmer haben 2 Wochen Zeit um automatisch generierte Antworten zu erstellen • Fragen müssen in vorgegebener Reihenfolge abgearbeitet werden • Innerhalb einer Serie dürfen vorherige Fragen/Antworten genutzt werden, aber nicht nachfolgende PG isie (520): Vortrag Fragebeantwortung

  34. 3. TREC2. Durchführung – Bsp: Frageserien (3/3) Abbildung 2: Beispiel für Frageserien (entnommen aus [3]) PG isie (520): Vortrag Fragebeantwortung

  35. 3. TREC3. Welche Fragetypen gibt es? (1/5) • Fakten-Fragen • Antwort ist ein 2-Tupel [dok-id, Antwort-String] oder NIL • Prüfung der Antwort durch eine Jury mit den Bewertungen: • Incorrect • Not Supported • Not exact • Locally correct • Globally correct PG isie (520): Vortrag Fragebeantwortung

  36. 3. TREC3. Welche Fragetypen gibt es? (2/5) • Listen-Fragen • Korrekte Antwort ist eine unsortierte Liste mit unterschiedlichen(!) Antworten • Bewertung der einzelnen Antworten wie bei Fakten-Fragen  Zusammenfassung in Äquivalenzklassen für global korrekte Antworten • Bewertung der Listen-Antworten nach F-Score PG isie (520): Vortrag Fragebeantwortung

  37. 3. TREC3. Welche Fragetypen gibt es? (3/5) • F-Score (Listen-Fragen): • Precision = • Recall = • F-Score = #Globally correct responses #responses from system #Globally correct responses #known distinct instances 2x Precisionx Recall Precision + Recall PG isie (520): Vortrag Fragebeantwortung

  38. 3. TREC3. Welche Fragetypen gibt es? (4/5) • Weitere-Fragen • Ungeordnetes Set aus [dok-id, Antwort-String] • Antwort String muss relevante Stichworte (Nuggets) enthalten • Relevante Stichworte werden vorher durch Prüfer ausgewählt und festgelegt • Bewertung des Fragetyps dadurch relativ schwierig PG isie (520): Vortrag Fragebeantwortung

  39. 3. TREC3. Welche Fragetypen gibt es? (5/5) • Bewertung • Prüfer wählen Liste von „Vital“ und „Non-Vital“-Nuggets aus • Prüfer gehen Ausgabe durch und markieren Nuggets (doppelte Nuggets zählen nur einmal!) • Bewertungsmaß: 0,1, #Nuggets • F-Score bestehend aus Recall (wie bisher) und einem veränderten Precision-Wert: • Längenbasierter Precision-Wert • 100 Zeichen sind pro Vital/Non-Vital Nugget erlaubt • Falls kompletter Antwortstring unter 100 Zeichen ausgibt: Precision = 1.0, sonst Länge - Begrenzung 1 - < 1 Länge PG isie (520): Vortrag Fragebeantwortung

  40. 3. TREC4. Nugget-Pyramide • Erweiterung des bisherigen Scorings • Problem: Nur vital nuggets haben Einfluss auf Recall-Wert; aber sehr wenig vital nuggets in den Antworten • Idee: Mehrere Prüfer entscheiden, ob Stichwort vital oder „nur“ okay (non-vital) ist Abbildung 3: Vergleich Einzelperformance vs. Nugget Pyramid-Performance (entnommen aus [3]) PG isie (520): Vortrag Fragebeantwortung

  41. 3. TREC5. ciQA-Durchführung (1/3) • Ziel • Ausgabe von komplexeren Antworten bzgl. einer Nutzer-Anfrage (keine einfache Fakten-Frage) • Keine einfache, in einem Schritt erhaltene Antwort, sondern interaktiver Dialog mit Nutzer • Quelldokumente in 2006 nur Zeitungsartikel, 2007 auch Blogs! PG isie (520): Vortrag Fragebeantwortung

  42. 3. TREC5. ciQA-Durchführung (2/3) • Mögliche Fragen der ciQA • Konzept soll Fragen beschreiben, die eine Entität in Beziehung zu einer anderen setzen (Fragestellung: Warum? Welche Beziehung?) • Beziehungs-Frage zusammengesetzt aus 2 Teilen: • Vorlage (Template) mit fixer Struktur und freien Slots • Bericht mit Intention der Frage • Bewertung der Fragen wie bei „Weitere-Fragen“ mit einem höheren (Zeichen-)Grenzwert PG isie (520): Vortrag Fragebeantwortung

  43. 3. TREC5. ciQA-Durchführung - Beispiel (3/3)  Vorlage mit Intention  5 Vorlagen aus TREC 2006 ciQA PG isie (520): Vortrag Fragebeantwortung

  44. 3. TREC6. Interaktion mit Nutzer (1/2) • Entwicklung eines Frameworks, das die Interaktion mit dem QA-System erlaubt • 2007 webbasiert, davor auch lokale Applikation möglich • Nutzung des Systems soll für jedes Thema maximal 5 Minuten in Anspruch nehmen PG isie (520): Vortrag Fragebeantwortung

  45. 3. TREC6. Interaktion mit Nutzer (2/2) Ablauf des Experiments • Teilnehmer übermitteln 2 Initialläufe und URLs an das NIST • Prüfer haben Möglichkeit 3 Tage mit jedem System zu interagieren • Daten stehen Teilnehmern sofort zur Verfügung • Teilnehmer haben danach 2 Wochen Zeit Endresultate zu bestimmen PG isie (520): Vortrag Fragebeantwortung

  46. 3. TREC7. Ergebnisse • ciQA 2007: 7 Teilnehmer mit 12 Läufen • Vergleich zwischen Baseline und Endresultate der Teilnehmer • Baseline ist Anfrage an Lucene (Top20), Tokenisierung, Entfernung der Stoppwörter, Auswertung falls Nicht-Stoppwort enthalten • Baseline ist sogar teilweise besser als Endresultate der Teilnehmer • Manuelle Abläufe sind besser als komplett automatisch generierte PG isie (520): Vortrag Fragebeantwortung

  47. 3. TREC7. Ergebnisse Abbildung 4: Ergebnisse TREC 2007 QA-Track (entnommen aus [3]) PG isie (520): Vortrag Fragebeantwortung

  48. 4. Fazit • Natürlichsprachliche Fragen von unterschiedlicher Komplexität konnten in den versch. Experimenten konsistent beantwortet werden • TREC-Ergebnisse zeigen nur bedingt einen Erfolg des ciQA PG isie (520): Vortrag Fragebeantwortung

  49. Quellenverzeichnis [1] Wikipedia (Definition Frage/Antwort) [2] Marius Pasca, Sanda M. Harabigiu: Answer Mining from On-Line Documents, 2001 [3] Hoa Trang Dang, Jimmy Lin, Diane Kelly: Overview of the Trec 2006/2007 Question Answering Track, 2006/2007 [4] Jimmy Lin, Dina Demner-Fushman: Will pyramids topple over? [5] R. Srihari and W. Li: A Question Answering System Supported by IE, S.171-172,1998 PG isie (520): Vortrag Fragebeantwortung

More Related