1 / 27

Ein Framework zur automatischen Klassifikation von Begriffstypen

Ein Framework zur automatischen Klassifikation von Begriffstypen. Christof Rumpf Heinrich-Heine-Universität FFF-Seminar, 13.12.2006. Überblick. Gegenstand des Projekts A5 (1) Vorstellung des Frameworks (21) Erste experimentelle Befunde (4) Ausblick: was noch zu tun ist (1).

baakir
Download Presentation

Ein Framework zur automatischen Klassifikation von Begriffstypen

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Ein Framework zur automatischen Klassifikation von Begriffstypen Christof Rumpf Heinrich-Heine-Universität FFF-Seminar, 13.12.2006

  2. Überblick • Gegenstand des Projekts A5 (1) • Vorstellung des Frameworks (21) • Erste experimentelle Befunde (4) • Ausblick: was noch zu tun ist (1)

  3. Gegenstand des Projekts A5 • Problem • Automatische Klassifikation von Nomen nach Begriffstyp aufgrund morphosyntaktischer Kontextmerkmale. • Methode • Erlernen eines statistischen Modells für die Klassifikation mit annotierten Texten, in denen Begriffstyp und Kontextmerkmale vermerkt (annotiert) sind. • Folgeproblem (vieleicht auch eigentliches Problem) • Wie bekommen wir Texte, in denen Begrifftsypen nach Verwendungstyp (intellektuell) annotiert sind?

  4. Architektur des Frameworks manuelle Annotierung von Begriffstypen Trainingskorpus Testkorpus msyn: Dependenz-grammatik-Parser Lernen Morphosyntaktische Analyse Morphosyntaktische Analyse Anwenden Extraktion relevanter Kontextmerkmale Trainingssample Testsample Generalized Iterative Scaling Klassifikatorlernen / anwenden Annotierter Testkorpus Maximum-Entropie-Modell

  5. Trainingskorpus manuelle Annotierung von Begriffstypen Trainingskorpus Testkorpus msyn: Dependenz-grammatik-Parser Lernen Morphosyntaktische Analyse Morphosyntaktische Analyse Anwenden Extraktion relevanter Kontextmerkmale Trainingssample Testsample Generalized Iterative Scaling Klassifikatorlernen / anwenden Annotierter Testkorpus Maximum-Entropie-Modell

  6. Trainingskorpus • Handannotierte Version von Löbner (2003) Semantik • Zur Zeit sind lediglich die lexikalisch zugrundeliegenden Klassen annotiert, nicht der Verwendungstyp (kommt noch…) Die <f1>Semantik</f1> ist das <r2>Teilgebiet</r2> der <f2>Linguistik</f2>, das sich mit <r2>Bedeutung</r2> befasst. Diese <r2>Art</r2> von <f2>Definition</f2> mag vielleicht ihrem <r2>Freund</r2> genügen, der Sie zufällig mit diesem <so>Buch </so> in der <r2>Hand</r2> sieht und Sie fragt, was denn nun schon wieder sei, aber als <f2>Autor</f2> einer solchen <r2>Einführung</r2> muss ich natürlich präziser erklären, was der <f2>Gegenstand</f2> dieser <so>Wissenschaft</so> ist.

  7. Trainingskororpa: Erfordernisse • Wir brauchen mehrere intellektuelle Annotatoren. • Wir brauchen Stylebooks zur Anleitung intellektueller Annotatoren. • Es müssen Evaluationskriterien zur Ermittlung von Übereinstimmungen bzw. Abweichungen intellektueller Annotatoren ermittelt werden.

  8. Morphosyntaktische Analyse manuelle Annotierung von Begriffstypen Trainingskorpus Testkorpus msyn: Dependenz-grammatik-Parser Lernen Morphosyntaktische Analyse Morphosyntaktische Analyse Anwenden Extraktion relevanter Kontextmerkmale Trainingssample Testsample Generalized Iterative Scaling Klassifikatorlernen / anwenden Annotierter Testkorpus Maximum-Entropie-Modell

  9. Morphosyntaktische Analyse <?xml version="1.0" encoding="iso-8859-1"?> <!DOCTYPE analysis SYSTEM "http://www.connexor.com/dtds/4.0/fdg3.dtd"> <analysis><sentence id="w1"> <token id="w2"> <text>Die</text> <lemma>die</lemma> <depend head="w3">det</depend> <tags><syntax>@PREMOD</syntax><morpho>DET Def FEM SG NOM</morpho></tags></token> <token id="w3"> <text>Semantik</text> <lemma>semantik</lemma> <depend head="w4">subj</depend> <tags><syntax>@NH</syntax> <morpho>N FEM SG NOM</morpho></tags></token> <token id="w4"> <text>ist</text> <lemma>sein</lemma> <depend head="w1">main</depend> <tags><syntax>@MAIN</syntax> <morpho>V IND PRES SG P3</morpho></tags></token> <token id="w5"> <text>das</text> <lemma>das</lemma> <depend head="w6">det</depend>‘ <tags><syntax>@PREMOD</syntax> <morpho>DET Def NEU SG NOM</morpho></tags></token> <token id="w6"> <text>Teilgebiet</text> <lemma>teil#gebiet</lemma> <depend head="w4">comp</depend> <tags><syntax>@NH</syntax> <morpho>N NEU SG NOM</morpho></tags></token> <token id="w7"> <text>der</text> <lemma>die</lemma> <depend head="w8">det</depend> <tags><syntax>@PREMOD</syntax> <morpho>DET Def FEM SG GEN</morpho></tags></token> <token id="w8"> <text>Linguistik</text> <lemma>linguistik</lemma> <depend head="w6">mod</depend> <tags><syntax>@NH</syntax> <morpho>N FEM SG GEN</morpho></tags></token>

  10. Dependenz-Baum Die Semantik ist das Teilgebiet der Linguistik, … main - ist Possessor subj - Semantik comp - Teilgebiet det - DieDef det - dasDef mod - LinguistikGen det - derDef

  11. Trainingssample manuelle Annotierung von Begriffstypen Trainingskorpus Testkorpus msyn: Dependenz-grammatik-Parser Lernen Morphosyntaktische Analyse Morphosyntaktische Analyse Anwenden Extraktion relevanter Kontextmerkmale Trainingssample Testsample Generalized Iterative Scaling Klassifikatorlernen / anwenden Annotierter Testkorpus Maximum-Entropie-Modell

  12. Trainingssample Extraktion relevanter Kontextmerkmale über reguläre Ausdrücke mit Perl-Skripten. Ergebnis: t(f1, [tnr=2, tok=semantik, suff=ik, num=sg, art=def]). t(r2, [tnr=5, tok=teil#gebiet, num=sg, art=def, poss=rgen]). t(f1, [tnr=7, tok=linguistik, suff=ik, num=sg, art=def]). t(f2, [tnr=12, tok=bedeutung, suff=ung, num=sg, art=none]). t(r2, [tnr=16, tok=art, num=sg, art=indef, poss=von]). t(f2, [tnr=18, tok=definition, num=sg, art=none]). t(r2, [tnr=22, tok=freund, num=sg, art=def]). t(so, [tnr=30, tok=buch, num=sg, art=indef]). t(r2, [tnr=33, tok=hand, num=sg, art=def]). t(f2, [tnr=49, tok=autor, num=sg, art=none]). t(r2, [tnr=52, tok=einführung, suff=ung, num=sg, art=indef]). t(f2, [tnr=61, tok=gegenstand, num=sg, art=def]). t(so, [tnr=63, tok=wissenschaft, num=sg, poss=lgen, art=none]).

  13. Klassifikator lernen manuelle Annotierung von Begriffstypen Trainingskorpus Testkorpus msyn: Dependenz-grammatik-Parser Lernen Morphosyntaktische Analyse Morphosyntaktische Analyse Anwenden Extraktion relevanter Kontextmerkmale Trainingssample Testsample Generalized Iterative Scaling Klassifikatorlernen / anwenden Annotierter Testkorpus Maximum-Entropie-Modell

  14. Automatische Klassifikation • Gegeben: • Trainingssample t= {(a1,b1),…,(an,bn)} • Klassen ai{f1, f2, f3, r1, r2, r3} • Kontextebi = {m1,…,mm} • Merkmalemi{art=def, art=indef, poss=lgen, …} • Gesucht: • Klassifikator p(a|b) Wie wahrscheinlich ist Klasse a gegeben Kontext b? • Maximales Argument a’ = arg maxa p(a|b) Welche ist die wahrscheinlichste Klasse a’gegeben Kontext b?

  15. Klassifikator berechnen • Einfachste Möglichkeit: • Nachteile: • Es werden nur die Kontexte in t gelernt. • Unterschiedliche Evidenz einzelner Merkmale bleibt unberücksichtigt. • Ausweg: Berechnung des Klassifikators im Rahmen eines Maximimum Entropie Modells

  16. Maximum Entropie Modelle • Grundlegendes • Entropie: Anzahl der benötigten Bits zur Darstellung von Ereignissen eines bestimmten Typs (Münze werfen: 1 Bit, Würfeln: 2 ½ Bit). • Prinzip der maximalen Entropie: Stecke nur die Information ins Modell, die sicher ist, d.h. beobachtet werden kann. • Besonderheiten • Dekompositon der Kontexte in einzelne Merkmale oder deren (Re)-Kombination. • Möglichkeit der Kombination von Merkmalen aus heterogenen Quellen (Syntax, Semantik, Morphologie, …). • Berechnung der Gewichte (Evidenz) einzelner Merkmale oder deren (Re-)Kombination für jede Klasse über alle Kontexte.

  17. Kontextuelle und binäre Merkmale Die Gewichte für kontextuelle Merkmale werden in ME-Modellen über binäre Merkmale bestimmt. Diese setzen die kontextuellen Merkmale mit den Klassen in Beziehung. • Einfache binäre Merkmale Beispiel • Komplexe binäre Merkmale Beispiel

  18. Maximum Entropie Framework vgl. Ratnaparkhi 1998 Wobei aj > 0 das Gewicht für Merkmal fj ist, k die Gesamtzahl der binären Merkmaleund Z(b) eine Normalisierungskonstante, die sicherstellt, dass Sa p(a|b)= 1 bzw. 100%

  19. Generalized Iterative Scaling Es gibt kein analytisches Verfahren zur Bestimmung der Gewichte a. Es gibt mehrere iterative Näherungsverfahren zur Bestimmung der Gewichte a, die zu einer ‚korrekten‘ Verteilung p(a|b) konvergieren und dabei das Prinzip der maximalen Entropie einhalten. Wir verwenden Generalized Iterative Scaling (GIS): Initialisierung ist der Erwartungswert für Merkmal fj im Trainingskorpus ist der Erwartungswert für Merkmal fj in der letzten Iteration Die Konstante C ist die Gesamtzahl der aktiven binären Merkmale über ‚alle‘ Kontexte Iteration

  20. Berechnung der Erwartungswerte • Erwartungswert von fj im Trainingskorpus • Erwartungswert von fj in der letzten Iteration wobei N die Anzahl der Kontexte im Trainingskorpus ist.Dieser Erwartungswert ist konstant über alle Iterationen. Dieser Erwartungswert muss in jeder Iteration aufwändig neu berechnet werden

  21. Berechnung der Konstanten C Allgemein kann die Konstante C wie folgt berechnet werden: wobei B die Potenzmenge der Kontextmerkmale ist. Diese Art der Berech-nung ist aber in den meisten Anwendungsszenarien nicht praktikabel. Insbesondere gilt: Je grösser der Wert der Konstanten C, desto zögerlicher die Konvergenz von GIS. Es gibt den Ausweg, Cüber die Kontexte des Trainingskopus zu berechnen: Was ist die maximale Anzahl, mit der ein binäres Merkmal in den Kontexten des Trainingskorpus aktiv sein kann? Dies erfordert das Hinzufügen eines Korrekturmerkmalsfl, mit l = k+1:

  22. Merkmale als Bitvektoren Wir haben eine Implementierung des Maximum Entropie Frameworks in der Programmiersprache Prolog, bei der die kontextuellen, als auch die binären Merkmale als Bitvektoren dargestellt werden. Jedem Kontextmerkmal entspricht eine Position im Vektor: cfi= 2i-1 Sei die Bitvektorrepräsentation von Merkmal fj und die Bitvektorrepräsentation von Kontext bi, dann gilt Es ist damit sehr einfach und effizient festzustellen, ob ein Merkmal in einem Kontext aktiv ist, oder nicht.

  23. Erste experimentelle Befunde Input: Ein Trainingssample mit 645 Tokens Klassen fe, f1, f2, so, r2, r3 23 verschiedene Kontexte mit Merkmalen art={def, indef, none}, poss={rgen, lgen, von}, suff={ik, ung, heit, keit, in, nis}

  24. a-Gewichte J A BV Alpha CF 13 fe 4 1.91720 [art=none] 14 r2 2048 15.73984 [suff=ung] 15 r2 512 3.68845 [suff=keit] 16 r2 128 1.85193 [suff=ik] 17 r2 32 11.72706 [poss=von] 18 r2 16 7.84761 [poss=rgen] 19 r2 4 1.40162 [art=none] 20 r2 2 62.60088 [art=indef] 21 r2 1 4.73671 [art=def] 22 r3 2048 7.61280 [suff=ung] 23 so 4 30.77103 [art=none] J A BV Alpha CF 1 f1 128 101.16960 [suff=ik] 2 f1 4 0.46762 [art=none] 3 f1 1 2.83830 [art=def] 4 f2 2048 65.10268 [suff=ung] 5 f2 256 25.41862 [suff=in] 6 f2 128 0.89798 [suff=ik] 7 f2 32 3.84712 [poss=von] 8 f2 16 1.83738 [poss=rgen] 9 f2 8 47.40072 [poss=lgen] 10 f2 4 1.23617 [art=none] 11 f2 2 10.24894 [art=indef] 12 f2 1 20.23730 [art=def]

  25. Klassifikatoren I p~(A|B) ensteht durch Auszählen der Kontextep^100(A|B)ist der GIS-Klassifikator der 100sten Iteration (A|B) p~(A|B) p^100(A|B) B (f1| 1) 0.07692 0.09212 def (f2| 1) 0.73077 0.65679 def (fe| 1) 0.01923 0.03245 def (r2| 1) 0.15385 0.15373 def (r3| 1) 0.00000 0.03245 def (so| 1) 0.01923 0.03245 def (f1| 2) 0.00000 0.01301 ind (f2| 2) 0.09091 0.13336 ind (fe| 2) 0.00000 0.01301 ind (r2| 2) 0.90909 0.81459 ind (r3| 2) 0.00000 0.01301 ind (so| 2) 0.00000 0.01301 ind (f1| 4) 0.00826 0.01271 noa (f2| 4) 0.02204 0.03360 noa (fe| 4) 0.05234 0.05211 noa (r2| 4) 0.03306 0.03809 noa (r3| 4) 0.00000 0.02718 noa (so| 4) 0.88430 0.83631 noa (A|B) p~(A|B) p^100(A|B) B (f1|66) 0.00000 0.01301 ind heit (f2|66) 0.00000 0.13336 ind heit (fe|66) 0.00000 0.01301 ind heit (r2|66) 1.00000 0.81459 ind heit (r3|66) 0.00000 0.01301 ind heit (so|66) 0.00000 0.01301 ind heit (f1|68) 1.00000 0.01271 noa heit (f2|68) 0.00000 0.03360 noa heit (fe|68) 0.00000 0.05211 noa heit (r2|68) 0.00000 0.03809 noa heit (r3|68) 0.00000 0.02718 noa heit (so|68) 0.00000 0.83631 noa heit a(so, [art=none]) = 30.77103 a(f1, [art=none]) = 0.46762 -heit hat kein feature, weil es zu selten vorkommt

  26. Klassifikatoren II (A|B) p~(A|B) p^100(A|B) B (f1|2060) 0.00000 0.00012 noa lgen ung (f2|2060) 1.00000 0.98380 noa lgen ung (fe|2060) 0.00000 0.00049 noa lgen ung (r2|2060) 0.00000 0.00569 noa lgen ung (r3|2060) 0.00000 0.00196 noa lgen ung (so|2060) 0.00000 0.00794 noa lgen ung (f1|2065) 0.00000 0.00094 def rgen ung (f2|2065) 0.75000 0.80203 def rgen ung (fe|2065) 0.00000 0.00033 def rgen ung (r2|2065) 0.25000 0.19384 def rgen ung (r3|2065) 0.00000 0.00252 def rgen ung (so|2065) 0.00000 0.00033 def rgen ung (f1|2081) 0.00000 0.00048 def von ung (f2|2081) 0.85000 0.85110 def von ung (fe|2081) 0.00000 0.00017 def von ung (r2|2081) 0.15000 0.14681 def von ung (r3|2081) 0.00000 0.00128 def von ung (so|2081) 0.00000 0.00017 def von ung (f1|2084) 0.00000 0.00077 noa von ung (f2|2084) 1.00000 0.50831 noa von ung (fe|2084) 0.00000 0.00315 noa von ung (r2|2084) 0.00000 0.42475 noa von ung (r3|2084) 0.00000 0.01250 noa von ung (so|2084) 0.00000 0.05052 noa von ung Alle Kontexte der Länge 3:

  27. Fazit und Ausblick • Das Maximum Entropie Framework erlaubt eine feine Analyse der Evidenz, die ein einzelnes Kontextmerkmal für die Klassifikation liefert. • Die Auswahl der richtigen Merkmale ist essentiell für den Erfolg der automatischen Klassifikation. Unser Forschungsgegenstand besteht in erster Linie in der Untersuchung dieser Merkmale. • Es werden Experimente mit kombinierten Merkmalen folgen, um die kombinierte Evidenz zu modellieren. • Unerlässlich ist natürlich auch die Existenz von handannotierten Trainingskorpora, in denen die Verwendungstypen vermerkt sind, die wir leider noch nicht haben.

More Related