1 / 19

Präsentiert von Torben Pastuch am Seminar für Computerlinguistik der Uni Heidelberg

Präsentiert von Torben Pastuch am Seminar für Computerlinguistik der Uni Heidelberg Datum: 01.07.2002. C XT verwendet „Support Vector Machines“. Machine Learning Verfahren X. Neuronale Netzwerke. Genetische Algorithmen. SUPPORT VECTOR MACHINES. Erstmals Thema 1992 auf der COLT-92.

eithne
Download Presentation

Präsentiert von Torben Pastuch am Seminar für Computerlinguistik der Uni Heidelberg

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Präsentiert von Torben Pastuch am Seminar für Computerlinguistik der Uni Heidelberg Datum: 01.07.2002

  2. CXT verwendet „Support Vector Machines“... Machine Learning VerfahrenX Neuronale Netzwerke Genetische Algorithmen SUPPORT VECTOR MACHINES

  3. Erstmals Thema 1992 auf der COLT-92 Praxisrelevante Forschung seit 1995 Findet Verwendung in folgenden Gebieten... • Biometrie (z.B. Gesichtserkennung) • Computerlinguistik (z.B. Textkategorisierung) • Allgemein gesprochen ... „Mustererkennung“ Ermöglicht das Lernen von Klassifizierungen Kombination von mehreren bekannten Konzepten

  4. Eine Einführung in „Support Vector Machines“ SVMs & Chunking Praxis-Demonstration: „Proof of Concept“

  5. w b x-b x Fand erste Anwendung im „Perceptron“ (1956)

  6. Es existieren relativ einfache Algorithmen Algorithmen sind schnell und massendatentauglich Nur linear separable Klassen können gelernt werden Lösung ist nicht immer ideal

  7. y x R R Hyperebene (Punkt) Gesucht ist also

  8. SVM hängen ausschließlich von den Skalarproduktender Trainingsdaten ab Kernel-Funktion

  9. Ein Beispiel für einen Kernel: Der Polynomial-Kernel

  10. Polynomialer Kernel Radial Basis Function Kernel (RBF) Sigmoider Kernel

  11. Nur linear separable Klassen können gelernt werden Lösung ist nicht immer ideal

  12. +1 -1 w < 0 > 0

  13. Berechnung der „wirklichen Breite“ 

  14. Formalisierung der Trainingsdaten Nun ist folgendes zu erreichen: Minimiere: Unter der Bedingung, dass:

  15. …diese Funktion Maximiere unter diesen Bedingungen

  16. Für die Lösung gilt…

  17. Die Trainingsdaten sind folgendermaßen aufgebaut vi Wort: wi-2 wi-1 wi wi+1 wi+2 POS: ti-2 ti-2 ti-2 ti-2 ti-2 yi z.B.: +1, wenn „wi ist Anfang einer NP“ Und -1, wenn „wi ist nicht Anf. einer NP“ Für die Trainingsdaten wurde der Negr@-Korpus (V2)verwendet. (ca. 10000 Sätze  ca. 170000 Wörter)

  18. Was verursacht die Probleme beim Chunken? Es muss der „passende“ Kernel gefunden werden Es gilt, alle Parameter ideal zu wählen Der Algorithmus ist vergleichsweise langsamKomplexität: O(n2) bis O(n3)

  19. IRChunker Output CSVM IRTagger CPoCDemo Die CSVM-Klasse ist aufgabenunabhängig.Möglichst allgemeine und effiziente Implementierung

More Related