1 / 13

Computer Vision

Computer Vision. Klassifizierung, Boosting Yun-Yi Lisa Wang wangyu@in.tum.de 08.07.2004. Übersicht. Motivation Wozu braucht man Klassifizierung Grundlagen Was ist Klassifizierung Entscheidungsgrenze finden Methoden zum Bau von Klassifikatoren Klassifizierung mittels Histrogramm

Download Presentation

Computer Vision

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Computer Vision Klassifizierung, Boosting Yun-Yi Lisa Wang wangyu@in.tum.de 08.07.2004

  2. Übersicht • Motivation • Wozu braucht man Klassifizierung • Grundlagen • Was ist Klassifizierung • Entscheidungsgrenze finden • Methoden zum Bau von Klassifikatoren • Klassifizierung mittels Histrogramm • Auswahl der Merkmale • Verbesserung durch Boosting • Fazit

  3. Motivation • Fahrerassistenzsystem • Mensch-Maschine-Schnittstelle Spracherkennung, Mimikerkennung

  4. Klassifizierung Was sind • Merkmale • Labeling • Klassen • Trainingsbeispiele • Trainingsmenge • Entscheidungsgrenze

  5. Entscheidungsgrenze finden • Verlustfunktion • Gesamtrisiko berechnen • Gesamtrisiko minimieren

  6. Methode mit Normalverteilung Parameter der Normalverteilung für Klasse k • Mittelwert • Varianz Aktion: Klassifizierung von Stichprobe x • wähle die Klasse mit der geringsten Distanz zu x • verwende dabei Mahalanobis Distanz

  7. Mahalanobis Distanz Unterschiedliche Gewichtung des Abstandsmaßes • die Distanz hat ein größeres Gewicht in der Richtung der kleineren Abweichung • die Distanz hat ein kleineres Gewicht in der Richtung der größeren Abweichung

  8. Methode mit „Nearest Neighbours“ • k nächste Nachbarn suchen • Einfache Mehrheit muss mehr als l sein

  9. Klassifikator mittels Histogramm Wahrscheinlichkeitsmodell durch Histogramm Vor- und Nachteil verglichen mit Normalverteilung: Vorteil: realitätsnäher Nachteil: rechenaufwendiger

  10. Auswahl der Merkmale Anforderungen: • Eindeutig für die Klasse • Invariant zur Veränderungen • Nicht zu viele auch nicht zu wenige Merkmale Verschiedene Einheiten • Länge: im Pixel • Grauwert: • Winkel:

  11. Verbesserung mit Boosting • Erster Boosting Algorithmus aus dem Jahr 1989 • Zur Zeit: Adaboost • Grundidee des Trainings: Wir wollen t-mal trainieren, wobei t = T • Alle Trainingsdaten haben anfangs gleiches Gewicht • Geringste Fehlerwahrscheinlichkeit suchen • Damit Hypothese ht und deren Faktor αt feststellen • Gewicht für falsch klassifizierte Daten erhöhen • Wenn t < T : goto 2 • End-Hypothese: ∑ ht * αt

  12. Beispiel für Boosting http://www.cs.technion.ac.il/~rani/LocBoost/index.html

  13. Fazit • Linearer Klassifikator • Dynamic Time Warping (Dynamische Programmierung) • Hidden Markov Modelle (HMM) • Artificial Neural Network (ANN) x Klassifikator Trainingsmenge y

More Related