1 / 34

Rozpoznávanie obrazcov

Rozpoznávanie obrazcov. Sonka , Hlavac , Boyle : Image Processing , Analysis and Machine vision , kapitola: Object recognition http://dip.sccg.sk/. Rozpoznávanie obrazcov.

Download Presentation

Rozpoznávanie obrazcov

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Rozpoznávanie obrazcov Sonka, Hlavac, Boyle: ImageProcessing, Analysis and Machinevision, kapitola: Objectrecognition http://dip.sccg.sk/

  2. Rozpoznávanie obrazcov • Rozpoznávanie obrazcov sa používa na klasifikáciu oblastí a objektov a predstavuje dôležitú súčasť zložitejších systémov počítačového videnia. • Žiadne rozpoznávanie nie je možné bez znalostí. Vyžadujú sa špecifikácie tak o objektoch, ktoré sa rozpoznávajú ako aj všeobecnejšie znalosti o triedach objektov.

  3. Prístupyrozpoznávaniaobrazcov • Štatistický založený na pochopení štatistického modelu obrazca a tried obrazcov • Neurónové siete: klasifikátor je reprezentovaný ako sieť buniek modelujúcich neuróny ľudského mozgu • Syntaktický(štrukturálny): triedy obrazcov reprezentované cez formálnu štruktúru ako gramatiky automaty reťazce atď.

  4. Základné pojmy Obrazec (pattern) je objekt, proces alebo udalosť, ktorú vieme pomenovať. Trieda obrazcov (pattern class) je množina obrazcov s podobnými atribútami a obvykle pochádzajú s rovnakého zdroja Počas rozpoznávania (klasifikácie) daný objekt (obrazec) je priradený do jednej triedy

  5. Štatistické rozpoznávanie obrazcov Rozhodovanie na základe Bayesovo pravidla Support Vector Machines Klastrovacie metódy

  6. Základný koncept Obrazec Vektor príznakov x є X - Vektor pozorovaní (merania). - x je bod v priestore príznakov X • Skrytý stav • -Nemôže byť priamo pozorovaný. • Obrazce s rovnakým skrytým stavom patria do rovnakej triedy • Počet tried sa obyčajne vie dopredu. - Určiť klasifikátor (rozhodovacie pravidlo), ktorý rozhodne o skytom stave na základe pozorovania.

  7. Triedy obrazcov vytvárajú v príznakovom priestore zhluky, ktoré je možné rozdeliť diskriminačnými (oddeľujúcimi) hyperkrivkami.

  8. Príklad Rozpoznávanie žokej – basketbalista.

  9. Príklad Rozpoznávanie žokej – basketbalista. výška Množina skrytých stavovY = {H, J} Priestor príznakov X = R 2 Trénovacie vzorky váha Lineárny klasifikátor

  10. Príznaky a obrazce • Kvalita vektora príznakov závisí od schopnosti rozdeliť vzorky do rôznych tried • Vzorky z rovnakých tried by mali mať podobné hodnoty príznakov • Vzorky z rôznych tried by mali mať odlišné hodnoty príznakov “Good” features “Bad” features

  11. Separabilné triedy - také, pre ktoré existujú oddeľujúce nadplochy. • Lineárne separabilné – také, pre ktoré existujú oddeľujúce nadroviny. • Väčšina reálnych problémov je reprezentovaná ako neseparabilné triedy, teda klasifikátor sa pomýli.

  12. Komponenty PR systému Sensors and preprocessing Feature extraction Class assignment Pattern Classifier Learning algorithm Teacher • Sensors and preprocessing. • A feature extraction aims to create discriminative features good for classification. • A classifier. • A teacher provides information about hidden state -- supervised learning. • A learning algorithm sets PR from training examples.

  13. Feature extraction methods Feature extraction Feature selection Problém môže byť vyjadrený ako optimalizácia parametrov featrure extractor . Metódy s učiteľom: objektívnou fukciou je kritérium separability označených vzoriek, e.g., linear discriminat analysis (LDA). Metódy bez učiteľa: hľadá sa reprezentácia nižšej dimenzie, ktorá zachová dôležité charakteristiky vstupných dát, e.g., principal component analysis (PCA).

  14. Klasifikátor Klasifikátor rozdelípriestorpríznakov X na regióny označené triedou také že and Klasifikácia pozostáva z rozhodnutia, do ktorého regiónu vektor príznakov x patrí. Hranice medzi regiónmi rozhodovania sa nazývajú rozhodovacie hranice (decisionboundaries)

  15. Reprezentácia klasifikátora Klasifikátor je typicky reprezentovaný množinou diskriminačných funkcií Klasifikátor priradí vektor príznakov x do i-tej triedy ak Vektor príznakov Identifikátor triedy Diskriminačná funkcia

  16. Potom je nadplocha medzi triedami a určená rovnicou = 0. Z toho vyplýva rozhodovacie pravidlo • Lineárne diskriminačné funkcie sú najjednoduchšie a široko používané • Druhá možnosť je založená na princípe minimálnej vzdialenosti. Predpokladajme, že je definovaných R etalónov • ktoré reprezentujú ideálnych reprezentantov R tried. Rozhodovacie pravidlo je potom

  17. Dá sa ukázať, že pravidlo najbližšieho suseda je špeciálnym prípadom lineárnych diskriminačných funkcií. • Ak sú triedy lineárne separabilné, možno použiť metódu lineárnych diskriminačných funkcií alebo pravidlo najbližšieho suseda • ak nie sú triedy lineárne separabilné, možno použiť Φ-prevodník alebo nelineárne diskriminačné funkcie.

  18. Definujme J(q) ako stratu spojenú s použitím konkrétneho • rozhodovacieho pravidla ω = d(x, q) v prípade nesprávnej klasifikácie, • kde parameter q zvýrazňuje použitie konkrétneho pravidla. • Potom pravidlo ω = d(x, q*) sa nazýva optimálne rozhodovacie pravidlo, • ak dáva minimálnu strednú stratu, teda platí, že Klasický príkld štatistického rozpoznávania, ktoré dáva minimálnu strednú stratu, je Bayesovo pravidlo, ktoré pracuje s 2 apriórnymi a  1 aposteriórnou pravdepodobnosťou. • Pretože pri neseparabilných triedach nevieme jednoznačne rozhodnúť • o triede, pokladáme ju za náhodnú premennú s možnými hodnotami s apriórnymi pravdepodobnosťami pre ktoré platí

  19. Väčšinou máme viac informácie ako iba apriórne pravdepodobnosti tried, nech máme aj podmienené pravdepodobnosti , ktoré vyjadujú pravdepodobnosť objavenia sa príznakového vektora x za podmienky, že je známa trieda . Potom podmienená pravdepodobnosť, že vektor príznakov x patrí do triedy je daná vzťahom kde je hustota pravdepodobnosti rozloženia príznakového vektora v príznakovompriestore bez ohľadu na triedu.

  20. Overfitting and underfitting Problem: how rich class of classifications q(x;θ) to use. underfitting good fit overfitting

  21. Support vector machines (SVM) • Snaží sa pri rozdeľovaní 2 separovatelných tried maximalizovať vzdialenosť medzi nimi (margin) • Vektory, ktoré sa nachádzajú najbližsie sa nazývaju podporné vektory (support vectors)

  22. SVM • 2 triedy označené ω, kdeω {-1, 1} • Oddelujúca hyperplocha w.x + b = 0 • Maximalizovať okraje (margin) 2 hyperplochy sú definované • w.x+ b = -1 w.x + b = 1 • ktoré prechádzajú cez podporné vektory • Aby sme zaručili, že ziadne trénovacie vektory nebudú medzi týmito hyperplochami musíme dodržať nerovnosť • ωi (w.xi + b) ≥ 1

  23. Kernel funkcie Nelineárna transformácia priestoru, v ktorom použijeme lineárnu hyperplochu na oddelenie tried zodpovedá použitiu nelineárneho hyperpovrchu v pôvodnom priestore

  24. Učenie bez učiteľa Vstup: trénovacie vektory {x1,…,x} bez informácie o skytom stave Klastrovanie: cieľom je nájsť klastre dát s podobnými vlastnosťami Trieda algoritmov učiacich sa bez učiteľa: Classifier Classifier Learning algorithm Learning algorithm (supervised)

  25. Classifier Learning algorithm Example of unsupervised learning algorithm k-Means clustering: Goal is to minimize

  26. Neurónové siete • Viaceré neurónové prístupy sú založené na kombinácii elementárnych procesorov (neurónov), z ktorých každý má viacero vstupov a jeden výstup. • Každému vstupu je priradená váha a výstup je sumou váhovaných výstupov. • Rozpoznávanie obrazcov je jednou z mnohých oblastí použitia neurónových sietí.

  27. Neural Networks : Multilayer Feedforward Neural Networks • Basic structure Fig.3 Structure of multilayer feedforward neural networks

  28. Neural Networks : Multilayer Feedforward Neural Networks • Training algorithm : back propagation

  29. Neural Networks : Multilayer Feedforward Neural Networks 1. Initialization Assigning an arbitrary set of weights throughout the network (not equally). 2. Iterative step a. Computing Oj for each node by using training vector, then generating the error terms for output δq, where , rq is the desired response. b. Backward passing appropriate error signal is passed to each node and the corresponding weight changes are made.

  30. Neural Networks • Decision surface complexity Table2 : Decision surface complexity of multilayer feedforward neural networks[1]

  31. Syntactic Recognition : String Case • Input to the automata are unknown sentences generated by the corresponding grammars respectively. • The grammar G = (N, Σ, P, S) N is a finite set of variables called nonterminals, Σ is a finite set of constants called terminals, P is a set of rewriting rules called productions, and S in N is called the starting symbol.

  32. Syntactic Recognition : String Case • An example N={A,B,S},Σ={a,b,c} P={S→ aA, A→ bA, A→ bB, B→C} S→ aA→ abA→ abbA→ …. →abbbbbc L(G)={abnc|n≧1} Fig.6 An example of string language[1]

  33. Syntactic Recognition : String Case • The finite automata Af = (Q, Σ, δ, q0, F) Q is a finite, nonempty set of states, Σ is a finite input alphabet, δ is a mapping from Q×Σ into the collection of all subsets of Q, q0 is the starting state, and F is a set of final states.

  34. Syntactic Recognition : String Case • A simple automaton Af = (Q, Σ, δ, q0, F) Q={q0,q1,q2} Σ={a, b} F=q0 δ(q0,a)={q2} δ(q0,b)={q1} δ(q1,a)={q2} δ(q1,b)={q0} δ(q2,a)={q0} δ(q2,b)={q1} Fig.7 State machine of the automaton[1] Invalid input string : bababbb Valid input string : aaabbbb

More Related