1 / 44

Algoritmusok képi információ feldolgozására

Algoritmusok képi információ feldolgozására. Keresés, osztályozás Algoritmusok grafikus processzorokon Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport. Szerintem az adatbányászat …. Gépi tanuláson, statisztikán alapul Nagy számítási igényű

salali
Download Presentation

Algoritmusok képi információ feldolgozására

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Algoritmusok képi információ feldolgozására Keresés, osztályozás Algoritmusok grafikus processzorokon Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport

  2. Szerintem az adatbányászat … Gépi tanuláson, statisztikán alapul Nagy számítási igényű Olyan, amit MATLAB-ben nem tudunk megoldani Okos algoritmusokat igényel • Hasznosítja a számítási erőforrások növelését

  3. Köszönet (slide források) • Petrás István, Daróczy Bálint • Li Fei-Fei (kézről kézre jár) • Csurka Gabriella, Xerox XRCE • Bodzsár Erik

  4. Képi információ keresés, osztályozás Képi szavak modellje Szegmensek, fontos területek, képi leírók Gauss keverékek és Fisher vektorok Kép és szöveg kombinációja

  5. Osztályozás, szegmentálás, keresés ‘q = castle park’ building grass tree Slide: G. Csurka

  6. Egy jól működő modell: szózsák Object Bag of ‘words’ Slide: Li Fei-Fei

  7. Dokumentumok ‘szózsák’ modellje Of all the sensory impressions proceeding to the brain, the visual experiences are the dominant ones. Our perception of the world around us is based essentially on the messages that reach the brain from our eyes. For a long time it was thought that the retinal image was transmitted point by point to visual centers in the brain; the cerebral cortex was a movie screen, so to speak, upon which the image in the eye was projected. Through the discoveries of Hubel and Wiesel we now know that behind the origin of the visual perception in the brain there is a considerably more complicated course of events. By following the visual impulses along their path to the various cell layers of the optical cortex, Hubel and Wiesel have been able to demonstrate that the message about the image falling on the retina undergoes a step-wise analysis in a system of nerve cells stored in columns. In this system each cell has its specific function and is responsible for a specific detail in the pattern of the retinal image. China is forecasting a trade surplus of $90bn (£51bn) to $100bn this year, a threefold increase on 2004's $32bn. The Commerce Ministry said the surplus would be created by a predicted 30% jump in exports to $750bn, compared with a 18% rise in imports to $660bn. The figures are likely to further annoy the US, which has long argued that China's exports are unfairly helped by a deliberately undervalued yuan. Beijing agrees the surplus is too high, but says the yuan is only one factor. Bank of China governor Zhou Xiaochuan said the country also needed to do more to boost domestic demand so more goods stayed within the country. China increased the value of the yuan against the dollar by 2.1% in July and permitted it to trade within a narrow band, but the US wants the yuan to be allowed to trade freely. However, Beijing has made it clear that it will take its time and tread carefully before allowing the yuan to rise further in value. sensory, brain, visual, perception, retinal, cerebral cortex, eye, cell, optical nerve, image Hubel, Wiesel China, trade, surplus, commerce, exports, imports, US, yuan, bank, domestic, foreign, increase, trade, value Slide: Li Fei-Fei

  8. Slide: Li Fei-Fei

  9. Képek „szó-elemekre” bontása • Gráf alapú szegmentálás • Súlyozott, irányítatlan gráf a pixeleken • Agglomeratív klaszterezés – majdnem feszítőfa, de az egyes régiók közötti élsúly (eltérés) folyamatosan változik • Sobel gradiens a fontos élek kiválasztására

  10. Lokális módszerek • Fontos élek, sarkok • Rács felbontás • … Orientation histograms SIFT

  11. Képi leírók Szegmensek, területek Átlag RGB HSV RGB, HSV Hisztogram Kontraszt Zig-Zag Fourier Lokális módszerek 128 SIFT leíró

  12. Bag of words

  13. „Képi szavak”: eljárás vázlata • Az alacsony szintű képi jellemzők modellje • A részeket leíró vektorok klaszterezése: k-means, GMM (Gaussian Mixture Model) • Egy képet jellemez a klaszterenkénti szám („szavak száma”) • → gradiensreprezentáció(Fisher vektor) • Osztályozás képenként • Kép-osztályozási versenyek: Pascal VOC, ImageCLEF • K-means 4000+ klaszterrel • GMM 100+ elemű keverékkel

  14. Gaussian Mixture Model (GMM) Feltevés: a D-dimenziós adatpontok Knormál eloszlásból (N1, ...,Nk) származnak, a következőképpen: Véletlen k választása a eloszlás szerint Véletlen leíró vektor Nk eloszlás szerint Az (N1, ...,Nk) eloszlásokat klasztereknek tekinthetjük

  15. Képi „szótár” (GMM és k-means)

  16. Visual Vocabulary with a GMM Slide: G Csurka

  17. GMM: expectation maximization

  18. A Fisher Vektor Adott kép leíró-halmaza Gradiens, amerre mozdítva legjobban leírná a modell a képet: Kovariancia-jellegű mennyiség: Fisher információs mátrix: Normálás: Fisher vektor: Magas dimenziós (2 x D x N) ritka vetítés, kernelként használható: egy lineáris klasszifikátor kvadratikus felületrészeknek felel meg az eredeti térben

  19. A folyamat összefoglalása

  20. Példa: ImageCLEF osztályozási feladat

  21. Példa: ImageCLEF osztályozási feladat

  22. Példa ImageCLEF keresési feladat

  23. Szöveg és kép Mennyire hasonló egy kép egy szöveghez? Amennyire a leghasonlóbb képek szöveges leírásához! → Pszeudo-relevancia visszacsatolás (feedback)

  24. Pszeudo-relevancia feedback (PRF) • A w szó tw előfordulása Tw eloszlású w paraméterrel • Log-logisztikus vagy valamilyen Power Law eloszlás • A w a w-t tartalmazó dokumentumok száma • A q query és d dokumentum egyezése, ahol xw a query szó súlya: • meglepetés, tipikustól való eltérés • PRF során az R legjobb találatból újrasúlyozzuk xw-t ezzel arányosan:

  25. Párhuzamos architektúrák Miért many-core? CUDA programozás Kép-osztályozás algoritmusai

  26. Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Korábban: szuperszámítógépek

  27. Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Korábban: szuperszámítógépek • Google map-reduce: korlátos lehetőségek, pl gráf algoritmusok nehezek

  28. Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Szuperszámítógépek, Map-reduce, … • Ma már mindenhol multi-core • A jövő: szuperszámítógép mindenkinek • Manycore: Cell, GPU • Könnyen elérhető, olcsó: PS3, NVIDIA, ATI, …

  29. NVIDIA CUDA • GPGPU platform • Nyilvánvalóan párhuzamos feladatok: • Mátrixműveletek • legközelebbi szomszéd keresés • Fourier transzformáció • SIMDarchitektúra • ~100threadprocessors • ~10K active threads • Zero-overhead thread scheduling • Hatékony – ha beférünk a memóriájába

  30. Kép-osztályozási feladat Minden lépést meg tudunk oldani GPGPU-n!

  31. GPU memória típusai 1-2 Global • a GPU hagyományos értelemben vett memóriája • ide/innen tud adatot másolni a host • GB-os nagyságrend • viszonylag lassú adatátvitel, lassú elérés a GPU-ról, nincs cache Shared • egy block thread-jeinek a közös memóriája • itt kommunikálnak egymással a thread-ek, valamint itt érdemes tárolni a sokszor elért adatot • 16KB (/block) • nagyon gyors elérés

  32. GPU memória típusai 3-4 Constant • kicsi, gyors, cache-elt elérésű memória • csak a host tudja módosítani Regiszterek • minden block rendelkezésére áll néhány regiszter, amelyeket a thread-ek között oszt szét • általában csak ciklus- és temp változókat tárol

  33. Memória elérési trükkök, szabályok • a globális memória elérésének sok szabálya van, amelyek betartása felgyorsítja azt (ld. ábra) • globális memóriaterületeket texture-nek lehet kinevezni, cache-elt elérés, viszont nem írható • non-pageable host memória: gyorsabb másolás Két-két példa coalesced és non-coalesced elérésre:

  34. A CUDA programok nyelve Lényegében C kód, néhány kiegészítéssel • szintaktikai kiegészítések • új függvény qualifierek • gpu-s függvények hívása Új host függvények • pl. gpu memória foglalás, másolás, stb. GPU-specifikus függvények, változók • threadIdx, blockIdx, stb. • thread-ek szinkronizálása • gyors matematikai függvények (exp, sin, stb.)

  35. CUDA kód futtatása GPU memóriája közvetlenül nem elérhető, ezért egy CUDA programrészlet általában így néz ki: • GPU memória allokálás • Adat másolása a host-ról az allokált memóriába • GPU függvény hívása, amely feldolgozza az adatot • Eredmény másolása a host-ra • GPU memória felszabadítás

  36. Legegyszerűbb CUDA program példa __global__ void vecmult(float *v, float m) { int i = threadIdx.x; v[i] = v[i] * m; } int main() { int N=100; float *v_h; ... //v_h allokálás, inicializálás float *v_d; cudaMalloc((void**)&v_d, N*sizeof(float)); cudaMemcpy(v_d, v_h, N*sizeof(float), cudaMemcpyHostToDevice); vecmult<<<1,N>>>(v_d, m); //kernel hívás: 1 block, N thread cudaMemcpy(v_h, v_d, N*sizeof(float), cudaMemcpyDeviceToHost); cudaFree(v_d); return 0; } A GPU-n futó ún. kernel függvény Csak hostról hívható (nincs pl. rekurzió) Nem elérhetők a host függvények, memória, …

  37. CUDPP könyvtár: scan, sort Scan, sort, pointer ugrás: Pl. a legtöbb párhuzamos gráfalgoritmus fő lépései Pointer ugrás: P [x] = P [P [x]] Scan • prefix összeg: prfsum [i] = ∑ij=0 v [i] • a scan a prefix összeg általánosítása: ∑ helyett tetszőleges asszociatív művelet – pl. szegmentált scan

  38. CUDA képszegmentálás

  39. Alap: feszítőfák Harish et al. Fast Minimum Spanning Tree for Large Graphs on the GPU • iteratív minimális feszítőfa algoritmus • kezdetben minden pont egy fa, minden iterációban szomszédos fákat egyesít • alkalmazható (kezdetleges) kép szegmentálásra • scan és sort műveletekből épül fel

  40. Képszegmentálás lépései Egy iteráció lépései: • segmented min scan az (élsúly; végpont) párokra → minden pont legközelebbi, legkisebb címkéjű szomszédja → S választási gráf • S-ben 2 hosszú körök lehetnek, ezeket eltávolítjuk • S-ben pointer ugrással mindenki a reprezántánsára mutat • reprezentáns szerint rendezünk, bejelöljük a határokat • segmentedscan→ új komponens címkék • (kezdőpont; végpont; élsúly) hármasok rendezésével megkapjuk az új gráf éleit De nem a min súlyt kell választanunk, számos feltétel Szegmentálás 3-4 sec képenként

  41. GMM: CUDA trükkök • GPU memória korlátos (kbmax 4GB): • párhuzamos másolás és végrehajtás • pnk értékeket nem tároljuk • Aritmetika max 64 bit (tetszőleges pontosság nehezen párhuzamosítható): • exponenciális vödrözés trükk

  42. Futási idő • CPU-val összehasonlítva (azonos C++ kód): • tanító adat: • véletlen minta, 699923 adatpont (324 dim) • futási idő: • GPU: 67 perc • CPU: 77 óra (Xeon 1.6Ghz) • CPU: 20 óra hierarchikus GMM (Xeon 1.6Ghz)

  43. Összefoglalás és problémák • Objektumok „Bag of Visual Words” reprezentációja • Nem használja a képi elemek relatív helyzetét • Erősen függ a tanító korpusztól (profi fotó, festmény, grafika, …) • GMM nem igazi „szavakat” ad, pl. nem is függ a tanító címkéktől • Szöveges keresés esetén • Keresőszavak képi objektumra „fordítása” • Sokféle objektum nagyszámú tanító mintáját igényli • Algoritmikus hatékonysági problémák, nagy számítási igény • További feladatok a GPU-k számára?

  44. Köszönöm a figyelmet! Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport http://datamining.sztaki.hu benczur@sztaki.hu

More Related