1 / 37

Segmentação II

Segmentação II. Paulo Sérgio Rodrigues PEL205. Segmentação Baseada em Entropia. Entropia Tradicional BGS q -Entropia Aplicações da q -entropia à PDI. Entropia Tradicional BGS - Histórico. Clausius foi o primeiro a dar uma defini ç ão para Entropia.

Download Presentation

Segmentação II

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Segmentação II Paulo Sérgio Rodrigues PEL205

  2. Segmentação Baseada em Entropia • Entropia Tradicional BGS • q-Entropia • Aplicações da q-entropia à PDI

  3. Entropia Tradicional BGS - Histórico Clausius foi o primeiro a dar uma definição para Entropia Boltzmann idealizou o conceito moderno de entropia No início, a idéia de entropia estava ligada somente a medida da capacidade de realização de trabalho dos sistemas físicos. Rudolph Clausius (1822-1888) Ludwing Boltzmann (1844-1906)

  4. Leis da Termodinâmica Trabalho Energia TOTAL Perdas • Primeira Lei: A energia não pode ser criada nem destruída • Segunda Lei: Só pode haver trabalho se houver entropia

  5. Plank foi o verdadeiro idealizador da fórmula atribuída a Boltzmann Gibbs introduziu a conhecida fórmula Entropia Tradicional BGS - Histórico Com Plank e Gibbs a entropia transcendeu a Termodinâmica e passou a se associar à Mecânica Estatística. Max Plank (1854-1947) Willard Gibbs (1839-1903)

  6. Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação surgiu na década de 40, com origem na telegrafia e telefonia. Posteriormente, foi utilizada pela Cibernética no estudo da troca de informação de um organismo vivo ou mecânico. Claude Shannon (1916-2001)

  7. Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação encontrou campo fértil em diversas áreas, entre elas na Economia, Estatística, Linguística, Psicologia, Ecologia, Reconhecimento de Padrões, Medicina, Inteligência Artificial, ... Claude Shannon (1916-2001)

  8. Generalização da Entropia Clássica • Sabe-se há mais de um século que entropia tradicional de • BG não é capaz de explicar determinados Sistemas Físicos • Tais sistemas possuem como características: • - interações espaciais de longo alcance • - interações temporais de longo alcance • - comportamento fractal nas fronteiras • E são chamados de Sistemas Não-Extensivos

  9. Generalização da Entropia Clássica • Exemplos • turbulência • massa e energia das galáxias • Lei de Zipf-Mandelbrot da linguística • Teoria de risco financeiro

  10. Generalização da Entropia Clássica • Lei de Zipf-Mandelbrot da linguística Don Quijote (Miguel di Cervantes) Extração de Palavras Relevantes Rank ordenado

  11. Generalização da Entropia Clássica • Massa e Energia da Galáxias

  12. Generalização da Entropia Clássica • Teoria do Risco Financeiro • Quando se tem expectativa de perda, algumas pessoas • preferem arriscar • Quando se tem expectativa de ganho, algumas pessoas • preferem não arriscar

  13. Generalização da Entropia Clássica • Citação de Artigos Científicos

  14. Generalização da Entropia Clássica • Psicologia da Visão

  15. Entropia Não-Extensiva Constantino Tsallis

  16. Entropia Não-Extensiva

  17. Additive property of Shannon Entropy Tsallis Entropy formula Pseudo-Additive property of Tsallis Entropy

  18. Background and Foreground distribution Background and Foreground Tsallis Entropy

  19. Pseudo-Additivity for Background and Foreground distribution Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy

  20. A new partition of Background and Foreground for new application of Tsallis entropy

  21. Respectivelly news Tsallis entropy for the new background and foregrounds

  22. General Equation of Pseudo-additivity for one recurssion

  23. Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy for the new partition

  24. Visual Segmentation Results Ultrasound original Benign Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4

  25. Visual Segmentation Results Ultrasound original Malignant Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4

  26. Visual Segmentation Results Benign Tumor Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons

  27. Visual Segmentation Results Malignant Tumor Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons

  28. Some Natural Image Results NESRA Bootstrap Fuzzy C-means Results of application of three approaches for image segmentation: column 1: proposed (NESRA) method; column 2: bootstrap; column 3: fuzzy c-means

  29. Some Natural Image Results NESRA Bootstrap Fuzzy C-means Results of application of three approaches for image segmentation: column 1: proposed (NESRA) method; column 2: bootstrap; column 3: fuzzy c-means

  30. Some Natural Image Results K-means SOM Watershed Results of application of three approaches for image segmentation: column 1: k-means; column 2: SOM; column 3: watershed

  31. Some Natural Image Results K-means SOM Watershed Results of application of three approaches for image segmentation: column 1: k-means; column 2: SOM; column 3: watershed

  32. Synthetic Image Results The synthetic image used to compare the robustness of the methods and increasing application of gaussian noise. The two concentric circles have radius 100 and 50, and the intensities for the background, outer and inner circles are 150, 100 and 50 respectively. The letfmost image is the original image; the three others, from left to right, have μ =0 and σ2 = 0.01, 0.05 and 0.1 gaussian noise respectively.

  33. Synthetic Image Results NESRA Fuzzy C-means K-means SOM Bootstrap Watershed The result segmentation of the six considered algorithms in this paper. In this illustration, for all the original image we have applied a gaussian noise with zero μ and σ2 = 0.1 which is the highest noise used, and after, a 9 x 9 2D adaptive filter was used for smoothing the noise. In the specific case of NESRA algorithm we use the parameter q = 0.001 since it generates the best visual result with more homogeneous and noiseless regions.

  34. NESRA Fuzzy C-means K-means SOM Bootstrap Watershed The estimated (black ones) and original (white ones) curves superimposed over the original image corresponding to the segmentations of synthetic image. Only the watershed was traced manually since we do not have good precision of the boundary in this case.

  35. Outer Circle Comparative performance of the five used methods as a function of increasing gaussian noise. The x-line is the σ2 and y-line is Robustness

  36. Inner Circle Comparative performance of the five used methods as a function of increasing gaussian noise. The x-line is the σ2 and y-line is Robustness

  37. Performance in Achieving Homogeneous Regions Comparative performance for the five used methods according to the estimated area inside inner, outer and background regions. The performance percentage is an average of the estimated area of the three regions. The x-line is the σ2 and y-line is the average of estimated area (for the three regions) divided by real area.

More Related