1 / 61

Segmentação II

Segmentação II. Paulo Sérgio Rodrigues PEL205. Processamento Global usando Grafos. Para um seqüência de nós n 1 , ...., n k , sendo cada nó n i o sucessor de n i-1 é chamado caminho de n 1 a n k e o custo desse caminho pode ser dado por: . Processamento Global usando Grafos.

kamala
Download Presentation

Segmentação II

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Segmentação II Paulo Sérgio Rodrigues PEL205

  2. Processamento Global usando Grafos Para um seqüência de nós n1, ...., nk, sendo cada nó nio sucessor de ni-1 é chamado caminho de n1a nk e o custo desse caminho pode ser dado por:

  3. Processamento Global usando Grafos

  4. Processamento Global usando Grafos

  5. Processamento Global usando Grafos

  6. Segmentação Baseada em Limiarização

  7. Segmentação Baseada em Limiarização Algoritmo Iterativo para Determinação do Limiar Entrada: Imagem monocromática I; Saída: Limiar T de binarização; 1 - Inicialize o limiar T como a média das intensidades; 2 - Binarize a Imagem de Entrada I usando o limiar T; 3 - Calcule o novo limiar como: 4 = Se Tn = T fim, caso contrário faça T = Tn e volte ao passo 2;

  8. Segmentação Baseada em Limiarização

  9. Segmentação Baseada em Limiarização

  10. Segmentação Baseada em Limiarização

  11. Segmentação Baseada em Limiarização

  12. Segmentação Split and Merge 1 - Divida a imagem em 4 quadrantes (regiões). 2 - Para cada região, se não for homogênea, subdivida recursivamente voltando ao passo 1; Se for homogênea vira uma folha da QuadTree.

  13. Segmentação Split and Merge

  14. K-means Clustering Segmentation • Given a set of n data points in d-dimensional space and an integer k • We want to find the set of k points in d-dimensional space that minimizes the mean squared distance from each data point to its nearest center • No exact polynomial-time algorithms are known for this problem “A Local Search Approximation Algorithm for k-Means Clustering” by Kanungo et. al

  15. K-means Algorithm • Has been shown to converge to a locally optimal solution • But can converge to a solution arbitrarily bad compared to the optimal solution Data Points Optimal Centers Heuristic Centers K=3 • “K-means-type algorithms: A generalized convergence theorem and characterization of local optimality” by Selim and Ismail • “A Local Search Approximation Algorithm for k-Means Clustering” by Kanungo et al.

  16. Euclidean Distance Now to find the distance between two points, say the origin, and the point A = (3,4): Simple and Fast! Remember this when we consider the complexity!

  17. Finding a Centroid We use the following equation to find the n dimensional centroid point amid k n dimensional points: Let’s find the midpoint between 3 2D points, say: (2,4) (5,2) (8,9)

  18. K-means Algorithm 1 - Choose k initial center points randomly 2 - Cluster data using Euclidean distance (or other distance metric) 3 - Calculate new center points for each cluster using only points within the cluster 4 - Re-Cluster all data using the new center points This step could cause data points to be placed in a different cluster 5 - Repeat steps 3 & 4 until the center points have moved such that in step 4 no data points are moved from one cluster to another or some other convergence criteria is met From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  19. An example with k=2 • We Pick k=2 centers at random • We cluster our data around these center points Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  20. K-means example with k=2 • We recalculate centers based on our current clusters Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  21. K-means example with k=2 • We re-cluster our data around our new center points Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  22. K-means example with k=2 We repeat the last two steps until no more data points are moved into a different cluster Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  23. Characteristics of k-means Clustering • The random selection of initial center points creates the following properties • Non-Determinism • May produce clusters without patterns • One solution is to choose the centers randomly from existing patterns From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  24. Algorithm Complexity • Linear in the number of data points, N • Can be shown to have time of cN • c does not depend on N, but rather the number of clusters, k • Low computational complexity • High speed From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici

  25. Análise do K-Means

  26. Análise do K-Means

  27. Segmentação Baseada em Entropia • Entropia Tradicional BGS • q-Entropia • Aplicações da q-entropia à PDI

  28. Entropia Tradicional BGS - Histórico Clausius foi o primeiro a dar uma definição para Entropia Boltzmann idealizou o conceito moderno de entropia No início, a idéia de entropia estava ligada somente a medida da capacidade de realização de trabalho dos sistemas físicos. Rudolph Clausius (1822-1888) Ludwing Boltzmann (1844-1906)

  29. Leis da Termodinâmica Trabalho Energia TOTAL Perdas • Primeira Lei: A energia não pode ser criada nem destruída • Segunda Lei: Só pode haver trabalho se houver entropia

  30. Plank foi o verdadeiro idealizador da fórmula atribuída a Boltzmann Gibbs introduziu a conhecida fórmula Entropia Tradicional BGS - Histórico Com Plank e Gibbs a entropia transcendeu a Termodinâmica e passou a se associar à Mecânica Estatística. Max Plank (1854-1947) Willard Gibbs (1839-1903)

  31. Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação surgiu na década de 40, com origem na telegrafia e telefonia. Posteriormente, foi utilizada pela Cibernética no estudo da troca de informação de um organismo vivo ou mecânico. Claude Shannon (1916-2001)

  32. Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação encontrou campo fértil em diversas áreas, entre elas na Economia, Estatística, Linguística, Psicologia, Ecologia, Reconhecimento de Padrões, Medicina, Inteligência Artificial, ... Claude Shannon (1916-2001)

  33. Generalização da Entropia Clássica • Sabe-se há mais de um século que entropia tradicional de • BG não é capaz de explicar determinados Sistemas Físicos • Tais sistemas possuem como características: • - interações espaciais de longo alcance • - interações temporais de longo alcance • - comportamento fractal nas fronteiras • E são chamados de Sistemas Não-Extensivos

  34. Generalização da Entropia Clássica • Exemplos • turbulência • massa e energia das galáxias • Lei de Zipf-Mandelbrot da linguística • Teoria de risco financeiro

  35. Generalização da Entropia Clássica • Lei de Zipf-Mandelbrot da linguística Don Quijote (Miguel di Cervantes) Extração de Palavras Relevantes Rank ordenado

  36. Generalização da Entropia Clássica • Massa e Energia da Galáxias

  37. Generalização da Entropia Clássica • Teoria do Risco Financeiro • Quando se tem expectativa de perda, algumas pessoas • preferem arriscar • Quando se tem expectativa de ganho, algumas pessoas • preferem não arriscar

  38. Generalização da Entropia Clássica • Citação de Artigos Científicos

  39. Entropia Não-Extensiva Constantino Tsallis

  40. Entropia Não-Extensiva

  41. Additive property of Shannon Entropy Tsallis Entropy formula Pseudo-Additive property of Tsallis Entropy

  42. Background and Foreground distribution Background and Foreground Tsallis Entropy

  43. Pseudo-Additivity for Background and Foreground distribution Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy

  44. A new partition of Background and Foreground for new application of Tsallis entropy

  45. Respectivelly news Tsallis entropy for the new background and foregrounds

  46. General Equation of Pseudo-additivity for one recurssion

  47. Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy for the new partition

  48. Visual Segmentation Results Ultrasound original Benign Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4

  49. Visual Segmentation Results Ultrasound original Malignant Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4

  50. Visual Segmentation Results Benign Tumor Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons

More Related