Segmenta o ii
This presentation is the property of its rightful owner.
Sponsored Links
1 / 37

Segmentação II PowerPoint PPT Presentation


  • 57 Views
  • Uploaded on
  • Presentation posted in: General

Segmentação II. Paulo Sérgio Rodrigues PEL205. Segmentação Baseada em Entropia. Entropia Tradicional BGS q -Entropia Aplicações da q -entropia à PDI. Entropia Tradicional BGS - Histórico. Clausius foi o primeiro a dar uma defini ç ão para Entropia.

Download Presentation

Segmentação II

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Segmenta o ii

Segmentação II

Paulo Sérgio Rodrigues

PEL205


Segmenta o ii

Segmentação Baseada em Entropia

  • Entropia Tradicional BGS

  • q-Entropia

  • Aplicações da q-entropia à PDI


Entropia tradicional bgs hist rico

Entropia Tradicional BGS - Histórico

Clausius foi o primeiro a dar uma definição para Entropia

Boltzmann idealizou o conceito moderno de entropia

No início, a idéia de

entropia estava ligada

somente a medida

da capacidade de

realização de trabalho

dos sistemas físicos.

Rudolph Clausius (1822-1888)

Ludwing Boltzmann (1844-1906)


Leis da termodin mica

Leis da Termodinâmica

Trabalho

Energia

TOTAL

Perdas

  • Primeira Lei: A energia não pode ser criada nem destruída

  • Segunda Lei: Só pode haver trabalho se houver entropia


Segmenta o ii

Plank foi o verdadeiro idealizador da fórmula atribuída a Boltzmann

Gibbs introduziu a conhecida fórmula

Entropia Tradicional BGS - Histórico

Com Plank e Gibbs

a entropia transcendeu

a Termodinâmica e

passou a se associar

à Mecânica Estatística.

Max Plank (1854-1947)

Willard Gibbs (1839-1903)


Entropia e a teoria da informa o

Entropia e a Teoria da Informação

Shannon associou a entropia a uma quantidade de informação

A teoria da informação surgiu

na década de 40, com origem

na telegrafia e telefonia.

Posteriormente, foi utilizada

pela Cibernética no estudo da

troca de informação de um

organismo vivo ou mecânico.

Claude Shannon (1916-2001)


Entropia e a teoria da informa o1

Entropia e a Teoria da Informação

Shannon associou a entropia a uma quantidade de informação

A teoria da informação encontrou

campo fértil em diversas áreas, entre

elas na Economia, Estatística,

Linguística, Psicologia, Ecologia,

Reconhecimento de Padrões,

Medicina, Inteligência Artificial, ...

Claude Shannon (1916-2001)


Generaliza o da entropia cl ssica

Generalização da Entropia Clássica

  • Sabe-se há mais de um século que entropia tradicional de

  • BG não é capaz de explicar determinados Sistemas Físicos

  • Tais sistemas possuem como características:

    • - interações espaciais de longo alcance

    • - interações temporais de longo alcance

    • - comportamento fractal nas fronteiras

  • E são chamados de Sistemas Não-Extensivos


Generaliza o da entropia cl ssica1

Generalização da Entropia Clássica

  • Exemplos

    • turbulência

    • massa e energia das galáxias

    • Lei de Zipf-Mandelbrot da linguística

    • Teoria de risco financeiro


Generaliza o da entropia cl ssica2

Generalização da Entropia Clássica

  • Lei de Zipf-Mandelbrot da linguística

Don Quijote (Miguel di Cervantes)

Extração de

Palavras

Relevantes

Rank ordenado


Generaliza o da entropia cl ssica3

Generalização da Entropia Clássica

  • Massa e Energia da Galáxias


Generaliza o da entropia cl ssica4

Generalização da Entropia Clássica

  • Teoria do Risco Financeiro

  • Quando se tem expectativa de perda, algumas pessoas

  • preferem arriscar

  • Quando se tem expectativa de ganho, algumas pessoas

  • preferem não arriscar


Generaliza o da entropia cl ssica5

Generalização da Entropia Clássica

  • Citação de Artigos Científicos


Generaliza o da entropia cl ssica6

Generalização da Entropia Clássica

  • Psicologia da Visão


Entropia n o extensiva

Entropia Não-Extensiva

Constantino Tsallis


Entropia n o extensiva1

Entropia Não-Extensiva


Segmenta o ii

Additive property of Shannon Entropy

Tsallis Entropy formula

Pseudo-Additive property of Tsallis Entropy


Segmenta o ii

Background and Foreground distribution

Background and Foreground Tsallis Entropy


Segmenta o ii

Pseudo-Additivity for Background and Foreground distribution

Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy


Segmenta o ii

A new partition of Background and Foreground for new application of Tsallis entropy


Segmenta o ii

Respectivelly news Tsallis entropy for the new background and foregrounds


Segmenta o ii

General Equation of Pseudo-additivity for one recurssion


Segmenta o ii

Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy for the new partition


Segmenta o ii

Visual Segmentation Results

Ultrasound original Benign Tumor

Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4


Segmenta o ii

Visual Segmentation Results

Ultrasound original Malignant Tumor

Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4


Segmenta o ii

Visual Segmentation Results

Benign Tumor

Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters

Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons


Segmenta o ii

Visual Segmentation Results

Malignant Tumor

Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters

Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons


Segmenta o ii

Some Natural Image Results

NESRA

Bootstrap

Fuzzy C-means

Results of application of three approaches for image

segmentation: column 1: proposed (NESRA) method; column 2: bootstrap; column 3: fuzzy c-means


Segmenta o ii

Some Natural Image Results

NESRA

Bootstrap

Fuzzy C-means

Results of application of three approaches for image

segmentation: column 1: proposed (NESRA) method; column 2: bootstrap; column 3: fuzzy c-means


Segmenta o ii

Some Natural Image Results

K-means

SOM

Watershed

Results of application of three approaches for image

segmentation: column 1: k-means; column 2: SOM; column 3: watershed


Segmenta o ii

Some Natural Image Results

K-means

SOM

Watershed

Results of application of three approaches for image

segmentation: column 1: k-means; column 2: SOM; column 3: watershed


Segmenta o ii

Synthetic Image Results

The synthetic image used to compare the robustness of the methods and increasing application of gaussian noise. The two concentric circles have radius 100 and 50, and the intensities for the background, outer and inner circles are 150, 100 and 50 respectively. The letfmost image is the original image; the three others, from left to right, have μ =0 and σ2 = 0.01,

0.05 and 0.1 gaussian noise respectively.


Segmenta o ii

Synthetic Image Results

NESRA

Fuzzy C-means

K-means

SOM

Bootstrap

Watershed

The result segmentation of the six considered algorithms in this paper.

In this illustration, for all the original image we have applied a gaussian noise with zero μ and σ2 = 0.1 which is the highest noise used, and after, a 9 x 9 2D adaptive filter was used for smoothing the noise. In the specific case of NESRA algorithm we use the parameter q = 0.001 since it generates the best visual result with more homogeneous and noiseless regions.


Segmenta o ii

NESRA

Fuzzy C-means

K-means

SOM

Bootstrap

Watershed

The estimated (black ones) and original (white ones) curves superimposed over the original image corresponding to the segmentations of synthetic image. Only the watershed was traced manually since we do not have good precision of the boundary in this case.


Segmenta o ii

Outer Circle

Comparative performance of the five used methods as a function of increasing gaussian noise. The x-line is the σ2 and y-line is Robustness


Segmenta o ii

Inner Circle

Comparative performance of the five used methods as a function of increasing gaussian noise. The x-line is the σ2 and y-line is Robustness


Segmenta o ii

Performance in Achieving Homogeneous Regions

Comparative performance for the five used methods according to the estimated area inside inner, outer and background regions. The performance percentage is an average of the estimated area of the three regions. The x-line is the σ2 and y-line is the average of estimated area (for the three regions) divided by real area.


  • Login