compress o de dados n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
Compressão de Dados PowerPoint Presentation
Download Presentation
Compressão de Dados

Loading in 2 Seconds...

play fullscreen
1 / 33

Compressão de Dados - PowerPoint PPT Presentation


  • 183 Views
  • Uploaded on

Compressão de Dados. ORI Ednaldo Pizzolato. COMPRESSÃO. A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir o seu tamanho.

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'Compressão de Dados' - aiko


Download Now An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
compress o de dados

Compressão de Dados

ORI

Ednaldo Pizzolato

compress o
COMPRESSÃO

A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir o seu tamanho.

A compressão de dados, como o nome sugere, é o ato de comprimir os dados. Comprimir algo é torná-lo menor. Assim, comprimimos os dados pelos mais diversos motivos entre os quais:

  • economizar espaço discos rígidos ou
  • ganhar desempenho (Modems).
compress o1
COMPRESSÃO

Assim, o objetivo da compressão de dados é representar a informação da melhor forma possível utilizando a menor quantidade de dados possível.

compress o2
COMPRESSÃO

Para comprimir utilizamos regras, chamadas de códigos ou protocolos, que quando seguidas, eliminam os bits redundantes de informações.

compress o3
COMPRESSÃO

Existem 2 tipos de compressão:

  • Com perdas (Lossy)
  • Sem perdas (Lossless)

As compressões com perdas são aquelas operações que admitem alguma perda de qualidade dos dados (exemplo típico: as imagens .jpg na internet em que se percebe uma diminuição da qualidade próximo às bordas ou, inclusive, trocas de cor na imagem).

compress o4
COMPRESSÃO

Existem 2 tipos de compressão:

  • Com perdas (Lossy)
  • Sem perdas (Lossless)

As compressões sem perdas são aquelas operações que não admitem alguma perda de qualidade dos dados (exemplo: as imagens gif).

compress o5
COMPRESSÃO

Em 1948 o pesquisador Claude E. Shannon publicou um artigo intitulado : A Mathematical Theory of Communication em que formulava a teoria da compressão de dados e indicava que existe um limite fundamental para as compressões sem perdas (denotada por H e conhecida como taxa de entropia).

compress o6
COMPRESSÃO

O valor exato de H depende da informação – mais especificamente, na natureza estatística da mesma. É possível comprimir uma informação (sem perdas) com taxa de compressão próxima a H. Entretanto, é impossível comprimir com taxas melhores que H.

compress o7
COMPRESSÃO

Shannon também desenvolveu a teoria da compressão com perdas (lossy). Ela é melhor conhecida como a teoria da taxa de distorção (rate-distortion theory). Nessas compressões, o arquivo obtido da descompressão não é exatamente igual ao original. Na verdade, há uma certa quantidade de distorção, D, que é tolerada.

compress o8
COMPRESSÃO

MODELAGEM

Ordem zero

Primeira ordem

Segunda ordem

Terceira ordem

Geral

compress o9
COMPRESSÃO

MODELAGEM

Imagine que alguém vá a uma biblioteca (com milhares de livros) para escolher um deles, e enviar seu conteúdo pela internet até sua casa (ou colocar em um pen-drive). Vamos assumir que a pessoa tenha escolhido um livro, cuja representação possa ser a seguinte: X = {x1, x2, ...} onde xi são as letras do livro.

compress o10
COMPRESSÃO

MODELAGEM

Agora você deve se imaginar como sendo o “artista” que vai ter que comprimir este conjunto de letras (sem saber qual o livro que foi escolhido) de forma a ser armazenado no pen-drive, por exemplo. Para você, as letras são variáveis randômicas que mapeiam as letras e símbolos do alfabeto.

compress o11
COMPRESSÃO

MODELAGEM

Na modelagem de ordem zero, cada caractere tem igual probabilidade de ocorrer, independentemente dos caracteres anteriores. Claro que isso não vai representar corretamente as palavras em um determinado idioma.

compress o12
COMPRESSÃO

MODELAGEM

Na modelagem de primeira ordem, cada caractere ainda mantém sua independência dos demais, mas já se deve contemplar o fato de que algumas letras são mais freqüentes que outras.

compress o13
COMPRESSÃO

MODELAGEM

Na modelagem de segunda ordem, cada caractere é dependente do caractere mais à esquerda. Por exemplo, dado que o caractere observado é q existe enorme probabilidade que o próximo seja u.

compress o14
COMPRESSÃO

MODELAGEM

Na modelagem de terceira ordem, cada caractere é dependente dos dois caracteres mais à esquerda...

compress o15
COMPRESSÃO

A taxa de entropia de um dado é um número que depende somente da natureza estatística do referido dado. Se o dado tem uma modelagem simples, então a taxa de entropia pode ser calculada facilmente.

compress o16
COMPRESSÃO

Na modelagem de ordem zero, os caracteres são estatisticamente independentes uns dos outros (cada letra do alfabeto tem igual probabilidade de ocorrer). Seja m o tamanho do alfabeto. Assim, a entropia pode ser dada por:

Se o alfabeto contiver 27 letras, então H = 4.75 bits/caractere. Notar que no ASCII são 8 bits por caractere.

compress o17
COMPRESSÃO

Na modelagem de primeira ordem, como apresentado anterioremente, os caracteres ainda são estatisticamente independentes uns dos outros, mas a probabilidade de cada letra ocorrer deve ser contemplada. Assim, se m é o tamanho do alfabeto, a entropia pode ser dada por:

Se o alfabeto contiver 27 letras, então, neste caso, H seria 4.07 bits/caractere. Novamente, no ASCII são necessários 8 bits por caractere.

compress o18
COMPRESSÃO

Compressão = modelo + código

simb

entrada

modelo

prob.

codificador

saída

slide21

COMPRESSÃO

Para ilustrar, vamos utilizar um alfabeto de 2 letras {a,b}, onde as probabilidades são dadas pelo grafo a seguir:

0.1

0.9

a

b

0.9

0.1

slide22

COMPRESSÃO

Para a modelagem de ordem zero, teríamos cada caractere associado a um bit: a  0 e o b  1, já que são caracteres com probabilidades iguais de ocorrer.

Seq. Original : aaaaaaabbbbbbbbbbbbbaaaa

000000011111111111110000

1 bit / caractere

slide23

COMPRESSÃO

Para a modelagem de SEGUNDA ordem, teríamos a seguinte tabela de probabi-lidade:

Seq. Original :

aaaaaaabbbbbbbbbbbbbaaaa

0001101010.............. 00

0,83 bit / caractere

slide24

COMPRESSÃO

Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes:

a  0,4

b  0,3

c  0,1

d  0,1

e  0,1

slide25

COMPRESSÃO

Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes:

a  0,4 0

b  0,3 1

c  0,1 1

d  0,1 1

e  0,1 1

slide26

COMPRESSÃO

Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes:

a  0,4 0

b  0,3 10

c  0,1 11

d  0,1 11

e  0,1 11

slide27

COMPRESSÃO

Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes:

a  0,4 0

b  0,3 10

c  0,1 110

d  0,1 111

e  0,1 111

slide28

COMPRESSÃO

Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes:

a  0,4 0

b  0,3 10

c  0,1 110

d  0,1 1110

e  0,1 1111

slide29

COMPRESSÃO

Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman.

a  0,4

b  0,3

c  0,1

d  0,1

e  0,1

slide30

COMPRESSÃO

Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman.

a  0,4

b  0,3

c  0,1

d  0,1

e  0,1

D-E

d

e

slide31

COMPRESSÃO

Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman.

a  0,4

b  0,3

c  0,1

d-e  0,2

D-E-C

c

D-E

d

e

slide32

COMPRESSÃO

Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman.

a  0,4

b  0,3

DEC  0,3

D-E-C

c

D-E

d

e

slide33

COMPRESSÃO

  • Trabalho
    • Fazer um resumo de compressão, colocando informações sobre codigo aritmético e algoritmos baseados em dicionário;
    • Codificar Shannon-Fano e Huffman.