1 / 33

Compressão de Dados

Compressão de Dados. ORI Ednaldo Pizzolato. COMPRESSÃO. A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir o seu tamanho.

aiko
Download Presentation

Compressão de Dados

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Compressão de Dados ORI Ednaldo Pizzolato

  2. COMPRESSÃO A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir o seu tamanho. A compressão de dados, como o nome sugere, é o ato de comprimir os dados. Comprimir algo é torná-lo menor. Assim, comprimimos os dados pelos mais diversos motivos entre os quais: • economizar espaço discos rígidos ou • ganhar desempenho (Modems).

  3. COMPRESSÃO Assim, o objetivo da compressão de dados é representar a informação da melhor forma possível utilizando a menor quantidade de dados possível.

  4. COMPRESSÃO Para comprimir utilizamos regras, chamadas de códigos ou protocolos, que quando seguidas, eliminam os bits redundantes de informações.

  5. COMPRESSÃO Existem 2 tipos de compressão: • Com perdas (Lossy) • Sem perdas (Lossless) As compressões com perdas são aquelas operações que admitem alguma perda de qualidade dos dados (exemplo típico: as imagens .jpg na internet em que se percebe uma diminuição da qualidade próximo às bordas ou, inclusive, trocas de cor na imagem).

  6. COMPRESSÃO Existem 2 tipos de compressão: • Com perdas (Lossy) • Sem perdas (Lossless) As compressões sem perdas são aquelas operações que não admitem alguma perda de qualidade dos dados (exemplo: as imagens gif).

  7. COMPRESSÃO Em 1948 o pesquisador Claude E. Shannon publicou um artigo intitulado : A Mathematical Theory of Communication em que formulava a teoria da compressão de dados e indicava que existe um limite fundamental para as compressões sem perdas (denotada por H e conhecida como taxa de entropia).

  8. COMPRESSÃO O valor exato de H depende da informação – mais especificamente, na natureza estatística da mesma. É possível comprimir uma informação (sem perdas) com taxa de compressão próxima a H. Entretanto, é impossível comprimir com taxas melhores que H.

  9. COMPRESSÃO Shannon também desenvolveu a teoria da compressão com perdas (lossy). Ela é melhor conhecida como a teoria da taxa de distorção (rate-distortion theory). Nessas compressões, o arquivo obtido da descompressão não é exatamente igual ao original. Na verdade, há uma certa quantidade de distorção, D, que é tolerada.

  10. COMPRESSÃO MODELAGEM Ordem zero Primeira ordem Segunda ordem Terceira ordem Geral

  11. COMPRESSÃO MODELAGEM Imagine que alguém vá a uma biblioteca (com milhares de livros) para escolher um deles, e enviar seu conteúdo pela internet até sua casa (ou colocar em um pen-drive). Vamos assumir que a pessoa tenha escolhido um livro, cuja representação possa ser a seguinte: X = {x1, x2, ...} onde xi são as letras do livro.

  12. COMPRESSÃO MODELAGEM Agora você deve se imaginar como sendo o “artista” que vai ter que comprimir este conjunto de letras (sem saber qual o livro que foi escolhido) de forma a ser armazenado no pen-drive, por exemplo. Para você, as letras são variáveis randômicas que mapeiam as letras e símbolos do alfabeto.

  13. COMPRESSÃO MODELAGEM Na modelagem de ordem zero, cada caractere tem igual probabilidade de ocorrer, independentemente dos caracteres anteriores. Claro que isso não vai representar corretamente as palavras em um determinado idioma.

  14. COMPRESSÃO MODELAGEM Na modelagem de primeira ordem, cada caractere ainda mantém sua independência dos demais, mas já se deve contemplar o fato de que algumas letras são mais freqüentes que outras.

  15. COMPRESSÃO MODELAGEM Na modelagem de segunda ordem, cada caractere é dependente do caractere mais à esquerda. Por exemplo, dado que o caractere observado é q existe enorme probabilidade que o próximo seja u.

  16. COMPRESSÃO MODELAGEM Na modelagem de terceira ordem, cada caractere é dependente dos dois caracteres mais à esquerda...

  17. COMPRESSÃO A taxa de entropia de um dado é um número que depende somente da natureza estatística do referido dado. Se o dado tem uma modelagem simples, então a taxa de entropia pode ser calculada facilmente.

  18. COMPRESSÃO Na modelagem de ordem zero, os caracteres são estatisticamente independentes uns dos outros (cada letra do alfabeto tem igual probabilidade de ocorrer). Seja m o tamanho do alfabeto. Assim, a entropia pode ser dada por: Se o alfabeto contiver 27 letras, então H = 4.75 bits/caractere. Notar que no ASCII são 8 bits por caractere.

  19. COMPRESSÃO Na modelagem de primeira ordem, como apresentado anterioremente, os caracteres ainda são estatisticamente independentes uns dos outros, mas a probabilidade de cada letra ocorrer deve ser contemplada. Assim, se m é o tamanho do alfabeto, a entropia pode ser dada por: Se o alfabeto contiver 27 letras, então, neste caso, H seria 4.07 bits/caractere. Novamente, no ASCII são necessários 8 bits por caractere.

  20. COMPRESSÃO Compressão = modelo + código simb entrada modelo prob. codificador saída

  21. COMPRESSÃO Para ilustrar, vamos utilizar um alfabeto de 2 letras {a,b}, onde as probabilidades são dadas pelo grafo a seguir: 0.1 0.9 a b 0.9 0.1

  22. COMPRESSÃO Para a modelagem de ordem zero, teríamos cada caractere associado a um bit: a  0 e o b  1, já que são caracteres com probabilidades iguais de ocorrer. Seq. Original : aaaaaaabbbbbbbbbbbbbaaaa 000000011111111111110000 1 bit / caractere

  23. COMPRESSÃO Para a modelagem de SEGUNDA ordem, teríamos a seguinte tabela de probabi-lidade: Seq. Original : aaaaaaabbbbbbbbbbbbbaaaa 0001101010.............. 00 0,83 bit / caractere

  24. COMPRESSÃO Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a  0,4 b  0,3 c  0,1 d  0,1 e  0,1

  25. COMPRESSÃO Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a  0,4 0 b  0,3 1 c  0,1 1 d  0,1 1 e  0,1 1

  26. COMPRESSÃO Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a  0,4 0 b  0,3 10 c  0,1 11 d  0,1 11 e  0,1 11

  27. COMPRESSÃO Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a  0,4 0 b  0,3 10 c  0,1 110 d  0,1 111 e  0,1 111

  28. COMPRESSÃO Suponha que estejamos, agora, trabalhan-do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a  0,4 0 b  0,3 10 c  0,1 110 d  0,1 1110 e  0,1 1111

  29. COMPRESSÃO Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a  0,4 b  0,3 c  0,1 d  0,1 e  0,1

  30. COMPRESSÃO Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a  0,4 b  0,3 c  0,1 d  0,1 e  0,1 D-E d e

  31. COMPRESSÃO Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a  0,4 b  0,3 c  0,1 d-e  0,2 D-E-C c D-E d e

  32. COMPRESSÃO Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a  0,4 b  0,3 DEC  0,3 D-E-C c D-E d e

  33. COMPRESSÃO • Trabalho • Fazer um resumo de compressão, colocando informações sobre codigo aritmético e algoritmos baseados em dicionário; • Codificar Shannon-Fano e Huffman.

More Related