Teorema de codificação da fonte

Origem: Wikipédia, a enciclopédia livre.

Codificação de Fonte[editar | editar código-fonte]

Codificar uma fonte de informação envolve representá-la, para fins de transmissão e armazenamento, de tal forma a usar a menor quantidade de símbolos médios possível, pois a eficiência do codificador está ligada à quantidade de dígitos que foram utilizados para essa nova representação. Temos então que, quanto menor for a quantidade de dígitos empregado, mais eficiente será esse codificador. Pode-se dizer então que o processo de codificação de fonte eficiente tem como objetivo retirar redundâncias que estão presentes naquela fonte. Nesse, sentido Shannon provou que a informação emitida por uma fonte discreta sem memória pode ser comprimida a uma taxa de codificação , onde é a entropia associada à fonte. Essa idéia é parte do conceito do conhecido Teorema de codificação da fonte, a ser discutido a seguir.

Teorema de Codificação da Fonte para uma Mensagem Aleatória[editar | editar código-fonte]

O teorema enuncia que existe um código binário livre de prefixo ótimo, por exemplo, um código de Huffman, de uma mensagem aleatória U com r possíveis valores, onde o comprimento médio das palavras-código obedece satisfaz:

,

em que

é o comprimento médio associado à mensagem U, é a probabilidade associada ao i-ésimo possível valor, de comprimento dígitos binários.[1]

Note que a igualdade ocorre se, e somente se, é uma potência negativa inteira de 2 para todo i. Vale ressaltar que, embora não seja um código ótimo, o teorema também é válido para o código de Fano.

Codificando uma Fonte de Informação[editar | editar código-fonte]

Considere agora que há um fluxo de mensagens, a ser continuamente codificadas. Para essa situação vamos considerar que cada símbolo emitido pela fonte seja independente dos anteriormente enviados, ou seja, temos uma fonte discreta e sem memória (DMS, Discrete Memoryless Source), gerando uma sequência de mensagens aleatórias independentes onde cada mensagem pode assumir r valores com probabilidades .

É mais eficiente combinar duas ou mais mensagens para a construção de um código, e assim podemos chamá-la de mensagem vetorial aleatória. Matematicamente, uma mensagem vetorial aleatória não é diferente de uma mensagem aleatória convencional, pois ela pode assumir um número limitado de valores com probabilidades associadas. Então, se é r-ária, V terá possíveis símbolos. É possível expressar H(V) em termos de H(U). Considerando a probabilidade do j-ésimo símbolo de V, temos que as mensagens são mutuamente independentes, então:

Onde indica a probabilidade do -ésimo símbolo de . Logo:

Isso quer dizer que se V consiste de ν mensagens aleatórias independentes, sua incerteza é ν vezes a incerteza média de U. Se usarmos um código ótimo, como o de Huffman, e sabendo do Teorema de Codificação para uma Mensagem Aleatória: , temos que um valor ν maior produzirá também maior, o que impede comparações justas entre sistemas de compressão distintos. Por isso, devemos computar o comprimento médio necessário para descrever um símbolo da fonte por vez, ou seja:

bits

Sabendo que , temos:

bits

E por fim chegamos ao Teorema de Codificação de Fonte de Shannon:

bits

Teorema de Codificação de Fonte de Shannon[editar | editar código-fonte]

Existe um código binário livre de prefixo para mensagens em blocos de ν dígitos, de uma fonte discreta sem-memória, tal que o número médio de dígitos de código binário por símbolo da fonte satisfaz:

bits

Onde H (U) é a entropia do símbolo medida em bits. De forma contrária, para todo código binário de mensagens em blocos de ν dígitos

bits

Consequentemente, o teorema mostra que é possível, com um código adequado, atingir um grau de compressão tão próximo à quantidade de informação emitida pela fonte.

Referências[editar | editar código-fonte]

  1. Moser,Stefan M. Chen,Po-Ning. A Student's Guide to Coding and Information Theory. National Chiao Tung University (NCTU), Hsinchu, Taiwan.