Código (comunicação)

Fonte: testwiki
Revisão em 23h50min de 26 de novembro de 2024 por imported>Vsdetoni (Projeto Mais+) (removendo categoria temporária)
(dif) ← Revisão anterior | Revisão atual (dif) | Revisão seguinte → (dif)
Saltar para a navegação Saltar para a pesquisa

Código é uma representação simbólica de repertório próprio ou resultado de um processo de codificação, podendo ser entendido como o ponto de partida do qual é elaborada e decifrada uma mensagem. Situa-se como elemento da informação entre os níveis de semiótica, ou seja, do significado comum a todos os sistemas simbólicos e cuja interpretação menos depende do sistema no qual foi escrito; e da comunicação, sistema de receptores/emissores e fontes de informação. Nesse contexto geral, código também é a ferramenta criada para manter a máxima eficiência da transmissão de informação segundo determinadas propriedades matemáticas.[1]

Propriedades matemáticas do código[2][3]

Pode-se associar qualquer conjunto finito de símbolos de forma biunívoca a equivalentes em códigos binários (0's e 1's) e assim tratar cada símbolo como uma sequência de escolhas do emissor e como uma quantidade que pode ser mensurada em bits. Para sinais analógicos, é necessário primeiro fazer sua discretização. Feito isso, o código detém as seguintes propriedades:

Seja D={s1,s2,...sn} um dicionário de uma fonte emissora F com n símbolos na qual cada símbolo possui uma probabilidade P(si) de ocorrência e seja M uma mensagem qualquer contendo m símbolos produzida por essa fonte.

Se a mensagem for convertida para código binário, como frequentemente requer o processamento digital de sinais e utilizando algum processo como código de Huffman ou de Shannon-Fano, obtemos um novo dicionário D*={s1*,s2*,...sn*}, associando cada símbolo original si a uma sequência de números binários si*.

Quantidade de informação

Define-se a quantidade de informação de um símbolo por I(si)=log2(1P(si))=log2(P(si)) com a exceção particular de que se P(si)=0, então I(si)=0 (nota-se que o mesmo ocorre se P(si)=1, ou seja, símbolos que sempre ou nunca ocorrem não carregam informação nova alguma). A escolha da base 2 para o logaritmo é devido à relação entre o dicionário e um conjunto de códigos binários e a unidade de medida é o bit.

Para a mensagem, tem-se que I(M)=siMI(si)=siMlog2(P(si)), considerando no somatório todas as repetições de símbolos.

Entropia

Predefinição:Artigo principal

Entropia é uma medida da informação média contida numa mensagem. Para F, define-se entropia como a esperança da quantidade de informação de uma mensagem produzida por essa fonte, ou seja, H(F)=E[I(si)]=i=1nP(si)log2(P(si)), de unidade em bits. Vê-se que qualquer M produzida por F não interfere no valor de H(F) uma vez que os valores P(si) tenham sido determinados. Para uma mensagem, tem-se que H(M)=E[I(M)]=E[siMI(si)]=siME[I(si)]=mH(F).

Tamanho de mensagem codificada, tamanho médio e eficiência de codificação

Se passarmos a utilizar D* como dicionário para a mensagem, uma mensagem M* possui o tamanho L(M)=siML(si*), em que L(si*) é simplesmente a quantidade de caracteres binários de si*. A partir disso, define-se tamanho médio da mensagem de F, também uma esperança, por L¯(F)=i=1nP(si)L(si*) e a eficiência de codificação por η=H(F)L¯(F), adimensional (apesar da unidade da entropia).

Predefinição:Referências