Teoria da Informação ou Teoria Estatística da Comunicação

Teoria da Informação ou Teoria Estatística da Comunicação

Teoria da Informação ou Teoria Estatística da ComunicaçãoA teoria da informação ou, mais precisamente, a teoria estatística da comunicação, trata da otimização do uso dos meios de transmissão de informações. Para a teoria da informação, os elementos básicos de qualquer sistema geral de comunicação são: a fonte de informação; o aparelho transmissor, que codifica a informação, ou seja, transforma-a em "mensagem", em uma forma capaz de ser transmitida; o meio de transmissão, ou canal; o aparelho receptor, que decodifica a mensagem; o destinatário, ou receptor da mensagem. Durante a transmissão da mensagem ocorre mais um elemento, o ruído, isto é, a distorção, cuja forma de ocorrência é muitas vezes imprevisível, e que interfere e modifica a mensagem.

Originada do trabalho do engenheiro americano Claude E. Shannon, a teoria da informação desenvolveu-se rapidamente e hoje tem aplicação tanto nos sistemas de comunicação como nas áreas de automação, psicologia, linguística e termodinâmica.

Dessa forma, a teoria da informação é também uma teoria do sinal no sentido amplo. Ela se faz presente cada vez que um sinal é enviado e recebido, e portanto aplica-se tanto à telefonia, ao telégrafo e ao radar quanto à fisiologia do sistema nervoso ou à linguística, em que a noção de canal reaparece na cadeia formada pelo órgão da fonação, as ondas sonoras e o órgão auditivo.

Informação, no sentido restrito da teoria, nada tem a ver com qualquer significado inerente à mensagem. Trata-se de um certo grau de ordem, ou de não-acaso, que pode ser avaliado e tratado matematicamente, tal como a massa, ou a energia, ou outras quantidades físicas. Para dar a caracterização matemática ao sistema geral de comunicações, é necessário quantificar diversas variáveis, entre elas a taxa de produção de informações pela fonte, a capacidade do canal de transmitir informação e a quantidade média de informação em uma mensagem de qualquer tipo. A maioria das técnicas usadas pela teoria da informação procede da ciência matemática das probabilidades. Assim, por exemplo, para avaliar a exatidão da transmissão de uma informação sob certas condições conhecidas de interferência do ruído, é necessário recorrer à probabilística. As diversas opções de codificação e decodificação elaboradas para reduzir ao mínimo o grau de incerteza ou de erro também baseiam-se no cálculo das probabilidades.

A ideia fundamental expressa na teoria de Shannon é a de que a informação é transmitida com a ajuda de um canal (linhas telefônicas, ondas hertzianas). Deve-se então estudar tanto a informação propriamente dita (quantidade de informação, entropia de uma fonte de informação) quanto as propriedades dos canais e as relações existentes entre a informação a transmitir e o canal empregado, para otimizar sua utilização.

Informação designa assim a medida de uma possibilidade de escolha na seleção de uma mensagem. Tudo que reduz a incerteza e elimina certas possibilidades com o fim de eleger outras é informação. Por exemplo, na hipótese de uma pessoa ter de encontrar um determinado documento num conjunto de milhares de pastas em cores diversas, se ela for avisada de que o documento se encontra em uma pasta verde terá recebido uma informação que reduzirá em muito o tempo de busca em todas as pastas do conjunto. Se além disso lhe comunicarem que o documento encontra-se em uma pasta pequena, terá recebido uma nova informação, que diminuirá mais ainda o tempo de busca. Dessa forma, uma informação é tanto mais eficaz quanto mais contribui para diminuir o número de possibilidades ulteriores. Define-se a quantidade de informação como uma função crescente de N/n, na qual N é o número de possibilidades e n o subconjunto definido pela informação.

A explicação acima permite compreender melhor os conceitos de entropia e de código, intimamente associados à quantidade de informação. Assim, tomado o alfabeto como fonte, se todas as letras tiverem a mesma eqüiprobabilidade, isto é, a mesma possibilidade de ocorrência, um número fantástico de sequências de três letras ou mais poderá ser escrito. A informação da fonte alfabeto, em termos de liberdade de escolha, é extraordinária, mas a possibilidade de transmitir essa informação numa mensagem completa é praticamente impossível, dada a sua imensa quantidade.

Esse estado de desordem, de caos, é a entropia. Diante desse impasse, intervém a função ordenadora do código. A língua portuguesa, por exemplo, é um código cujas mensagens só se tornam decodificáveis se formuladas dentro de sua estrutura sintática. Isso limita as possibilidades de combinação entre os elementos em jogo, que são as palavras da língua. Ou seja, o conteúdo de uma mensagem em português só se torna claro se a mensagem tiver sido formulada de acordo com as regras do código, que exige que as palavras sejam postas em determinada ordem. Essa função ordenadora é que reduz a entropia, ao impor à equiprobabilidade da fonte um sistema de probabilidades, em que somente certas combinações são possíveis e outras não. Esse procedimento limitativo do código diminui as possibilidades de escolha de uma fonte de alta entropia, como no exemplo do alfabeto, mas aumenta a possibilidade de transmitir mensagens inteligíveis.

Na formação de mensagens codificadas, as teorias do acaso e da probabilidade são muito importantes, uma vez que, diante de um número bastante extenso de escolhas ou combinações, o sistema emissor decide-se por uma delas em função de fatores aleatórios e estatísticos. Assim, por exemplo, é muito mais provável em português a escolha da letra m do que a da letra x para configurar uma palavra, embora ambas sejam igualmente possíveis. O fenômeno da redundância desempenha importante papel na fala, por sua capacidade de prevenir o erro. Num sistema não-redundante, como o numérico, sabe-se que o uso equivocado de um único dígito leva necessariamente ao erro.

A transferência de informação entre dois sistemas dá-se mediante sinais que, compreensíveis tanto pelo emissor quanto pelo receptor, formam o código. Tais sinais são compostos de signos elementares, de cuja combinação resulta a mensagem desejada. Existem diversos métodos de codificação. Assim, os alfabetos ideográficos, como o chinês, empregam uma grande quantidade de signos, enquanto os simbólicos (todos os ocidentais, o árabe e outros) baseiam-se nas combinações de um conjunto limitado de letras.

O sistema de codificação mais simples que se pode conceber é o binário. Exemplos deste tipo são o cara ou coroa, o sim e o não, o branco e o negro, o alfabeto Morse (ponto e traço) etc. Esses elementos constituintes do sistema binário constituem a unidade fundamental de informação, o bit, que adota como valores básicos 0 e 1. Qualquer linguagem pode ser reduzida ao código binário sem nenhuma restrição, segundo um conjunto de regras predeterminadas. É nessa propriedade que se fundamenta a maioria dos processos de telecomunicação e a informática.

www.klimanaturali.org