BUSCA

Links Patrocinados



Buscar por Autor
   A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z


Ruído, Redundância, Entropia e Informação
(Amauri)

Publicidade
Ruído, Redundância, Entropia
e Informação





Ruído
entende-se como um fator que interfere na comunicação, pois se prejudicando
sendo ele não harmônico ou um emissor ou receptor sem sintonia que falta de
empatia ou habilidade para colocar-se no lugar de terceiros falta de atenção
pelo receptor. Isso pode ser quebrado
com a redundância e feedback.

Redundância
é todo elemento da mensagem que não traz nenhuma informação nova. Um recurso para chamar a atenção e
neutralizar possíveis ruídos que sendo assim, deve ser repetido as frases ou
informação julgadas essenciais para o receptor. Feedback é o conjunto de sinais perceptíveis que permitem
conhecer o resultado da mensagem; é um processo de se dizer a uma pessoa como
você se sente em função da maneira que faz ou sente.

Segundo a
Teoria da Informação de Shannon é destituída de significados, pois aos meros
elementos de um alfabeto; são sinais de um canal quaisquer de transmissão como
uma linha telefônica ou TV. Entropia é um logaritmo de base 2 que determina a
caoticidade da distribuição de probabilidade pi, pode ser usada para
determinar a capacidade do canal para transmitir a informação.

A entropia
de Shannon, passou a ser considerada como uma medida de informação da
informação contida em mensagem que é estritamente determinada por estruturas
inerentes, exemplo, a redundância da estrutura das linguagens ou das
propriedades estatísticas da linguagem relacionadas as freqüências de
ocorrência de diferentes letras (monermas)
ou de pares, trios (fonemas) etc, de palavras.

A Entropia
definida por Shannon ­­­­­­­­­­­esta intimamente ligada a entropia definido
pelos físicos. Os físicos Boltzmann e Gibbs fizeram um trabalho de estatística
e termodinâmica que foi a inspiração para o termo da entropia dentro da teoria
da informação, onde há uma profunda relação entre entropia nos sentidos
termodinâmico e informacional. Por exemplo, o demônio de Maxwell necessita de
informações para reverter a termodinâmica e a obtenção dessas informações
equilibra o termo termodinâmico que o demônio alcançaria de outro modo.



Bibliografia



Wikipedia http://pt.wikipedia.org/wiki/P%C3%A1gina_principal



Comunicação
interpessoal: http://www.ceismael.com.br/oratoria/oratoria020.htm#_ednref2



Resumos Relacionados


- Sistemas De InformaÇÃo: Uma Abordagem Teórico Conceitual

- Comunicação

- Gestao Parte 13

- Paradigma Da Modernidade:

- Definição De Rede De Computador



Passei.com.br | Portal da Programação | Biografias

FACEBOOK


PUBLICIDADE




encyclopedia