Beruflich Dokumente
Kultur Dokumente
É comum nos dias de hoje ouvir-se falar sobre a Era da Informação, o advento da "Era do Conhecimento" ou sociedade do
conhecimento. Como a sociedade da informação, a tecnologia da informação, a ciência da informação e a ciência da
computação em informática são assuntos e ciências recorrentes na atualidade, a palavra "informação" é frequentemente
utilizada sem muita consideração pelos vários significados que adquiriu ao longo do tempo.
Índice
Etimologia
Informação como mensagem
Medindo a entropia da informação
Informação como padrão
Informação e Semiótica
Outras visões da informação
Informação como estímulo sensorial
Informação como uma influência que leva a transformação
Informação como uma propriedade na física
Informação e dados
Informação como registros
Bibliografia
Ver também
Ligações externas
Etimologia
De acordo com o Dicionário Contemporâneo da Língua Portuguesa, informação vem do latim informatio,onis, ("delinear,
conceber ideia"), ou seja, dar forma ou moldar na mente, como em educação, instrução ou treinamento.
A palavra do grego antigo para forma era μορφή (morphe; cf. morfo) e também εἶδος (eidos) "tipo, ideia, forma, 'aquilo que
se vê', configuração", a última palavra foi usada famosamente em um sentido filosófico técnico por Platão (e mais tarde
Aristóteles) para denotar a identidade ideal ou essência de algo (ver Teoria das ideias).
Informação é a qualidade da mensagem que um emissor envia para um ou mais receptores. Informação é sempre sobre
alguma coisa (tamanho de um parâmetro, ocorrência de um evento etc.). Vista desta maneira, a informação não tem de ser
precisa. Ela pode ser verdadeira ou mentirosa, ou apenas um som (como o de um beijo). Mesmo um ruído inoportuno feito
para inibir o fluxo de comunicação e criar equívoco, seria, sob esse ângulo, uma forma de informação. Um ruído é usado na
teoria da comunicação para se referir a qualquer coisa que interfira na comunicação.[3] Todavia, em termos gerais, quanto
maior a quantidade de informação na mensagem recebida, mais precisa ela é.
Este modelo assume que há um emissor definido e ao menos um receptor. Refinamentos do modelo assumem a existência de
uma linguagem comum entendida pelo emissor e ao menos por um dos receptores. Uma variação importante identifica a
informação como algo que pode ser comunicado por uma mensagem do emissor para um receptor capaz de compreender a
mensagem. Todavia, ao exigir a existência de um emissor definido, o modelo da informação como mensagem não acrescenta
qualquer significado à ideia de que a informação é algo que pode ser extraída de um ambiente, por exemplo, através de
observação, leitura ou medição.
Informação é um termo com muitos significados dependendo do contexto, mas como regra é relacionada de perto com
conceitos tais como significado, conhecimento, instrução, comunicação, representação e estímulo mental. Declarado
simplesmente, informação é uma mensagem recebida e entendida. Em termos de dados, podem ser definida como uma
coleção de factos dos quais conclusões podem ser extraídas. Existem muitos outros aspectos da informação visto que ela é o
conhecimento adquirido através do estudo, experiência ou instrução. Mas, acima de tudo, informação é o resultado do
processamento, manipulação e organização de dados numa forma que se some ao conhecimento da pessoa que o recebe. A
teoria da comunicação analisa a medida numérica da incerteza de um resultado. A teoria da comunicação tende a usar o
conceito de entropia da informação, geralmente atribuído a Claude Shannon.[4] Outra forma de informação é a informação
Fisher, um conceito de R.A. Fisher.
Mesmo que informação e dados sejam freqüentemente usados como sinônimos, eles realmente são coisas muito diferentes.
Dados representam um conjunto de fatos não associados e como tal, não têm utilidade até que tenham sido apropriadamente
avaliados. Pela avaliação, uma vez que haja alguma relação significativa entre os dados e estes possam mostrar alguma
relevância, são então convertidos em informação. Agora, estes mesmos dados podem ser usados com diferentes propósitos.
Assim, até que os dados expressem alguma informação, não são úteis.
“ A escolha de uma base logarítmica corresponde a escolha de uma unidade para medir a
informação. Se a base 2 é usada, as unidades resultantes podem ser chamadas dígitos
binários, ou mais resumidamente, bits, uma palavra sugerida por J. W. Tukey. Um
dispositivo com duas posições estáveis, tais como um relé ou um circuito flip-flop, pode
armazenar um bit de informação. N de tais dispositivos podem armazenar N bits…[6] ”
Um meio complementar de medir informação é fornecido pela teoria algorítmica da informação. Em resumo, ela mede o
conteúdo de informação duma lista de símbolos baseando-se em quão previsíveis eles são, ou, mais especificamente, quão
fácil é computar a lista através de um programa de computador: o conteúdo de informação de uma seqüência é o número de
bits do menor programa capaz de computá-lo. A seqüência abaixo deveria ter uma medida de informação algorítmica muito
baixa dado que é um padrão perfeitamente previsível e a medida que o padrão continua, a medida não deveria alterar-se. A
informação de Shannon deveria retornar a mesma medida de informação para cada símbolo, visto que são estatisticamente
aleatórios, e cada novo símbolo incrementaria a medida:
123456789101112131415161718192021
Michael Reddy observou que "'sinais' da teoria matemática são 'padrões que podem ser trocados'. Não há mensagem contida
no sinal, os sinais expressam a capacidade de escolher dentre um conjunto de mensagens possíveis." Em teoria da
informação, "o sistema deve ser projetado para operar com qualquer seleção possível, não apenas com aquela que será
realmente escolhida, visto que esta é desconhecida ao tempo do projeto".
É considerada hoje em dia como um importante recurso que intervem no desenvolvimento, na sobrevivência e na
normalização do relacionamento entre os povos.[7]
Informação e Semiótica
Beynon-Davies [9][10] explica o conceito multi-facetado de informação em termos de sinais e de sistemas de signos-sinais. Os
signos em si, podem ser considerados em termos de quatro níveis inter-dependentes, camadas ou ramos da semiótica:
pragmática, semântica, sintaxe e empirismo. Estas quatro camadas servem para conectar o mundo social, por um lado com o
mundo físico ou técnico, por outro lado ...
Pragmática está preocupada com o propósito de comunicação. A pragmáticas relaciona a questão dos sinais com o contexto
no qual os sinais são usados. O foco da pragmática é sobre as intenções dos agentes reais subjacentes ao comportamento
comunicativo.[11] Em outras palavras, a pragmática estabelece uma ligação do idioma com a ação.
Semântica se preocupa com o significado de uma mensagem transmitida em um ato comunicativo. A semântica considera o
conteúdo da comunicação. A semântica é o estudo do significado dos sinais - a associação entre sinais e comportamento. A
semântica pode ser considerada como o estudo da relação entre símbolos e seus referentes ou conceitos, particularmente a
forma como os sinais se relacionam com o comportamento humano.[12]
Sintaxe está preocupada com o formalismo utilizado para representar uma mensagem. A sintaxe como uma área estuda a
forma de comunicação em termos de lógica e gramática dos sistemas de signos. A sintaxe é dedicada ao estudo da forma e
não ao conteúdo de sinais e sistemas de signos.
Informação e dados
As palavras informação e dados, são intercambiáveis em muitos contextos. Todavia, não são sinônimos. Por exemplo, de
acordo com a observação de Adam M. Gadomski (1993), dados são tudo que pode ser processado e as informações são
dados que descrevem um domínio físico ou abstra(c)to. Knuth aponta que o termo dados se refere a representação do valor
ou quantidade medida ao passo que informação, quando usada em um sentido técnico, é o significado daquele dado.[14]
1. Serra, J. Paulo (2007). Manual de Teoria da Comunicação. Covilhã: Livros Labcom. p. 93-101. 203 páginas. ISBN 978-
972-8790-87-5
2. LE COADIC, Yves-François. A ciência da informação. Brasília:Briquet de Lemos 1996.
3. Petzold, Charles (2000). Code. The Hidden Language of Computer Hardware and Software (em inglês). Redmond:
Microsoft Press. p. 72-73. 393 páginas. ISBN 0-7356-1131-9
4. Shannon, Claude E.; Weaver, Warren (1949). The Mathematical Theory of Communication (em inglês). Illinois: Illini
Books. 117 páginas. Library of Congress Catalog Card nº 49-11922
5. Salomon, David (2000). Data Compression. The Complete Reference 2 ed. Nova Iorque: Springer. p. 279. ISBN 0-387-
95045-1
6. The Bell System Technical Journal, Vol. 27, p. 379, (Julho de 1948).
7. Blackburn, Perry L. (2007). The Code Model of Communication (http://www.sil.org/silepubs/Pubs/48756/48756_Blackbur
n%20P_Code%20model%20of%20communication.pdf) (PDF). [S.l.]: SIL International. ISBN 1-55671-179-4
8. Niemeyer, Luci (2007). Elementos de Semiótica Aplicados ao Design 2ª ed. Rio de Janeiro: Novas Idéias/2AB Editora.
p. 35. ISBN 85-86695-31-9
9. Beynon-Davies, P. (2002). Information Systems: an introduction to informatics in Organisations. Basingstoke, UK:
Palgrave. ISBN 0-333-96390-3
10. Beynon-Davies, P. (2009). Business Information Systems. Basingstoke, UK: Palgrave. ISBN 978-0-230-20368-6
11. Barros, Diana Luz Pessoa de (2005). Teoria Semiótica do Texto 4ª ed. São Paulo: Ática. ISBN 85-08-03732-5
12. Gudwin, Ricardo; Queiroz, João. «V - Symbols:Integrated Cognition and Language». Semiotics and Intelligent Systems
Development. Hershey: Idea Group Publishing. p. 130. ISBN 1-59904-063-8|
13. Oliveira, Marlene de (coordenadora) (2005). Ciência da Informação e Biblioteconomia. Novos Conteúdos e Espaços de
Atuação. Belo Horizonte: Editora UFMG. ISBN 85-7041-473-0
14. Knuth, Donald E. Selected Papers on Computer Science. Cambridge: Cambridge University Press. p. 1-2. 274 páginas.
ISBN 1881526-91-7
Bibliografia
BEKENSTEIN, Jacob D. (Agosto, 2003). Informação no universo holográfico. Scientific American. Recuperado de
Reference Center (http://www.referencenter.com).
BRETON, P. & PROULX S (1989). L’explosion de la communication; la naissance d’une nouvelle ideologie. Paris: La
D’couverte, 1989.
FLORIDI, Luciano, (2005). 'Is Information Meaningful Data?', Philosophy and Phenomenological Research, 70 (2),
pp. 351 – 370. Disponível online em Floridi (https://web.archive.org/web/20060725032037/http://www.wolfson.ox.ac.uk/~f
loridi/pdf/iimd.pdf).
FLORIDI, Luciano, (2005). 'Semantic Conceptions of Information', The Stanford Encyclopedia of Philosophy (Edição de
Inverno, 2005), Edward N. Zalta (ed.). Disponível online em Semântica (http://plato.stanford.edu/entries/information-sem
antic/).
Ver também
Ciência da informação Arquitetura de informações Administração de dados
Infosfera Teoria de sistemas Metadados
Tecnologia da informação Cibernética
Teoria da informação
Ligações externas
International Security Research & Intelligence Agency (http://isria.com) (em inglês), empresa de consultoria
especializada em informação e assuntos ligados à segurança internacional, que fornece aos usuários da Internet uma
Central de Fontes Abertas (https://web.archive.org/web/20090831133513/http://osint.isria.com/).
Semantic Conceptions of Information (http://plato.stanford.edu/entries/information-semantic/) (em inglês) Revisada por
Luciano Floridi para a Stanford Encyclopedia of Philosophy.
Entrada sobre neguentropia (http://pespmc1.vub.ac.be/ASC/NEGENTROPY.html) (em inglês)
Information in the socio-cognitive and systemic context (http://erg4146.casaccia.enea.it/wwwerg26701/gad-dict.htm) (em
inglês), Servidor de Meta-Conhecimento da Agência de Pesquisa Italiana (ENEA).
Fisher Information, um Novo paradigma para a Ciência: Introdução, princípios de incerteza, equações de onda, idéias
de Escher, Kant, Platão e Wheeler. (http://www.optics.arizona.edu/Frieden/Fisher_Information.htm) (em inglês) Este
ensaio é continuamente revisado, à luz de pesquisa contínua.
Informação, Consciência e Saúde (http://www.princeton.edu/~pear/JahnATpages.pdf) (em inglês)
Informação, precisamos definir esse termo (http://www.observatoriodaimprensa.com.br/artigos.asp?cod=286DAC002)
Obtida de "https://pt.wikipedia.org/w/index.php?title=Informação&oldid=55050639"
Esta página foi editada pela última vez às 13h13min de 6 de maio de 2019.
Este texto é disponibilizado nos termos da licença Atribuição-CompartilhaIgual 3.0 Não Adaptada (CC BY-SA 3.0) da
Creative Commons; pode estar sujeito a condições adicionais. Para mais detalhes, consulte as condições de utilização.