Una teoría matemática de la comunicación

De Wikipedia, la enciclopedia libre
Diagrama de un sistema de comunicaciones general de Shannon, que muestra el proceso que produce un mensaje.

Una teoría matemática de la comunicación es un importante e influyente artículo ideado por Claude Elwood Shannon en 1948, conocido por ser «el padre de la teoría de la información».[1][2]​ Shannon trabajó en ella durante ocho años, mientras era empleado de los laboratorios Bell.[3]

Descripción[editar]

El artículo deriva de la propuesta conocida como teoría de la información. Después fue publicado como un libro titulado La teoría matemática de la comunicación (ISBN 0-252-72546-8), y salió al público en edición de bolsillo en 1963 (ISBN 0-252-72548-4). Contiene un artículo adicional por Warren Weaver, que proporciona una visión general de la teoría para un público más general. El artículo de Shannon expuso los elementos básicos de la comunicación:

  • Una fuente de información que produce un mensaje.
  • Un transmisor que opera en el mensaje para crear una señal que puede ser enviado a través de un canal.
  • Un canal que es el medio para llevar la información.
  • Un receptor que transforma la señal.
  • Un destino, que puede ser una persona o una máquina.

Además, desarrolló los conceptos de entropía de la información y redundancia. También introdujo el término bit (que el propio Shannon atribuyó a John Tukey) como unidad de información.

Referencias[editar]

  1. Robert B. Ash. Information Theory. New York: Interscience, 1965. ISBN 0-470-03445-9. New York: Dover 1990. ISBN 0-486-66521-6, p. v
  2. Jump up ^ Yeung, R. W. (2008). "The Science of Information". Information Theory and Network Coding. pp. 1–01. doi:10.1007/978-0-387-79234-7_1. ISBN 978-0-387-79233-0.
  3. A mathematical theory of communication Early Computers.

Material bibliográfico[editar]