Entendiendo la Teoría de la Información: Shannon y Weaver
Clasificado en Otras materias
Escrito el en español con un tamaño de 5,38 KB
Teoría de la Información: Un Modelo de Comunicación
Modelo desarrollado por Shannon y complementado por Weaver.
Cualidades de la Información
- Precisión
- Exactitud
- Oportunidad
- Integridad
- Significativa
Concepto de la Teoría de la Información
- Es una rama de la Teoría de la Matemática, de las probabilidades y de la estadística que estudia todo lo relacionado con ellas.
- La Teoría de la Información es una teoría matemática creada por Claude Shannon en el año 1948 y que forma la piedra angular sobre la que se ha desarrollado toda la teoría actual de la comunicación y la codificación.
- Esta teoría establece los límites de cuánto se puede comprimir la información y de cuál es la máxima velocidad a la que se puede transmitir información.
- La Teoría de la Información es, por tanto, una teoría de límites alcanzables: máxima compresión de datos y máxima tasa de transmisión de información transmitida sin errores.
Las aplicaciones de esta teoría son enormes y abarcan desde las ciencias de la computación (criptografía, aprendizaje), la ingeniería eléctrica (Teoría de la comunicación y teoría de la codificación), la estadística o la biología (secuencias de ADN, código genético).
Esta teoría fue formulada en 1940 por el ingeniero Claude E. Shannon, y aparece publicada por primera vez en octubre de 1948. Posteriormente, el sociólogo Warren Weaver redactó un ensayo destinado a enfatizar las bondades de esta propuesta, el cual fue publicado en 1949.
- Modelo científico del proceso de comunicación
- Formulación de leyes matemáticas de Hartley (génesis de la TI)
Fuente → Transmisor → Canal → Receptor → Destino.
Ruido en la Comunicación
Expresión genérica utilizada para referirse a las distorsiones originadas de forma externa al proceso de comunicación.
Los problemas que plantea Shannon tienen que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje en una señal y los efectos del "ruido".
Weaver define los 3 niveles en que se abordan generalmente los problemas de Comunicación:
TÉCNICO
SEMÁNTICO
PRAGMÁTICO
La Teoría de la Información → Nivel Técnico
Ejemplo de Amplitud del Sistema de Comunicación: La Radio
- RADIO: la fuente de información es el locutor, el mensaje las palabras y sonidos que emite. El micrófono y equipamiento electrónico constituyen el transmisor. La señal son las ondas electromagnéticas; el espacio entre las antenas trasmisoras y receptoras es el canal. El receptor es el aparato de radio, el sonido es el mensaje recobrado. Los auditores son los destinatarios.
Interés Principal de la Teoría de la Información
- El interés principal de la TI es la capacidad y fidelidad para transmitir información.
- ¿Cuánta información?
- INFORMACIÓN: grado de libertad de una fuente para elegir un mensaje de un conjunto de posibles mensajes.
- INCERTIDUMBRE: implica que existen diferentes alternativas o conjuntos de signos construidos para comunicarse, que deberán ser elegidos.
- SEÑALES: contienen información para hacer elecciones.
Código en la Teoría de la Información
- FUENTE y RECEPTOR manejan el mismo código.
- EJ: elegir entre varios stickers para un amigo, elecciones sucesivas de un conjunto de símbolos como en el caso del lenguaje.
Probabilidad y Envío de Información
- Se parte del supuesto que cada elección está asociada a cierta probabilidad, para luego ser enviada.
- La cantidad de información puede ser calculada a partir de la probabilidad de ser enviada
- Ej: moneda cara o sello (½) ; el lenguaje (un).
Principios de la Medición en la Teoría de la Información
- Mientras más probable sea un mensaje, menos información proporcionará.
- I (x,y)= f p(x) + f p(y/x)
Unidad de Información: El Bit
- Seleccionado el mensaje, es posible transcribirlo a un código binario (si/no) (1/0).
- La elección entre dos alternativas posibles es unidad básica de información: dígito binario o bit.
- La cantidad de N posibilidades igualmente probables es igual a log2N.
Proceso Estocástico y Redundancia
- PROCESO ESTOCÁSTICO: un tipo de secuencia donde los mensajes de las fuentes consisten en elecciones sucesivas entre posibilidades de probabilidades variables y dependientes. EJ: lenguaje la palabra
- e – s – p – a – ñ – o – l
- COMPLETAR FRASE REDUNDANCIA: las posibilidades dentro de un mensaje se repiten, y se repiten de una cierta manera predecible
- C_M_ S_ LL_MA _ST_ M_ _EL_.