¿Qué es la Teoría Matemática de la Comunicación?

¿Sabes cuánta información recibimos a diario? ¿Te imaginas lo que pasaría si dejáramos de recibir información por solo por un día?

Día a día, recibimos, compartimos, intercambiamos y asimilamos información.

El hecho de visualizar una historia en Instagram ya implica un intercambio: recibimos esta información y al usuario que publica le llega la data de quienes han visto su historia.

Si bien la información que transmitimos cada día es más rápida, veloz y cuantiosa, en la década de los ochenta su impotancia ya era reconocida.

La importancia de la transmisión de la información

Hace cuarenta años, y con los incipientes avances de la tecnología, la transmisión de la información ocupó un lugar importante en la mente de muchos teóricos de la época. Electronics (1987, p.83) sostiene:

En casi todos los avances de la tecnología, aquello que está detrás de los nuevos desarrollos es la creciente demanda de información. Grandes cantidades de datos e información, mucho más grandes de lo que nadie había soñado hace una generación, tienen que moverse cada vez más rápido a través de procesadores y redes para terminar siendo almacenados.

Desplazando a las maquinarias industriales o agrícolas, las empresas ahora gastaban más en equipos tecnológicos para transmitir información.

Y no solo las empresas y negocios, sino que la industria espacial también tuvo como uno de sus principales objetivos el recoger información fuera de la Tierra.

Representantes / Teóricos

El máximo representante de esta corriente teórica fue el matemático e ingeniero estadounidense Claude Shannon (1916-2001).

Shannon basa sus presupuestos en la teoría de la probabilidad, los estudios sobre la entropía, la incertidumbre y en las posibilidades que existen para ciertos eventos.

En 1948, Shannon publicó A Mathematical Theory of Communication, que se basó en los fundamentos de otros investigadores de Bell Labs como Harry Nyquist y R.V.L. Hartley.

El trabajo de Shannon, sin embargo, fue mucho más allá. Estableció los resultados básicos de la teoría de la información en una forma tan completa que su marco y terminología todavía se utilizan.

Un paso importante dado por Shannon fue separar el problema técnico de transmitir un mensaje del problema de entender lo que significa un mensaje.

Shannon resolvió estos problemas con éxito para un modelo muy abstracto (por lo tanto ampliamente aplicable) de un sistema de comunicaciones que incluye tanto sistemas discretos (digitales) como continuos (analógicos). En particular, desarrolló una medida de la eficiencia de un sistema de comunicaciones, llamado entropía (análogo al concepto termodinámico de entropía, que mide la cantidad de desorden en los sistemas físicos), que se calcula sobre la base de las propiedades estadísticas de la fuente del mensaje.

Para este autor, el gran problema de la comunicación es la reproducción exacta de un mensaje seleccionado de un punto a otro.

Modelo de Comunicación de Shannon

Shannon desarrolló el siguiente modelo de comunicación para diferentes situaciones:

Shannon's communication modelConsider a simple telephone conversation: A person (message source) speaks into a telephone receiver (encoder), which converts the sound of the spoken word into an electrical signal. This electrical signal is then transmitted over telephone lines (channel) subject to interference (noise). When the signal reaches the telephone receiver (decoder) at the other end of the line it is converted back into vocal sounds. Finally, the recipient (message receiver) hears the original message.

El primer componente del modelo es la fuente del mensaje (o “message source”), la cual es simplemente la entidad que crea el mensaje.

Por lo general, esta entidad es humana, aunque también puede ser un animal, computadora u objeto.

El codificador (o “encoder”) es aquella entidad que conecta el mensaje a las señales físicas reales que se envía.

Por ejemplo, en una conversación por teléfono, la voz real que produce la persona es la fuente, mientras que la boquilla o micrófono del teléfono es el codificador, el cual convierte la voz en datos que viajan por señales de telecomunicaciones.

El canal (“channel”) es el medio que lleva el mensaje. El canal puede ser el cable, el aire o el espacio en el caso de las transmisiones de radio y televisión, o el cable de fibra óptica.

En el caso de una señal producida simplemente golpeando la tubería, el canal puede ser la tubería que recibe el golpe.

El ruido (“noise”) es cualquier entidad que interfiere con la transmisión de una señal.

En una videoconferencia, la interferencia puede ser causada por una baja señal de internet o por ruidos de fondo.

El decodificador (“decoder”) es el elemento del sistema que convierte la señal en una forma que el receptor del mensaje puede entender.

En una llamada, el decodificador podría ser el auricular y sus circuitos electrónicos.

El receptor del mensaje (o “message receiver”) es el objeto que recibe el mensaje transmitido. Puede ser otra persona o tal vez un animal, una computadora u otro objeto inanimado.

Postulados de la Teoría Matemática de la Comunicación

Esta corriente teórica presenta los siguientes postulados y aseveraciones:

  • La información puede ser medida en diferentes unidades, en cualquier cosa, desde bits hasta dólares.
  • La entropía es una de las medidas que se ajustan a la Ley de la Información decreciente, sin embargo, posee propiedades como la de ser simétrica, lo que la hace inadecuada para algunas aplicaciones.
  • Para señales discretas y finitas, la Ley de la Información Disminuyente se define matemáticamente, utilizando la teoría de la probabilidad y el álgebra de matrices.
  • La Ley de la Información Disminuyente se utiliza como axioma para derivar propiedades esenciales de la información.
  • La recopilación es una necesidad cuando la información lleva conocimiento, o es una base para la toma de decisiones. En tales casos, la fiabilidad es siempre una medida de información útil. La entropía no permite la coligación.

Influencia posterior

Un aspecto que evidenció esta teoría es que la capacidad de procesamiento de los seres humanos es una fracción de la cantidad de información que los distintos medios nos transmiten, por ejemplo, en las pantallas de televisión.

George A. Miller observó que los humanos procesan la información en trozos de categorías familiares.

Así, en el mapeo humano de la información, existe un filtrado de aquello que se procesa, de acuerdo a su nivel de relevancia. En este sentido, la información que se pierde puede realmente no ser necesaria y ser más bien adicional, suplementaria o tener un fin estético.

En general, los seres humanos seleccionan y componen mensajes a partir de trozos de paquetes de información comúnmente comprendidos, no de bits individuales.

Bibliografía

Electronics: Technology Outlook (Electronics, October 15, 1987)

Shannon, C.E.: A Mathematical Theory of Communication(The Bell System Technical Journal, Vol 27, pp.379-423, 623-656, July, Oct. 1948, reprinted in {Shannon, 1993})

Sitio web Brittanica. https://www.britannica.com/biography/Claude-Shannon#ref666143

https://pdfs.semanticscholar.org/55ce/26436e90faa567fb3db2d1d4a09c48b2b2e7.pdf

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *