Volver atrás

"Obra abierta". Umberto Eco

Categoría: Filosofía el día 2010-03-05 16:59:45

                                        La teoría de la información

  "La teoría de la información tiende a computar la cantidad de información contenida en determinado mensaje. Si, por ejemplo, el boletín meteorológico del 4 de agosto me comunica "Mañana no nevará", la información que recibo es muy escasa, porque se trata de un dato que ni lo que yo sé ni mis capacidades de predicción de los acontecimientos de mañana aumentan al serme comunicado. Pero si el 4 de agosto el boletín meteorológico me comunica: "Mañana, 5 de agosto, nevará", entonces yo recibo una notable cantidad de información, dada la improbabilidad del hecho que se me anuncia. La cantidad de información de un mensaje dado está delimitada por una serie de ideas que yo puedo tener acerca de la fiabilidad de una fuente: si a un agente inmobiliario que me vende una casa le preguntó si es muy húmeda y él me contesta "No", obtengo una escasa información y quedo igualmente inseguro sobre la naturaleza real del hecho. Pero si el mismo agente me responde "Sí", contra cualquier expectativa mía y contra su propio interés, entonces recibo una buena cantidad de información y paso a saber verdaderamente algo más sobre el asunto que me interesa.

  La información es, pues, una cantidad sumada, es algo que se añade a lo que ya sé y se me presenta como adquisición original. Sin embargo, en los ejemplos anteriormente expuestos se hablaba de una información muy amplia y compleja, en que la cota de novedad dependía del sistema de expectativas del destinatario. En realidad, la información debe estar definida preliminarmente en el ámbito de situaciones bastante más simples en que la cantidad de información pueda ser medida con sistemas matemáticos y expresada en cifras, sin hacer referencia a los conocimientos de un posible receptor; tal es la función de la teoría de la información. Sus cálculos se adaptan a mensajes de todo género, a símbolos numéricos, a símbolos lingüísticos, a secuencias de sonidos, etc.

  Para calcular la cantida de información, es necesario tener en cuenta que el máximo de probabilidad de que ocurra un acontecimiento es 1; el mínimo es 0. [...]

  La teoría de la información, procediendo por elecciones binarias, usa logaritmos de base 2 y llama a la unidad de información bit (o binit), contrayendo las dos palabras binary digit (señal binaria). [...]

  Por consiguiente, podemos decir que la cantidad de información transmitida por un mensaje es el logaritmo binario del número de alternativas susceptibles de definir el mensaje sin ambigüedad".



Publicado por: Francisco Javier Martínez | Comentarios (0) Leer comentarios | Exportar PDF | Escuchar este post

Agregar a marcadores: Agregar a  Technorati Agregar a  del.icio.us Agregar a  Digg.com Agregar a  Yahoo Agregar a  Google Agregar a  Meneame Agregar a  Furl Agregar a  Ma.gnolia.com Agregar a  Blinklist Agregar a  Blogmarks Agregar a  Minster-Wong

Insertar nuevo comentario

No hay comentarios que mostrar