Читать книгу Dinámica científica y medidas de complejidad - Miguel Fuentes - Страница 13
2.3.5 Teoría de la Información
ОглавлениеClaude Shannon desarrolló una teoría para encontrar los límites del procesamiento de señales; su trabajo “Una teoría matemática de la comunicación” fue publicado en el Bell System Technical Journal en julio y octubre de 1948. Este es el hito inicial de lo que ahora se llama Teoría de la Información [Shannon, 1948]. Desde la obra de Shannon, la Teoría de la Información ha sido aplicada con éxito a diferentes campos (genética molecular, criptografía, inferencia estadística, física, biología y al análisis de datos). En sistemas complejos, la Teoría de la Información se ha utilizado además en relación con una teoría que fue desarrollada por E. T. Jaynes. En una serie de documentos de alrededor de 1952, este investigador discutió la correspondencia entre la mecánica estadística y la Teoría de la Información [Rosenkrantz, 1983].
Este gigantesco paso nos dice que la mecánica estadística (y todas las aplicaciones y predicciones de este cuerpo exitoso de conocimiento) debe ser vista como un caso particular de una teoría más general: la Teoría de la Información. El trabajo de Jaynes prestó atención a un principio general: el Principio de Máxima Entropía (o MaxEnt). Hoy en día MaxEnt se utiliza, entre otras aplicaciones, para entender la aparición de distribuciones en biología y ecología (desde un enfoque de sistemas complejos), como por ejemplo: distribución de tamaños, distribución de rangos, distribución de energía, etc. En un esfuerzo muy reciente, el autor de este trabajo ha aplicado la teoría de MaxEnt para entender los patrones en sistemas urbanos, pero este trabajo aún no ha sido publicado y está en progreso.