Читать книгу Reflexiones críticas sobre la teoría de la salud pública - Carlos Eduardo Maldonado - Страница 9
1.2 Un problema complejo: ¿qué es la información?
ОглавлениеNo todos los problemas, tanto en la ciencia como en la vida, son complejos. En consecuencia, un problema fundamental en investigación como en la propia existencia consiste en establecer cuáles problemas son efectivamente complejos y cuáles no, o simplemente lo parecen. En esta distinción están implicados temas y problemas referentes al manejo de energías, el aprovechamiento del tiempo, la disminución del estrés, o el manejo de los recursos en general, y por tanto de nuestras relaciones con el resto del mundo.
Un problema se dice que es complejo en función del tiempo de comprensión y de resolución de este. Este es el objeto mismo de la teoría de la complejidad computacional (TCC). En otras palabras, un problema se dice que es complejo según el tiempo de procesamiento, de entrada hasta la salida, que implica el problema.
La TCC (Du and Ko, 2000) se articula en dos grandes ramas: de un lado, trata los problemas llamados indecidibles y, de otro lado, los problemas decidibles. Un problema se dice que es indecidible si, dados infinitos o innumerables recursos, tiempo y espacio, no es posible alcanzar, de ninguna forma, un algoritmo para la resolución de esta clase de problemas. La ausencia o la inexistencia de ninguna clase de algoritmo plantea consiguientemente la necesidad de formas de computación no-convencionales. La puerta que se abre por lo tanto es la computación no convencional, la cual incluye a la computación cuántica (Nielsen & Chuang, 2010), criptografía post-cuántica (Bernstein, 2008), la hipercomputación (Syropoulos, 2008) y específicamente la hipercomputación biológica (Maldonado, Gómez-Cruz, 2015).
A fin de entender mejor en qué consisten los problemas indecidibles, vale la pena tener en cuenta que la gama de algoritmos es amplia y comprende los siguientes tipos: algoritmos cualitativos, cuantitativos, de ordenamiento, de búsqueda, de encaminamiento, adaptativos y estáticos, probabilísticos, cotidianos, heurísticos, de escalada, voraces, deterministas y no deterministas, recursivos, de programación dinámica, de fuerza bruta, aleatorios, “divide y conquista” y de series de Fibonacci, entre otros (Cormen et al., 2009; Skiena, 2011). Muchos de estos admiten a su vez subdivisiones o clasificaciones más específicas. Este es el tema, en general, del cruce entre computación, lógica y matemática.
Por su parte, los problemas decidibles se articulan, grosso modo, como los problemas P versus NP (Goldreich, 2010). Cabe decir que la idea básica es que los problemas P son aquellos que pueden abordarse y resolverse en un tiempo polinomial. Por su parte, los problemas NP son los que para su comprensión y resolución demandan un tiempo no-polinomial. En los desarrollos de esta clase de problemas, ha habido un proceso de refinamiento y al mismo tiempo de complicación ulterior que ha dado lugar a los problemas NP duros (hard np problems), espacios llamados de P y NP espacios, y otros aspectos contiguos.
En cualquier caso, lo importante estriba en el reconocimiento explícito de que, en el marco de la computación, la lógica y la complejidad, los problemas se caracterizan como complejos en correspondencia con la propia complejidad computacional; esto es, según el tiempo y recursos necesarios para comprender y resolver un problema.
Ahora bien, en la ciencia moderna los problemas se comprendían y resolvían gracias a dos herramientas fundamentales, a saber: el cálculo –integral y diferencial– y la estadística. Aquel conduce ulteriormente a las ecuaciones diferenciales de primer orden y de segundo orden, y la estadística, por su parte, da lugar a numerosas estrategias de distribución entre las cuales cabe distinguir las distribuciones normales, exponenciales, binomiales, chi cuadrado, de Poisson, de Bernouilli y otras. De manera clásica, el cálculo y la estadística medían dos sistemas básicos del mundo: la masa o materia y la energía.
Masa, en efecto, es el concepto que desarrolla el siglo XVIII para explicar la realidad y el universo. Por su parte, el siglo XIX desarrolla un concepto que explica más y mejor que el de masa: el concepto de energía. Mientras que la materia es un concepto unívoco, la energía es polisémico, pues existen distintos de energía: potencial, cinética, química, magnética, gravitatoria y otras.
Pues bien, el siglo XX desarrolla un concepto aún mejor que el de masa o el de energía, que los comprende a ambos, pero que logra explicar el mundo, la realidad y el universo de manera aún mejor. Se trata del concepto de información.
La historia del concepto de información es apasionante (Gleick, 2012; Isaacson, 2014). Comprende, en sus capítulos más recientes, desde los trabajos de Ada Loveloce, Charles Babbage y Alan Turing, hasta llegar a nuestros días. Algunas de las dimensiones que al mismo tiempo la constituyen y la catapultan son la computación, la lógica, la física cuántica, internet.
De manera directa y puntual hay que decir que la información es un concepto físico, pero que no es tangencial o material (Landauer, 2008). Y bastante a la manera misma de la energía, es un flujo, un proceso, y no un estado, que sí es lo que caracteriza a la masa o materia. De suerte que la primera clave que surge en relación con la salud es que la salud es un proceso. En contraste, cabe decir que la enfermedad sí es un estado, como adecuadamente lo establece la clínica (“el estado del paciente”, precisamente por ser eso: “paciente”).
Es preciso decir, sin embargo, que no existe una definición de información; ni siquiera una buena definición de esta. Información es un concepto que se define relacionalmente, y no con base en un único centro o nodo de referencia. A continuación intentaré una caracterización de la información.
El concepto emerge originariamente en el siglo XX, gracias al famoso artículo de Shannon (1949); luego siguió el prefacio y el artículo publicado por Weaver en Scientific American, en el que resalta los problemas técnicos, semánticos y de influencias en el texto de Shannon (Weaver, 1949). Como se afirma en este texto, surge una importante teoría “basada en el carácter estadístico del lenguaje. En ella, el concepto de entropía se halla estrechamente vinculado con el concepto de información”.
Como se observa sin dificultad, la información es el concepto empleado para medir la entropía, más exactamente la entropía de Shannon; es esta relación la que funda la teoría de la información. De manera precisa, en el marco del pensamiento de Shannon, la entropía hace referencia al contenido de información de un mensaje. En términos elementales, la información es una medida de distribución, o también una cantidad, a saber: la cantidad de bits reunidos en un mensaje.
Aquí, sin embargo, no pretendo hacer la historia acerca de la teoría de la información ni tampoco acerca de las diferentes comprensiones de la entropía1. Por el contrario, mi interés se concentra en entender la salud en términos de información. En consecuencia es fundamental tener en cuenta que, bien entendida, la información en el universo solo puede crecer, aumentar. Así, la información coincide con la evolución misma del universo. Pero, de acuerdo con Vedral (2010), es la compresión de la información lo que resulta verdaderamente determinante.
Una segunda clave referencial de la información es que esta es relativa siempre a un contexto (Auletta, 2011). No existe información sin un contexto, y es este el que le confiere significado a la información. Es el contexto el que permite entender los contenidos, las articulaciones y el sentido de la información, de tal suerte que el cambio de un contexto modifica por completo la información generada, procesada o recibida. De manera puntual, la información expresa la relación entre eventos posibles.
En cualquier caso, es importante atender al hecho de que la información depende de su procesamiento. No existe información que no sea procesada, y el procesamiento de la información es, con seguridad, la instancia más importante de ese proceso, abierto, inacabado o incompleto, y en permanente transformación.
En otras palabras, para decirlo en lenguaje computacional, los datos son procesados, y el resultado es la creación de un tipo de conocimiento determinado. De esta suerte, no existe información antes del procesamiento ni tampoco después, sino tan solo gracias a, y durante, el procesamiento. Esta es una idea difícil con consecuencias impredecibles sobre la cual volveremos en la tercera sección. Mientras tanto, debe quedar claro que la información es información procesada, y que el procesamiento puede adecuadamente ser entendido como metabolización: esto es, la transformación de una información en otra; la transformación de datos en conocimiento; la transformación de vida en más vida, como se prefiera; tres expresiones diferentes para designar una misma idea.
La esfera en la cual se estudia la información es la teoría de la información. La razón por la que información es un problema de alta complejidad estriba en el hecho de que existe más de una teoría de la información. Específicamente, cabe distinguir la teoría de la información de Shannon, y, antes que él, la teoría de la información de Kolmogorov –y el posterior desarrollo del teorema KAM (Kolmogorov, Arnold, Moser)–, la teoría de N. Wiener –de corte cibernético–, la teoría del propio Alan Turing –con el desarrollo de la máquina de Turing (en rigor, las diferentes MT)–, los desarrollos de la misma teoría por parte de Rolf Landauer, todos los desarrollos y discusiones acerca de la inteligencia artificial y de la vida artificial, e incluso la teoría semiótica de la información, sin dejar de mencionar, al lado de esta, la biosemiótica. Ulteriormente, cabe mencionar, asimismo, la teoría del procesamiento de la información (information processing theory), conjuntamente con los temas y problemas relacionados con el entrelazamiento (cuántico). No en última instancia, la mejor comprensión acerca de la información es la información cuántica o la teoría cuántica de la información. Es un panorama verdaderamente complejo, pero sugestivo. Huelga decir que cada una de estas teorías introduce un matiz o una luz diferente. Así, las cosas resultan más complicadas de lo que parece.
Los campos de aplicación, incidencia y desarrollo son prácticamente innumerables, de tal suerte que, sin ambages, puede decirse que la información es el mejor concepto para comprender, explicar y relacionarse con el mundo, el universo y la realidad hoy en día. Sencillamente, es imposible una comprensión del mundo en su totalidad o de algunos de los aspectos o planos de la realidad al margen de la teoría de la información.
A partir del abanico que precede, es posible sin embargo sostener sin ambages que la información de un sistema designa una cierta cantidad –medida en términos de bits o, mucho mejor, de qubits–, pero que, análogamente a la energía, ni se crea ni se destruye, solo se transforma. La transformación de la información es el proceso mismo mediante el cual los fenómenos y sistemas del mundo se hacen inteligibles, y a través de la cual la evolución misma tiene lugar. Con una advertencia: la evolución en absoluto es un proceso lineal.
Así las cosas, la información puede ser entendida como un flujo o proceso de transformación incesante, abierto en la entrada y abierto en la salida, cuya mayor o mejor dinámica consiste en el procesamiento, y a través del cual se hace evidente la inteligibilidad (es decir la cuantificación) de un determinado sistema, comportamiento o fenómeno. Pensar información, por tanto, es tanto pensar en relaciones como en contextos, en flujos y en absoluto en estados. Si cabe, no existe un estado de la información; existe un estado determinado de los datos. Pero una vez que estos son procesados, la información se asume como un conjunto de conjuntos esencialmente dinámicos y no-lineales. Nunca podremos saber con certeza lo que resulta de una información determinada. Solo podemos establecer sus probabilidades. Así las cosas, información es un fenómeno esencialmente estadístico, esto es, probabilístico. Solo que la estadística de la información es la estadística misma de un sistema complejo. Es decir, tiene lugar en la forma de leyes de potencia y, por consiguiente, de grados de libertad. Ampliamos estas dos ideas a continuación.