Читать книгу Dinámica científica y medidas de complejidad - Miguel Fuentes - Страница 5
Оглавление1. Introducción
1.1 Sobre este texto, ¿emergencia?
La noción de proceso emergente relaciona fenómenos que poseen características novedosas, que surgen y dependen de fenómenos más básicos y a su vez, de alguna manera, son independientes de estas interacciones que en principio las generan. Es utilizada extensivamente en áreas muy diversas. Por ejemplo en física: transiciones de fase [Bedau y Humphreys, 2008; Landau y Lifshitz,1994] o el fenómeno conocido como simmetry-breaking [Nicolis, 1995]; en biología, la vida misma constituye un ejemplo que podría catalogarse de fenómeno emergente [Schrödinger, 1944]; la conciencia es otro ejemplo [Paster, 2006]; procesos sociales: como las propiedades que se manifiestan al agruparse individuos y la aparición de fenómenos colectivos [Helbing, 2010; Sayer, 2010]; etcétera. A todas estas discusiones debemos enmarcarlas en el problema que la filosofía identifica como el problema de las propiedades emergentes y que, a pesar de ser ya una temática tradicional, ha cobrado mucho interés en las últimas décadas [Bedau y Humphreys, 2008; Humphreys, 2009] al nutrirse de los avances en cada una de las disciplinas científicas involucradas.
La discusión académica de estas propiedades fue la que me llevó a pensar en la posibilidad de la existencia de una relación, en algunos aspectos muy profunda, entre ellas y la evolución de teorías científicas (aunque las temáticas sean muy distintas). La forma en la cual puede entenderse esto, una vez enunciada, es bastante trivial: fenómeno novedoso, es decir no contemplado en la teoría de manera directa (de otro modo no sería novedoso), por lo tanto la teoría debe ampliarse para abarcar estos fenómenos novedosos; a esto se suma el hecho de que fenómenos emergentes son estudiados por las “ciencias de la complejidad”. Aquí tenemos entonces la semilla de la conexión entre complejidad y la evolución de las teorías científicas.
Veremos que estos temas tienen cada uno cierta profundidad, es lo que estudiaremos a continuación.
Discutiremos las ciencias de la complejidad y cómo medimos la complejidad de un fenómeno en estudio, analizaremos qué se entiende por emergencia y de ese modo llegaremos a discutir la posibilidad de entender la evolución de las teorías científicas desde el punto de vista de un cambio radical en la complejidad de fenómeno.
Pero no nos adelantemos demasiado, comencemos la exposición.
1.2 Sobre la elección de teorías
Antes del siglo XX, existía el consenso de que numerosos grados de libertad en un sistema físico –es decir un sistema sujeto a variaciones dadas por “numerosas posibles causas”– eran una condición necesaria para un comportamiento impredecible en un sistema mecánico (físico-químico) y/o biológico. Consideremos por ejemplo el caso de una pequeña madera que ha caído en una zona turbulenta de un río: su movimiento es aparentemente caótico, debido a las múltiples interacciones con el fluido, las rocas, el aire, etc. Probablemente uno de los más interesantes textos escritos en esta dirección sea el que Pierre-Simon Laplace escribió en el siglo XIX:
Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro, así como el pasado, estarían frente a sus ojos. [Laplace, 1825]
Nótese la explícita visión fuertemente determinista para todos los fenómenos naturales involucrados, donde no hay espacio para la sorpresa, o la “emergencia” de nuevas propiedades, ya que la potencia de cálculo del así llamado “Demonio de Laplace” puede calcular e imaginar todos los resultados futuros. ¿Qué podría así emerger como “nueva” propiedad o característica?
Sin embargo, hoy en día sabemos que sistemas deterministas de extremadamente baja dimensionalidad (veremos incluso que sistemas con un solo parámetro de posible de cambio) pueden mostrar un comportamiento muy complicado, y por otra parte, son el ejemplo típico de sistemas imprevisibles cuando el caos (clásico o cuántico) está presente.
Veamos otros comentarios interesantes que nos permitirán introducir algunas ideas para una futura discusión.
“Es difícil predecir, especialmente el futuro”, discutiblemente atribuido a Niels Bohr [Mencher, 1971]; y: “La próxima gran era del despertar del intelecto humano bien puede producir un método para comprender el contenido cualitativo de las ecuaciones. Hoy no podemos. Hoy no podemos ver que las ecuaciones de flujo de agua contengan cosas tales como la estructura particular de la turbulencia que se ve como si fueran espirales giratorios. Hoy no podemos ver si la ecuación de Schrödinger contiene ranas, compositores musicales o la moral, o si no lo hace” [Feynman et al., 1964], son dos citas interesantes sobre la falta de poder predictivo en diferentes teorías físicas con las que contamos hoy en día.
Niels Bohr, muy probablemente, se inspiró en la física cuántica. La cual, desde este punto de vista, muestra una amplia gama de novedades o, de otra manera, desde el punto de vista de la teoría matemática que modela el sistema: son diferentes y variados en su comportamiento los resultados que un sistema físico puede exhibir. Asimismo la capacidad para el observador de conocer el futuro se reduce a un conjunto dado de probabilidades incluso utilizando la mejor teoría disponible. Recalquemos esto: incluso utilizando la mejor teoría actual para enfrentar problemas cuánticos, los resultados pueden ser un conjunto de probabilidades sobre los sucesos futuros.
Por otro lado, Feynman se refiere a otra parte importante en el contexto formal de ecuaciones que refieren a una teoría dada: el poder de computación y predicción (por parte del científico) de las posibles soluciones de éstas, que refieren a estados que puede explorar un sistema; lo cual creemos que es de extrema importancia a nivel epistemológico, y trata básicamente de la cantidad y calidad de información utilizando métricas (cantidades cuantitativas) provenientes de teoría de información y ciencias de la complejidad. Esto último está fuera del ámbito de la presente exposición pero será abordado con las herramientas que serán detalladas en las próximas secciones en trabajos futuros.
Con respecto a estos comentarios, es importante abordar la cuestión de lo bien que la teoría describe un fenómeno o, en otras palabras, en qué nivel de detalle (el así llamado coarse graining) en donde la predicción de la teoría funciona. Debemos estar satisfechos al decir que la teoría funciona para un fenómeno dado si las regularidades que se quieren estudiar en un nivel dado (coarse graining) son explicadas razonablemente (notar que discutiremos con cierta profundidad esta idea en el presente texto). Veamos un ejemplo de esto último.
En mecánica clásica newtoniana, al nivel de la descripción de las órbitas elípticas –y no obstante el tremendo éxito de la teoría– no podemos dar una respuesta completa y detallada a los patrones más complicados que emergen, por ejemplo, producto de la interacción gravitatoria, como lo es el históricamente famoso caso de la precesión anómala del perihelio de Mercurio.