Investigación: Sistemas Complejos

Modificado el 4 de Diciembre de 2016

(Extraído parcialmente de: Red Científica, de Sergio Alejandro Moriello)

Introducción

Un sistema es un conjunto de elementos o partes que interaccionan entre sí a fin de alcanzar un objetivo concreto. De aquí se desprenden dos implicaciones fundamentales:

Primero, que existe una influencia mutua entre sus elementos, de forma que el cambio experimentado en uno de ellos repercute y afecta inevitablemente al resto.

Y segundo, que una serie de elementos reunidos (es decir, un conjunto), que no persigue un propósito común (un objetivo), de ninguna manera constituye un sistema. Sin embargo, a diferencia de la primera de las características, se debe indicar que ésta es subjetiva.

En consecuencia, para que el comportamiento de un sistema esté adecuadamente descrito, es necesario conocer, además de sus elementos, las interacciones o relaciones entre ellos. Pero no sólo eso: también se requiere saber sus estados (los valores instantáneos de todos los elementos) y sus transiciones (los cambios dinámicos de esos estados). En otras palabras, se deben describir tanto la estructura (lo que es el sistema) como la función (lo que hace el sistema).

Un sistema es algo más (y algo menos) que la simple suma de sus elementos constitutivos. Por un lado, emergen propiedades nuevas que no pueden atribuirse a ninguno de ellos; y, por otra parte, se reprimen o inhiben algunas de sus propiedades intrínsecas. Existen varios ejemplos de ello. Los cardúmenes, los enjambres y las manadas se comportan -como conjunto- de manera distinta a como lo hacen sus individuos componentes. Una neurona por sí misma no posee ningún tipo de inteligencia, pero miles de millones de ellas interactuando entre sí pueden originar una mente, algo totalmente diferente. Este comportamiento surge únicamente cuando el sistema se considera como un todo, como algo global y colectivo.

Existe una heterogénea clasificación de los sistemas atendiendo a diferentes persepctivas:

  • Dado que todo sistema se encuentra inmerso en un medio ambiente, en general, éste va a afectar tanto su funcionamiento como su rendimiento. Para medir, en cierta forma, esta influencia o interacción aparece el concepto de permeabilidad. Los sistemas escasamente permeables (es decir, aquellos que no intercambian o intercambian poca materia, energía o información con el entorno) se conocen con el nombre de sistemas cerrados. Por el contrario, los sistemas de permeabilidad alta son los que presentan mucha interacción con el medio ambiente y se denominan sistemas abiertos. Entre estos dos extremos existe toda una gama de diferentes grados de permeabilidad.
  • Asimismo, y dentro de la categoría de sistemas abiertos, están aquellos que son influidos pasivamente por el medio ambiente, llamados no adaptativos, y los que reaccionan y se adaptan al entorno, llamadosadaptativos.
  • Los sistemas también pueden dividirse en dinámicos y estáticos, según modifiquen o no su estado interno a medida que transcurre el tiempo. Un sistema particular que, a pesar de estar inmerso en un entorno cambiante, mantiene su estado interno, se llama homeostático. Los sistemas altamente homeostáticos siguen las transformaciones del contexto a través de ajustes estructurales internos. No obstante, si el sistema no puede acomodarse al "esfuerzo tensional"(estrés) que padecen por parte del medio ambiente -modificando su estructura o su función- puede transformarse o deteriorarse parcial o totalmente, temporal o permanentemente. La resistencia de un sistema al estrés depende tanto de su estructura como de su función.

Sistemas Complejos

Los sistemas complejos se caracterizan fundamentalmente porque su comportamiento es imprevisible. Sin embargo, complejidad no es sinónimo de complicación: este último hace referencia a algo enmarañado, enredado, de difícil comprensión. En realidad, y por el momento, no existe una definición precisa y absolutamente aceptada de lo que es un sistema complejo, pero pueden darse algunas peculiaridades comunes.

  • En primer lugar, está compuesto por una gran cantidad de elementos relativamente idénticos. Por ejemplo, las células en un organismo, o las personas en una sociedad.
  • En segundo lugar, la interacción entre sus elementos es local y origina un comportamiento emergente que no puede explicarse a partir de dichos elementos tomados aisladamente. Un desierto puede contener billones de granos de arena, pero sus interacciones son excesivamente simples comparadas con las que se verifican en las abejas de un enjambre.
  • Por último, es muy difícil predecir su evolución dinámica futura; o sea, es prácticamente imposible vaticinar lo que ocurrirá más allá de un cierto horizonte temporal.

En la naturaleza se pueden encontrar una gran cantidad de ejemplos de sistemas complejos que se extienden desde la física hasta la neurología, desde la economía hasta la biología molecular, desde la sociología hasta las matemáticas. Por ese motivo, esta clase de sistemas no constituye un caso raro ni excepcional sino que se manifiesta en la inmensa mayoría de los fenómenos que se observan a diario. Sin embargo, y a pesar de su gran diversidad y abundancia, se pueden identificar conductas dinámicas genéricas, no importa su naturaleza (física, química, biológica o social); entre ellas, las leyes de crecimiento, la autoorganización y los procesos colectivos emergentes. Como ejemplos de sistemas complejos se pueden mencionar -entre otros- una célula, un cerebro, un organismo, una computadora, un ecosistema, una sociedad de insectos, un sistema inmunológico o una economía de mercado.

La mayoría de los sistemas complejos son inestables, se mantienen delicadamente equilibrados. Cualquier variación mínima entre sus elementos componentes puede modificar, de forma imprevisible, las interrelaciones y, por lo tanto, el comportamiento de todo el sistema. Así, la evolución de esta clase de sistemas se caracteriza por la fluctuación, situación en la que el orden y el desorden se alternan constantemente. Sus estados evolutivos no transcurren a través de procesos continuos y graduales, sino que suceden por medio de reorganizaciones y saltos. Cada nuevo estado es sólo una transición, un período de "reposo entrópico", en palabras del Premio Nobel ruso-belga Ilya Prigogine.

Estos sistemas nunca llegan a un óptimo global, al estado de mínima energía. En general, crecen progresivamente hasta que llegan al límite de su desarrollo potencial. En ese instante, sufren un desorden, una especie de ruptura que induce una fragmentación del orden pre-existente. Pero después, comienzan a surgir regularidades que organizan al sistema de acuerdo con nuevas leyes, produciendo otra clase de desarrollo. Este comportamiento es típico en los sistemas naturales: por ejemplo, el tránsito, en los insectos, del huevo a la larva y de ésta a la crisálida. En consecuencia, la organización de los sistemas complejos se da en diferentes niveles. Las leyes que gobiernan la causalidad de un dado nivel, pueden ser totalmente diferentes a las de un nivel superior.

Auto-organización

El orden y el desorden se necesitan el uno al otro, se producen mutuamente; son conceptos antagónicos, pero, al mismo tiempo, complementarios. En ciertos casos, un poco de desorden posibilita un orden diferente y, a veces, más rico. Así, por ejemplo, un organismo puede seguir viviendo a causa de la muerte de sus células; o una organización se perpetúa gracias a la desvinculación de sus miembros. La variación y el cambio son etapas inevitables e ineludibles por las cuales debe transitar todo sistema complejo para crecer y desarrollarse. Cuando esta transformación se consigue sin que intervengan factores externos al sistema, se denomina "auto-organización.

La auto-organización se erige como parte esencial de cualquier sistema complejo. Es la forma a través de la cual el sistema recupera el equilibrio, modificándose y adaptándose al entorno que lo rodea y contiene. En esta clase de fenómenos es fundamental la idea de niveles. Las interrelaciones entre los elementos de un nivel originan nuevos tipos de elementos en otro nivel, los cuales se comportan de una manera muy diferente. Por ejemplo, entre otros, las moléculas a las macromoléculas, las macromoléculas a las células y las células a los tejidos. De este modo, el sistema auto-organizado se va construyendo como resultado de un orden incremental espacio-temporal que se crea en diferentes niveles, por estratos, uno por encima del otro.

Los sistemas autoorganizados se mantienen dentro del estrecho dominio que oscila entre el orden inmutable y el desorden total, entre la constancia rígida y la turbulencia anárquica. Una condición muy especial, con suficiente orden para poder desarrollar procesos y evitar la extinción pero con una cierta dosis de desorden como para ser capaz de adaptarse a situaciones novedosas y evolucionar. Es lo que se conoce como transiciones de fase, o como lo llama el doctor en Ciencias de la Computación, antropólogo y filósofo estadounidense Christopher Langton: el borde del caos. Es en esta delgada franja en donde se ubican los fenómenos que edifican la vida y las sociedades.

Por último, se puede aclarar que, aunque no es posible analizar matemáticamente la evolución de muchos de estos sistemas, se los puede explorar través de experimentos numéricos (por medios computacionales). Esto se debe a que, desde el punto de vista computacional, son sistemas irreducibles; es decir, la única forma de estudiar su evolución es mediante la observación directa (o sea, permitiendo que evolucionen). Para su estudio, en consecuencia, se emplean potentes sistemas computacionales en donde se simulan sus componentes, sus conexiones y sus interacciones, observándose la dinámica emergente.

Sistemas caóticos

Durante el siglo pasado, los científicos clasificaban a los sistemas según su grado de predictibilidad. Así, un sistema es determinístico cuando su comportamiento inmediato es predecible, determinado, y esprobabilístico (estocástico) cuando no hay certeza de su estado futuro, sólo una probabilidad en su comportamiento. No obstante, esta clasificación ha sufrido severos embates durante el último medio siglo. Por ejemplo, se descubrió que muchos sistemas dinámicos no lineales se comportan -en ciertas condiciones- de forma tan compleja que parecen probabilísticos, aunque, en realidad, son determinísticos. En otras palabras, a pesar de que las reglas -a nivel local- son muy simples, el sistema -a nivel global- puede tener un comportamiento inesperado, no predecible. Se trata de un sistema caótico.

Una de las singularidades que caracterizan a los sistemas caóticos es que dependen sensiblemente de las condiciones iniciales. Un insignificante cambio en las condiciones de partida se amplifica y propaga exponencialmente a lo largo del sistema y es capaz de desencadenar -a futuro- un comportamiento totalmente diferente. Es decir, configuraciones iniciales casi idénticas, sometidas a influencias externas casi iguales, acaban transformándose en configuraciones finales absolutamente distintas. Y es este el motivo por el cual es prácticamente imposible hacer una predicción del estado final de estos sistemas complejos.

Sin embargo, el caos no es más que un desorden solamente en apariencia, tiene muy poco que ver con el azar. Aunque parecen evolucionar de forma aleatoria y errática, estos sistemas tienen en realidad un orden interno subyacente. Por eso, aun cuando son impredecibles, también son determinables. Esto significa que su estado futuro está determinado por su estado actual y obedece estrictas leyes naturales de evolución dinámica. Pero estos sistemas son tan irregulares que jamás repiten su comportamiento pasado, ni siquiera de manera aproximada. Por ejemplo, y aún cuando se conozcan con gran precisión las ecuaciones meteorológicas y se puedan medir las variables críticas (temperatura, humedad, presión, masa y velocidad del viento), es muy difícil predecir con exactitud las variaciones climáticas más allá de un cierto tiempo posterior. Otros sistemas caóticos lo constituyen los fluidos en régimen turbulento, la dinámica de la atmósfera, las reacciones químicas, la propagación de enfermedades infecciosas, los procesos metabólicos de las células, el mercado financiero mundial, los movimientos de grupos animales (cardúmenes o enjambres), la aparición aperiódica de epidemias, la arritmia del corazón, la red neuronal del cerebro humano, etc.

El caos parece formar parte de la estructura misma de la materia y está muy ligado a los fenómenos de auto-organización, ya que el sistema puede saltar espontánea y recurrentemente desde un estado hacia otro de mayor complejidad y organización. Un ejemplo típico es el agua que se desliza a través de una canilla en un goteo desordenado y, súbitamente, forma un chorro ordenado. Estos sistemas se caracterizan por su flexibilidad y adaptación (y, en consecuencia, por su estabilidad), lo cual les permite enfrentar las condiciones cambiantes e impredecibles del entorno. Operan bajo una extensa gama de condiciones, ya que parecen estar formados por una compleja estructura de muchos estados ordenados, aunque normalmente ninguno de ellos se impone sobre los demás (a diferencia de un sistema ordenado, que presenta un único comportamiento). Por lo tanto, se puede controlar su evolución con ínfimas correcciones, a fin de forzar la repetición de ciertas trayectorias. En otras palabras, si se los perturba adecuadamente, se los puede obligar a que tome uno de los muchos posibles comportamientos ordenados.

Fractales y naturaleza

La teoría del caos estudia la evolución dinámica de ciertas magnitudes. Al representar geométricamente el conjunto de sus soluciones, aparecen modelos o patrones que los caracterizan. Existe un comportamiento caótico cuando dichos modelos -a lo largo de extensos períodos de tiempo- oscilan de forma irregular, aperiódica; parecen girar asintóticamente en las inmediaciones de ciertos valores, como si describieran órbitas alrededor de ellos. Estos valores se conocen con el nombre de atractores caóticos,atractores extraños o, simplemente, atractores (debido a que parecen atraer las soluciones hacia ellos) y su particularidad es que presentan propiedades fractales.

Un fractal es una estructura geométrica que tiene dos características principales: la auto-semejanza y la dimensión fraccionaria.

  • La auto-semejanza significa que posee estructura similar cualquiera sea la escala en que se la observa; es decir, a través de sucesivas amplificaciones (diferentes cambios de escala) se repite su forma fundamental (conserva el mismo aspecto).
  • La dimensión fraccionaria mide el grado de irregularidad o de fragmentación de un objeto: una dimensión entre 1 y 2 significa que se comparten las propiedades de una recta y de un plano. No obstante, la fractal no tiene el mismo significado que las dimensiones del tradicional espacio euclidiano: fractales con dimensiones enteras (1 y 2), no se parecen en nada a una línea o a un plano, respectivamente.

En general, las formas encontradas en la naturaleza son ejemplos de fractales: vasos sanguíneos y sus capilares, árboles, vegetales, nubes, montañas, grietas tectónicas, franjas costeras, cauces de ríos, turbulencias de las aguas, copos de nieve, y una gran cantidad de otros objetos difíciles de describir por la geometría convencional. Como se puede apreciar, se trata de formas en perpetuo crecimiento. Por eso, cuando se observa una imagen o una fotografía de un fractal, se lo está viendo en un determinado instante de tiempo, congelado en una etapa precisa de su desarrollo. Y es justamente este concepto de proceso natural de crecimiento o de desarrollo lo que vincula a los fractales con la naturaleza.

Una estructura fractal se puede generar por la repetición infinita de un proceso bien especificado (o sea, está gobernado por reglas determinísticas). Así, la naturaleza es capaz de crear eficazmente infinidad de formas -con diferentes grados de complejidad- únicamente reiterando innumerablemente el mismo proceso. E ínfimas modificaciones en las condiciones iniciales o en los parámetros de ese proceso pueden provocar imprevisibles cambios finales. Es por eso que la mayoría de los procesos caóticos originan estructuras fractales. Y es por eso, también, que muchos fenómenos naturales aparentan tener una enorme complejidad, aunque -en realidad- poseen la misma regularidad geométrica (concepto de auto-semejanza). Sólo así se explica que existan 6.000 millones de seres humanos diferentes, a pesar de que el proceso de gestación sea idéntico, y que una mínima diferencia en el código genético de chimpancés y humanos haya engendrado especies tan distintas. Este proceso también puede esclarecer, en buena medida, cómo la escasa información contenida en una célula germinal es capaz de originar seres tan increíblemente complejos.

El desarrollo de un sistema se verifica al pasar de un estado más general y homogéneo (indiferenciado) a otro más especial y heterogéneo (diferenciado). Esta transición se da gracias a la"especialización" y a la "división del trabajo": progresivamente algunos elementos se encargan de acciones específicas, al tiempo que se observa una subordinación a elementos dominantes (llamadas, a veces, "partes conductoras"). De esta forma, se instala en el sistema un "orden jerárquico" de partes o procesos. Este principio de diferenciación es muy frecuente tanto en biología como en psicología y, aun, en sociología. En el desarrollo embrionario, por ejemplo, las células se van agrupando y subordinando a los llamados"organizadores". En el cerebro también se comprueba una superposición de "estratos neuronales" que adoptan el papel departes conductoras. Algo similar ocurre en el comportamiento social: para poder diferenciarse, un conjunto de personas debe agruparse alrededor de uno o varios líderes.

Redes complejas

Muchos sistemas biológicos, sociales o de comunicación se pueden describir adecuadamente a través de redes complejas cuyos nodos representan individuos u organizaciones, y los enlaces simbolizan las interacciones entre ellos. Una clase importante de redes son aquellas que cumplen con las reglas de un "mundo pequeño", cuya topología exhibe dos rasgos esenciales: todo nodo está fuertemente conectado con muchos de sus vecinos pero débilmente con algunos pocos elementos alejados (fenómeno conocido como apiñamiento, agrupamiento o "clustering") y todo nodo puede conectar a cualquier otro con sólo unos cuantos saltos (en otras palabras, existe una pequeña "distancia" entre ellos) . Esto implica dos cosas: que la información se transfiere muy rápidamente entre dos elementos cualquiera, y que existe un pequeño número de nodos claves por donde circula un gran porcentaje del tráfico total. Son redes de mundo pequeño las conexiones neuronales en algunos gusanos, el patrón de difusión de una epidemia, la estructura de una red de transmisión eléctrica, la navegación a través Internet, las proteínas en una célula humana, los patrones lingüísticos, las redes de colaboración social, las relaciones entre especies de un ecosistema, etc.

Muchas de estas redes de mundo pequeño son también "redes independientes de la escala" (scale-free networks), que se caracterizan por un escaso número de nodos con muchos enlaces (denominados "concentradores" o "hubs") y una enorme cantidad de nodos con muy pocas conexiones . Este tipo de estructura explica por qué algunas redes son generalmente muy estables y robustas (frente a posibles errores aleatorios), pero muy propensas a ocasionales colapsos catastróficos (por posibles ataques maliciosos). En efecto, si se elimina una gran fracción de nodos al azar, la red todavía es capaz de funcionar con normalidad; pero si se quita alguno de los concentradores, el sistema puede sufrir una hecatombe. Es lo que ocurre, por ejemplo, cuando fallece o desaparece el líder de un partido político o de un equipo de fútbol. Esta topología también es capaz de explicar la gran capacidad de crecimiento de estas redes y por qué algo insignificante puede transformarse en un fenómeno de colosales proporciones si encuentra el camino adecuado.

Ahora bien, ¿cómo surge este tipo de orden? Aparentemente, estas redes siguen el mismo patrón de auto-organización de los sistemas complejos: los nuevos nodos agregados tienden a formar conexiones con aquellos que ya están bien conectados (las partes conductoras mencionadas en el apartado anterior). En otras palabras, los nodos no se conectan entre sí al azar, sino que se agrupan o apiñan en torno a los hubs, los nodos más atractivos. Por ejemplo, los nuevos artículos científicos citan a otros ya bien establecidos y las nuevas páginas web se conectan a los buscadores más conocidos. De allí que los hubs también parecen ser los responsables de mantener la cohesión de este tipo de redes e, incluso, de permitirle evolucionar, ya que pequeñas perturbaciones en ellos pueden ocasionar cambios en el funcionamiento de la red. Asimismo, algunos investigadores especulan -es necesario aclarar- que los sistemas naturales evolucionan hacia redes de mundo pequeño, porque tienen una elevada tolerancia a las fallas (la conexión de cualquier pareja de nodos puede establecerse a través de varios caminos alternativos), y hacia redes independientes de la escala, porque utiliza más eficientemente los recursos que las redes aleatorias (resuelve adecuadamente el conflicto entre las necesidades de bajo costo y alto rendimiento).

Aun cuando su funcionamiento puede ser muy diferente entre una red y otra, el hecho de que compartan la misma topología permitiría estudiar las más complejas a partir de las más simples. Así, por ejemplo, si las redes neuronal y genética pertenecieran a la misma categoría genérica, los científicos podrían aprender mucho más sobre el sistema nervioso escudriñando el sistema genético, el cual es relativamente más sencillo. Pero también, quizás, se podrían responder algunas preguntas de difícil respuesta: ¿cuánto depende el funcionamiento de una red de su topología?, ¿cómo mejorar la confiabilidad de estas redes?, ¿cómo diseñar redes que evolucionen de manera estable?

Conclusiones

Las reglas que determinan la dinámica de un sistema complejo suelen ser simples, sin embargo predecir el comportamiento del sistema a largo plazo resulta casi imposible en la mayoría de las ocasiones. Es muy complicado obtener resultados teóricos sobre el modelo. Los científicos suelen utilizar algoritmos para aproximar la solución de estos sistemas, aunque a menudo tales algoritmos son poco eficientes o carecen de un tratamiento riguroso, de modo que la información que proporcionan es muy limitada.

No obstante, en muchos casos la simulación por ordenador es la única forma de obtener progreso en la comprensión del fenómeno, las herramientas de análisis matemático no son suficientes para explicar el modelo en cuestión. La simulación por ordenador también es una forma de experimentar. Los datos y gráficas generados pueden proporcionar claves para entender el problema y ayudan en la búsqueda de resultados teóricos rigurosos. Buscamos intuiciones y comprensión cualitativa sobre el sistema que pueden servir de guía para encontrar pruebas matemáticas.

La relación entre simulación y análisis es un punto a resaltar. Teoría, experimentación y simulación son tres pilares fundamentales de cualquier ciencia moderna.