Decía en el anterior artículo de esta serie que, en este, que la concluye, analizaría por qué un sistema emergente teleodinámico puede explicar la aparición de una forma especial de potencia causal normativa, basada en una valoración o evaluación de algo aún no sucedido y que probablemente no sucederá.
Sin embargo, para dar ese paso hacia la «yoidad», la sensitividad y la conciencia, Deacon, en la obra que vengo comentando, explora previamente una ampliación o reformulación de conceptos esenciales como los de información y trabajo, desde la perspectiva de sistemas dinámicos emergentes. A partir precisamente de ese momento, la obra se vuelve altamente especulativa, brillante y fructífera. Deacon, aunque haya quien piense otra cosa (quizás él mismo), no ha escrito un libro de filosofía. Al menos yo no lo creo así. Ha intentado formular un esbozo de hipótesis científica que pueda desarrollarse y falsarse. Sus aproximaciones en la búsqueda de una explicación de lo singular de la vida (y de su producto más refinado, la conciencia) le han exigido un aparato teórico, pero todo él es susceptible de ser desmontado en cuanto cualquiera de sus partes no se conforme a lo que está bien establecido en el conocimiento científico actual. En gran medida, lo que hace es introducir un punto de vista, estructurado sobre principios de la termodinámica, la energía, la información y la vida, y construido sobre algunas ideas nucleares: que los seres vivos son productos dinámicos emergentes refinados por selección natural; que han alcanzado un nivel en el que es elemento esencial, formal, la autopreservación y la generación de mecanismos para obtenerla; y que esos mecanismos, en consecuencia, mediante la captura de ligaduras y su amplificación, han generado una potencia causal nueva derivada de las posibilidades ausentes, de tal naturaleza que son capaces de reordenar la materia y provocar la aparición de aquello que, en otro caso, sería tan astronómicamente improbable que podríamos calificarlo como imposible.
Es un tour de force de tal entidad que es comprensible que algunas de esas especulaciones puedan resultar menos convincentes. En cierto sentido, así pasa con su proyecto de construcción de una teoría general del trabajo que incluya formas de trabajo morfodinámico y teleodinámico. Tras leer esa parte de la obra en varias ocasiones, no termino de comprender la necesidad de ir más allá del concepto usual de trabajo, salvo que busque (y no parece que sea así) un posible atajo metafórico en la descripción de la creciente complejidad de las fuerzas que permiten el nacimiento y el mantenimiento de los sistemas dinámicos emergentes. En mi opinión, esa «teoría general del trabajo» no sería sino una reformulación de lo que ya hemos analizado en los anteriores artículos, pero visto desde el punto de vista de su «coste» y no de su probabilidad: las ligaduras no solo permitirían la aparición de una realidad enormemente improbable sino que la facilitarían al ir capturando y clausurando caminos construidos sobre caminos previos que concentrarían el esfuerzo de maneras especialmente eficientes.
Cuestión distinta es su análisis del concepto de información. No podemos hablar con sentido (qué paradoja) acerca de si lo entencional es o no un epifenómeno, sin examinar el concepto usual de información frente a su concepción más técnica y preguntarnos si esta última es completa. Tratamos con la información como si tuviese sustancia, como si pudiera adquirirse, acumularse y perderse. En cierto sentido, hacemos como los físicos del XIX que creían que la energía tenía una realidad sustancial a la que llegaron, en alguna de sus formulaciones, a dar nombre (así el calórico), cuando en realidad es una abstracción de un proceso. En el caso de la información esta visión reduccionista es mayor: lo más importante no es ni el sustrato físico ni su forma, como veremos. El pecado ha sido sustituir un concepto equívoco, vulgar, de información por un concepto técnico que solo responde a un aspecto parcial: el de la capacidad de un canal para transmitirla.
Cuando Claude Shannon encontró que la medida de la cantidad de información que puede transmitirse utilizando un canal obedecía a leyes muy similares a las de la termodinámica, creó el concepto de entropía informacional. De manera sencilla, la medida de la información depende de la probabilidad o improbabilidad de recibir un mensaje concreto (considerando la probabilidad de todas las señales que podrían ser enviadas). La entropía informacional es una medida lógica, no aumenta espontáneamente, como consecuencia de una tendencia natural, por lo que muchos autores consideran desafortunado el uso del término. Sin embargo, existen relaciones entre ambas entropías derivadas del hecho de que los canales de información también están sujetos a degradación. Cuando se emite una señal la entropía «shannoniana» nos habla de su probabilidad abstracta (y esa es su medida); la entropía termodinámica del sistema nos señala cuán probable es que la señal se degrade.
Teniendo en cuenta lo anterior, ¿es esto suficiente para considerar completo el concepto de información, incluso hasta el punto de que se haya extendido una especie de idea new age que considera que existe un equivalente entre la ordenación de la materia y la información o incluso que materia e información son lo mismo? Lo cierto es que a Shannon le daba igual lo que significase aquello que se transmitía. Él era ingeniero y estaba —y aquí hay de nuevo una analogía con los Carnot y los Clausius— preocupado por cuestiones prácticas como los límites de un canal de información y cómo medirlo; pero esto deja fuera cuestiones esenciales. Así, por ejemplo, el hecho de que la información se base en una reducción de la improbabilidad implica necesariamente la existencia de un proceso físico que reduce la entropía termodinámica de la señal que le sirve de sustrato. No puede haber información sin un trabajo previo, es decir, sin la imposición de una ligadura por una influencia externa. Esa influencia es significativa en la medida en que, como consecuencia de ella, se produce una diferencia respecto a lo que esperamos. Deacon utiliza un ejemplo excelente para explicarlo: el descubrimiento por Penzias y Wilson de la radiación de fondo originada en el big bang. Como lo que captaron era equivalente a un ruido indiferenciado, aplicando la medida «shannoniana» la información transmitida sería nula; sin embargo, su análisis y la exclusión de fuentes locales como origen de ese ruido dieron lugar a una información sorprendente, a la que pronto los amigos de lo espiritual llamaron fotografía de Dios.
Al salirnos de la medida de la cantidad de información adquirimos una perspectiva más amplia, en la que factores que podrían disminuirla (como la redundancia de señales) son percibidos de otra forma porque en realidad lo que hacen es aumentar su fiabilidad. Más aún, visto desde fuera, resulta obvia la necesidad de que el emisor y el receptor compartan información redundante para que nueva información sea transmisible con sentido. Son las ligaduras —que, como vimos en anteriores artículos, no están en el medio aunque sean intrínsecas a él— las que tienen un potencial de transmitir información, pues muestran la probabilidad de que ese medio se altere por una influencia exterior. Y esa simple posibilidad ya es en sí misma informativa (imaginemos un medio que no cambia, cuando nuestra expectativa es que sí cambie). Deacon llama la atención en este punto sobre una elegante definición de información dada por Gregory Bateson: una diferencia que crea diferencia, pero entendiendo esta no solo como la capacidad de influir y realizar un trabajo, sino en el sentido añadido de que ese trabajo obedezca a una finalidad, algo solo posible cuando hablamos de procesos teleodinámicos. La información se imbrica así en procesos que organizan formas de realizar trabajos capaces de generar ligaduras que realicen otros trabajos. Y precisamente porque esto es así es por lo que esos primeros procesos triunfan transitoriamente frente al ubicuo segundo principio de la termodinámica: sin el éxito (por encima de un cierto umbral) en la imposición de ligaduras capaces de realizar un trabajo (es decir, sin el éxito en la correcta interpretación de la información disponible) el organismo (o la máquina diseñada) dejan de ser capaces de imponer ligaduras extrínsecas.
Llegamos a un punto paradójico: que las ligaduras nazcan de procesos concretos no limita su capacidad futura de que allí donde se imponen puedan servir como canal de comunicación de tipos muy variados de información; sin embargo, y a la vez, la información concreta transmisible está limitada por su posible interpretación. Solo la información interpretable está disponible. La capacidad «shannoniana» es ideal: en un sistema real, el límite de lo que puede hacerse con la información viene impuesto por aquella que es realmente utilizable; y en cada transmisión una parte de la información se pierde. Solo hay una manera de aumentar la capacidad de utilizar esa información: que el propio proceso dinámico la mejore. Esto es algo que puede lograrse creando nuevos canales de información o profundizando y mejorando los que ya se posee mediante un proceso de detección de errores basado en la formulación de hipótesis y su contraste. La evolución darwiniana es, en la práctica, un proceso de esta naturaleza: los genotipos y fenotipos disponibles se contrastan con el medio y el éxito reproductivo de algunos de ellos reduce la entropía potencial, proporcionando información sobre las ligaduras heredadas y las condiciones ambientales presentes, en la medida en que influyen en la dinámica del organismo. Más aún, este proceso es el que permite convertir lo que hoy es ruido en información. Lo importante es recordar que el éxito no se basa en un diseño previo, sino que es lo que resulta del residuo sistémico que triunfa frente a linajes competidores. Por esta razón los organismos están abiertos a lo que Jay Gould denominó exaptación, es decir a la evolución funcional de alguna de sus adaptaciones previas.
De lo anterior no hay que deducir que el motor de la evolución sea la información. La evolución simplemente sucede, permitiendo que la información (entendida en un sentido relacional, como información sobre algo) esté disponible para los organismos. La evolución sí nos habla de lo que falló, pero nos dice muy poco de los detalles generativos del organismo y de sus descendientes. Esto es lógico: a la selección natural le da igual cómo se construye el organismo que triunfa. Sin embargo, su funcionamiento es vital, entre otras razones porque los organismos tienen una existencia concreta en la que pelean por los recursos disponibles. Hay una dislocación entre la función y su sustrato que permite que se incorporen, como polizones, rasgos incidentales que pueden resultar decisivos en su futuro linaje. Si solo algunos aspectos de una adaptación (que es resultado de una modificación de ligaduras) son precisos para realizar una función, el hecho de que las ligaduras se refieran a posibilidades no realizadas es lo que permite que minimicemos el sustrato físico que la realiza. La evolución se convierte en un proceso en el que se van generando, transmitiendo y modificando ligaduras que permiten la generación de sistemas dinámicos que pueden cumplir determinados requerimientos, pero que, sobre todo, son potencialmente capaces de realizar muchos otros aún no presentes. Sin embargo, esos detalles sí son precisos para explicar las máquinas biológicas, ya que estas no pueden definirse de forma general (como sucede con la función), sino que han de existir en la realidad, venciendo la degradación termodinámica. El proceso evolutivo solo es posible con organismos que funcionen, lo que introduce una restricción muy importante que, a la vez, es la causa esencial de su éxito, ya que las modificaciones se producirán en variedades que ya han demostrado su potencial a la hora de mantenerse y reproducirse. La dinámica emergente se configura así como un filtro positivo (que solo admite aquellos organismos que puedan funcionar) y la selección natural como un filtro negativo (que da prevalencia a aquellos más eficaces a la hora de acaparar recursos). Ese filtro positivo no puede, en consecuencia, explicarse por la selección darwiniana (y esto es al menos indudable en el caso del primer organismo, prerrequisito de la selección natural).
Lo que Deacon afirma es que la captura de ligaduras que se produce en los procesos dinámicos emergentes y su mantenimiento en niveles dinámicos superiores explica que no se produzca una degradación constante que impida una construcción de organismos cada vez más complejos. Un ejemplo es la información genética. El ADN no es nada sin el organismo que es capaz de interpretarlo (y no excluye esto el que los hombres pudiéramos ser capaces de crear un ente mecánico que lo hiciera, ya que esa máquina tendría un diseñador humano). La transmisión de la plantilla fijada en los genes es una adaptación más, especialmente exitosa. Como puede observarse, Deacon está muy lejos de las tesis de Dawkins, que sitúa al replicador en el propio gen. Más aún, formula una hipótesis de autógeno sin plantilla (bien ADN, bien ARN) del que podría decirse que efectúa una interpretación normativa de información. Tal sería un autógeno que se debilitase por la unión a él de moléculas de sustrato (las que permiten su reproducción), de forma que la presencia de las mismas aumentase la probabilidad de esa reproducción. La unión de esas moléculas sería el signo y la idoneidad del entorno sería el objeto de esa información. El autógeno así constituido «adquiriría» información sobre su entorno aumentando su capacidad de duplicarse y reconstituirse. La cristalización de esos procesos sería posterior. Deacon plantea una hipótesis sobre su aparición (similar a otras propuestas también por Lynn Margulis y Freeman Dyson): como alguna de las moléculas que forman parte del ADN y ARN tienen también una función como transportadores de energía, su presencia facilitaría la catálisis de los autógenos. Esas moléculas, polimerizadas, serían un reservorio energético que se activaría por la exposición al agua en el momento de ruptura del autógeno. Esta polimerización podría crear sesgos que favoreciesen procesos catalíticos (normalmente por simple proximidad) a modo de plantilla que se iría refinando. No entraré en más detalles para no hacer este último artículo más largo de lo que ya es; lo importante es comprender cómo esos procesos de retención de ligaduras que surgen conforme a principios de probabilidad van abriendo paso a un aumento de las probabilidades de que se exploren formas más complejas de estructura dinámica.
Con esto llegamos casi al fin. Los tres últimos capítulos de la obra de Deacon se refieren al yo, a la sensitividad y a la conciencia. El yo y la conciencia no son lo mismo. La conciencia sería un caso especial y altamente sofisticado del yo; sería un yo subjetivo. El planteamiento es, en resumidas cuentas, el siguiente: los organismos son yoes porque están organizados en torno a su subsistencia y replicación y esto los hace cualitativamente diferentes de cualquier otro ente que exista en la naturaleza. Esa «yoidad» sería la consecuencia de ser procesos teleodinámicos y, por tanto, cerrados. Cada uno de los procesos incorporados en los niveles emergentes mediante la “congelación” de ligaduras contribuye al mantenimiento del proceso en su integridad, y sin la existencia de ese proceso dinámico no surgirían los procesos o funciones parciales. Y esto es evidente en el caso de los organismos pluricelulares (hechos en cierto sentido de yoes previos) en los que cada célula está incompleta si no forma parte de un proceso más amplio común a todas ellas. Cada incorporación (como sucedió con las mitocondrias en las células eucariotas) a un proceso superior implica una pérdida de autonomía. En un sentido básico, habría un yo vegetativo del que surgiría un yo subjetivo, como consecuencia de la evolución del cerebro, el órgano que soporta las funciones del organismo en su totalidad.
Para ello, al margen de funciones automáticas, el organismo terminó incorporando una función que permitía generar mundos virtuales que explorar, prediciendo las consecuencias futuras de las influencias del entorno. La «yoidad» se secuestraba como proceso teleodinámico, incorporándose a un nivel superior en el que aquella terminaba apareciendo también como entorno. Las hipótesis de Deacon en este punto son altamente sugerentes. La idea de que el yo es un proceso y de que la conciencia es una forma especial de ese proceso implica que esta última vaya surgiendo y creándose de forma continuada mediante una diferenciación ascendente. De nuevo resulta capital el concepto de clausura teleodinámica. Somos organismos con capacidad agente porque esa capacidad de generar mundos virtuales nos permite cambiar la realidad de forma que constantemente nuestro éxito refuerce esa misma capacidad y nuestro fracaso la disminuya. Cuanto más eficaz es esa capacidad de predicción y de adecuación de nuestro comportamiento a fines, más éxito tiene el organismo en preservarse. Ese es el origen de la potencia causal del cerebro humano.
En este punto, Deacon muestra una de sus ideas más atrayentes, relacionada con la vieja discusión sobre la realidad o no de los conceptos generales. Una forma general, una idea, puede no tener una existencia material, pero eso no impide que pueda determinarse negativamente (como ya se explicaba en un artículo anterior) como aquello que resulta de una limitación de caminos posibles, es decir, mediante la imposición de una ligadura. Así consideradas, las ideas no son un simple epifenómeno, sino el mecanismo resultante del proceso evolutivo que utilizan los organismos encefalizados para ajustar su comportamiento al entorno. Las ideas, las representaciones, los mundos virtuales, renuncian a contener todos los detalles que exigiría una descripción completa de un análogo real, pero, al servir al mantenimiento del organismo y su éxito reproductivo, se convierten en el motor que produce cambios en la realidad circundante. El propio yo subjetivo es uno de esos productos virtuales. Esto supone la superación del dualismo cartesiano.
En un artículo de 1950, Alan Turing planteó un test que, de forma simplificada, se basaba en la idea de que, si no podemos distinguir un resultado producido por un ser humano como consecuencia de un input, del que realizaría un aparato mecánico, ambos procesos (llamémosles mentales) serían funcionalmente idénticos. La cuestión es si este aparato sería sensible. John Searle propuso un famoso experimento mental conocido como «habitación china». Un hombre que no sabe chino se encuentra en una habitación en la que recibe textos escritos en ese idioma que compara con otros que aparecen en una base de datos, de forma que esta le indica qué textos debe enviar fuera como respuesta. Para un observador externo que sí sepa chino, el hombre de la habitación da respuestas adecuadas; sin embargo, el hombre de la habitación no entiende nada de lo que aparece en los textos. Comprendemos que existe una manera consciente y sensible de efectuar la tarea y otra inconsciente e insensible. Ambas tareas podrían describirse como inteligentes, pero solo habría intencionalidad en aquella en la que existe conciencia. La sensitividad, en su forma más elevada, sería consecuencia de la capacidad de crear mundos virtuales como requisito para adaptar el entorno.
Deacon finaliza su obra planteando una hipótesis general sobre la conciencia como proceso teleodinámico, en la que expone ideas como la de que la representación mental es resultado de dinámicas atractoras, regularidades que se imponen sobre una especie de mar de fondo, lo que implicaría que cualquier producto mental precise de un cierto tiempo y pueda encontrar resistencia, ya que ha de imponerse a otros que pueden ir produciéndose simultáneamente. Los borradores de representaciones serían constantes, un producto ortógrado de la propia actividad neuronal. Esa actividad permanente estaría presta a concentrarse en dinámicas atractoras concretas, mediante un aumento metabólico que podría ser resultado de una influencia externa. Sin embargo, se produciría una inercia, una cierta disociación entre el aporte energético y el producto cognitivo. Esa resistencia explicaría la emoción. La pregunta final sería: ¿dónde se interpreta ese contenido mental?
Los cerebros humanos forman parte de organismos que no solo tienen una tendencia teleológica, sino que son capaces de representársela. El cerebro es un yo que genera una reproducción teleodinámica de sí mismo, un falso homúnculo que situar a los mandos. La subjetividad no estaría situada en ningún sustrato, sino que emergería a cada momento de algo que se encuentra ausente: las posibilidades no realizadas.
Es hora de finalizar. Estos artículos solo son una aproximación superficial e incompleta de los conceptos e ideas que se expresan en la extraordinaria obra que he venido comentando. Les recomiendo vivamente que se dirijan al original; se darán cuenta de que hay mucho más de lo que he sido capaz de esbozar.
Volviendo al principio de estos artículos, les diré que Naturaleza incompleta termina con un epígrafe, llamado «valores», que contiene algunas afirmaciones con las que no estoy en absoluto de acuerdo. Sin embargo, sé que si puedo discutirlas es porque puedo. Y no, esa afirmación con la que casi termina este artículo no es banal en absoluto.
Pingback: Magapsine Semanal (8-14/09/2014) - Dronte
Pingback: Tsevan Rabtan: Naturaleza incompleta (y IV) – Conciencia « Jot Down Cultural Magazine | Simbiotica's Blog
El primer párrafo ya prometía. Y después no defraudó casi ni chispa (un poco pillé), pero mis neuronas, que aún tienen pendiente una ITV clástica, se niegan a redoblar sus esfuerzos alegando una innecesaria oscuridad del qué, el cómo y el por qué. Criaturas. Que pasen la revisión y después ya veremos.
¿Prigogine? ¿Damasio?
Bastante duro, como se deduce de los comentarios. Entorno no idóneo.
Saludos.
Pingback: Por la aceptación de los humanos basados en silicio - Revista Mercurio