Viene de aquí
Tiempo atrás hablé un poco del asunto del libre albedrío a raíz de un artículo de Jerry A. Coyne. Básicamente defendía que me parece absolutamente ingenua y autocontradictoria la idea de que dada una entrada (un input) en nuestra mente solo cabe un resultado y que, por tanto, no existe una conciencia que nos permita escoger. Las consecuencias de esta tesis son tan absurdas, considerando, no lo que sentimos, sino la ubicuidad de las leyes de la física, y la complejidad de lo que hay y de lo que falta, que en la práctica solo una visión infantilmente mecanicista es compatible con aquellas. En estos artículos me moveré en el terreno previo: el de lo real, el de las causas de lo que sucede y la aparición de lo absolutamente improbable, para terminar con una hipótesis sobre ese fenómeno tan difícil de explicar que llamamos conciencia.
Espero que tras estos artículos se animen a leer Naturaleza incompleta, la obra de Terrence W. Deacon. No porque resulte absolutamente satisfactoria —algo además imposible—, sino porque los asuntos de que trata y la aproximación a los mismos que propone merecen el esfuerzo. Aclaro que se trata de una obra de lectura difícil. En parte esto es responsabilidad del autor, que no ha sido capaz de simplificar algunas explicaciones (algo que creo era posible), pero en su mayor parte la dificultad es intrínseca.
La ciencia trata de lo material, de lo que está ahí. Sus éxitos avalan esta estrategia. Asume que solo aquello con características físicas definidas —masa, carga, momento…— tiene incidencia causal. Sin embargo, hay dominios «difíciles». La propia ciencia es un producto que carece de las cualidades —o mejor dicho, de las cantidades— de lo material. Sucede lo mismo con todo aquello a lo que atribuimos cualidades referidas a algo, al menos aparentemente, «ausente» en el mundo material, como las de valor, función, propósito o significado. Están ausentes y, sin embargo, la mayoría de nosotros cree y la totalidad de nosotros actúa como si tuvieran alguna forma de existencia e influyeran en lo que hacemos. Por decirlo de otra forma, todo lo que nos representamos es o un espejismo causal, un epifenómeno, o algo diferente de aquello material en que supuestamente se encarna, como lo demuestra el que una configuración idéntica podría significar algo completamente diferente y que podemos representar lo mismo a través de «formas» distintas de lo real.
Hasta hace muy poco tiempo, las explicaciones intencionales, teleológicas, prevalecían y la potencia causal de la conciencia se imponía. Todo lo atribuíamos a algún tipo de yo superpoderoso, a un dios que modela las cosas conforme a un diseño espiritual. La filosofía, primero, y la ciencia, más tarde, fueron lentamente venciendo a esos sujetos más allá del tiempo e introduciendo explicaciones que iban excluyendo la necesidad de su existencia en cada vez más parcelas. El último golpe, en el dominio de la evolución de la vida y de sus productos (entre ellos la mente que se conoce), lo dio Darwin, al postular una explicación invertida: el resultado de la evolución no era querido ni diseñado por nadie, simplemente se preservaba, entre cantidades ingentes de combinaciones aleatorias. El punto fuerte de partida sería el siguiente: las leyes de la física informan lo que hay —el Universo— desde el primer momento, por lo que toda causa —que ha de ser de naturaleza física— está disponible y no cabe aludir a fenómenos ausentes o representados como fuente o mejor dicho motor de «arrastre». Lo que hay ahora no sería más que una —algunos dirían inevitable— de las posibles formas de barajar lo real. Curiosamente, estas explicaciones introducen conceptos metafóricos portadores de «quintacolumnismos», como cuando Dawkins habla del «relojero ciego» o se alude a que somos máquinas sin «alma». La máquina es el peor ejemplo posible: las partes y el todo se diseñan para lograr algo y presuponen una mente que piensa. El organismo, sin embargo, no es producto de una suma de partes, sino un todo dinámico evolutivo. La metáfora se usa para escenificar un mundo aparentemente duro y frío, en el que nuestros anhelos y valores son cuentos infantiles, pero su elección es desafortunada. No podemos ser máquinas, porque no hay relojero. Y si no somos robots con un programa diseñado para hacer algo, hay que preguntarse qué somos y más aún, por qué sí somos capaces de diseñar máquinas y programas para lograr fines. Y hacerlo además sin cartas marcadas, sin pedir el comodín de una caja negra explicativa, de un dualismo de nuevo cuño, en el que la adecuación a un fin se dé por sentada, evitándonos el problema, como si en vez de ciencia hiciéramos ciencia ficción y considerásemos que el amor forma parte de la urdimbre del Universo al modo de Dan Simmons en su saga Hyperion.
Para fijar su postura, el autor va introduciendo neologismos que en la mayor parte de las ocasiones están justificados. Es importante comprender su significado para no perderse en alguno de los niveles ascendentes que van apareciendo. Uno básico es «entencional»: lo usa para referirse a todo aquello construido u organizado para la consecución de algo que no es intrínseco al fenómeno en cuestión, a todo lo que se completa con una actividad dirigida. Es muy importante porque agrupa no solo los fenómenos que relacionamos con la conciencia, sino todos aquellos procesos vitales que se explican por su valor para la supervivencia y la copia, situados en el nivel más bajo de organización dinámica de un cierto tipo específico, el capaz de introducir un mecanismo causal orientado a un fin.
El autor recuerda cómo el análisis del mecanicismo causal dominante ejecutó a tres de las cuatro causas aristotélicas, manteniendo solo la causa eficiente. La causa material sería redundante, pues se identifica con lo real, mientras que la formal y la teleológica serían simples descripciones «a posteriori». Sin embargo, versiones mejoradas de los conceptos de causa formal y final podrían servir para describir la evolución «normal» y «anormal» de la realidad: la causa formal explicaría la evolución natural («ortógrada» la denomina el autor) de la materia en niveles micro y macroscópicos conforme a principios tan poderosos como el segundo de la termodinámica, mientras que la causa final volvería a entrar de la mano de una cierta geometría de lo material, centrada en su parte negativa, y consagrada en formas dinámicas emergentes que transforman la evolución ortógrada de sus partes en movimientos «contrágrados». Ya veremos esto en mayor profundidad.
Otro problema filosófico de los de toda la vida que se recupera en el libro, animándolo con un nuevo contenido, es el de los universales; es decir, el problema del realismo frente al nominalismo, o por decirlo de una forma simplificada, el de si los modelos representados son reales o se trata de simples generalizaciones a partir de las similitudes útiles, descriptivas, de los únicos objetos con existencia real: los objetos individuales. Curiosamente, todo el pensamiento científico (con la excepción de algún «exaltado» —permítanme la coña— como Penrose) ha terminado considerado anatema la idea del realismo, a pesar de que el propósito general que puede obtenerse mediante programas dispares sea tan obvio y se encuentre presente en cualquier aproximación que utilice conceptos como el de información y función. Resulta, en suma, sintomático, que las supuestas metáforas epifenoménicas que deberían ser residuos didácticos terminen ocupando, en algunas disciplinas, la mayor parte de las reflexiones y logros concretos. Esto puede ser síntoma de alguna falla fundamental.
La apuesta del autor se basa en dos pilares: no hay que buscar nuevas leyes físicas para explicar lo que hay, por improbable que resulte, pero sí hay que postular la aparición de formas de causalidad basadas en una restricción de lo posible. La riqueza del mundo y, en particular, de la vida y de ese fenómeno majestuoso que llamamos conciencia (y sin el que no estaríamos discutiendo de nada y yo no escribiría en Jot Down un artículo que con seguridad les está encantando) es producto de una explosión del orden que se origina en una aristocrática menor libertad. Al leer el libro inmediatamente pensé en una desviación de ese principio a algo conocido: las restricciones formales (piensen en las reglas de un soneto o el modelo clásico de desarrollo temático) no obstaculizan la creatividad. Más aún, pese a lo que se haya sostenido en ocasiones, no hay arte informe, sin reglas, sin un canon. Otra cosa es que una obra de arte sea la primera de un canon nuevo, pero nunca se identificará como tal sino por referencia a «algo».
Esto, que parece muy esotérico a primera vista, tiene, sin embargo, como iremos viendo, una plasmación muy concreta (aunque como punto de partida). No obstante, antes de entrar en ella es preciso comprender por qué, para Terrence Deacon, los modelos mecanicistas tradicionales no eluden el «problema del homúnculo». Me explicaré. Tradicionalmente se achacaba a muchas explicaciones del funcionamiento de la mente el que, llegados a un punto determinado, terminaran incluyendo un homúnculo, una especie de hombrecillo o de agente encubierto dentro de nuestra mente que decide y valora nuestras respuestas tras recibir los estímulos del exterior. Naturalmente, que aparezcan homúnculos o fantasmas de homúnculos en muchas explicaciones no es sino un síntoma de que existe algo que tenemos que desentrañar. Lo interesante, sin embargo, es que algunas denuncias del problema lo reproducen a niveles inferiores y solo parecen una solución mientras no se analizan en detalle. En cierto sentido resulta inevitable. La alternativa (por ejemplo, la hipótesis conductista) de convertir la mente en un sencillo mecanismo de entrada y salida, al margen de su simplismo, renunciaba a explicar por qué creemos que existe una conciencia y que actuamos conforme a ella.
Como decía, el homúnculo no es solo una mala solución, es también un síntoma de un problema que debe ser resuelto. Dice Deacon:
Nos han enseñado que Galileo y Newton mataron al homúnculo aristotélico del primer motor, que Darwin mató al homúnculo del relojero divino, que Alan Turing mató al homúnculo del pensamiento incorpóreo y que Watson y Crick mataron al homúnculo del élan vital, la esencia invisible de la vida. Aun así, el espectro de los presupuestos homunculares proyecta su sombra incluso sobre las empresas científicas más sofisticadas tecnológicamente y con un enfoque más materialista. Está esperando en la puerta del «Big Bang» cosmológico. Se esconde tras los conceptos biológicos de información, señal, diseño y función. Y ciega el acceso al funcionamiento de la consciencia.
No se trata de hablar de aquellas versiones, como el diseño inteligente, que se introducen como explicación completa de las preguntas sin respuesta (eso simplemente no es ciencia), sino de considerar aquellas que funcionan como zonas de sombra que dejamos para más tarde, al modo de fortalezas en el camino de una invasión. La cuestión no es si esto es legítimo, que lo es, sino si es admisible cuando las zonas de sombra se refieren a elementos basales de nuestras hipótesis. Estos son los homúnculos peligrosos para la empresa científica y, a veces, pasan inadvertidos. En cuanto a lo que nos ocupa, esto sucede cada vez que se da un salto injustificado de lo entencional a lo no entencional, basado en un reduccionismo y fragmentación que no explican suficientemente dicho salto. O, viéndolo desde el otro lado del espejo, cuando no se explica sino nominativamente, usando el truco de lo que los juristas llamamos predeterminación del fallo, cómo relaciones materiales son capaces de organizarse, ateniéndonos a esas leyes de la física y la química que consideramos el todo de nuestra visión mecanicista del mundo, para producir un sistema dinámico orientado a un fin.
No quiero alargar excesivamente este primer artículo, por lo que no entraré en detalles, pero ejemplos muy agudos de estas explicaciones homunculares son expuestos por Deacon en relación a la idea del ADN como plano o programa (en particular como programa completo), de la gramática universal innata postulada por Chomsky y sus seguidores, o del ejemplo del mentalés propuesto por Pinker en El Instinto del lenguaje. Son formas de confusión del mapa con el territorio, que dejan de lado elementos esenciales en el desarrollo del organismo y del lenguaje, y que exigen, al final del camino, un homúnculo traductor que permita la analogía con el modelo computacional. Por desgracia, ¡sí hay un homúnculo que explica la computación que se produce en un ordenador! Ese homúnculo es el diseñador humano. Pero ¿dónde está el diseñador protohumano dentro de nuestro cerebro o en qué consiste? Esas preguntas han recibido respuestas extravagantes, como las pampsiquistas, que ven en todo retazos de conciencia potencial, y otras que gozan de gran popularidad, como las que, dando la vuelta a los procesos termodinámicos, encontraron medidas objetivas de información que podían servir para convertir configuraciones físicas en una suerte de computadores, del que la mente solo sería un ejemplo especialmente complejo. El problema de estas tesis es que usan términos que tienen un contenido muy específico en su campo científico, pero de forma ambigua. Las configuraciones posibles y sus mediciones estadísticas como forma de calcular la capacidad de transmitir información no explican suficientemente el salto desde la información bruta a su interpretación coherente. Ahí es donde, en una teoría computacional de la mente, aparece nuevamente el insidioso homúnculo. Y lo mismo sucede con las teorías que dividen a nuestro duende en porciones cada vez más pequeñas y simplificadas, en miniprocesos que se concretan en elecciones, produciendo un fenómeno metafóricamente equiparable a lo que sucede con el colapso de la función de onda en el mundo cuántico. Lo que acaece entencionalmente en esos microprocesos realizados, elecciones entre caminos posibles, sería el equivalente del mundo físico clásico y la «tendencia» realizada sería la manifestación mínima (ya no reducible) que explicaría, simplemente por su acumulación organizativa, la capacidad causal de los seres vivos, en particular de los más encefalizados. Esta explicación plantea, sin embargo, problemas muy serios al no distinguir entre el fenómeno de la vida y otras organizaciones (algunas de enorme complejidad) de naturaleza inorgánica a las que ya me referiré en próximos artículos y a los que, incluso potencialmente, resulta muy difícil atribuir cualquier tipo de propósito.
En cualquier caso, ahí se mantiene, incólume, el centro de lo problemático cuando nos referimos a los seres vivos y la mente. Si estamos en lo cierto, hubo un universo en el que cualquier cuestión entencional resultaba superflua y las explicaciones mecanicistas —con los límites que veremos en otros artículos- bastaban. Ahora nos encontramos con actos (nuestros y de todos los seres vivos) que influyen en lo que sucede, basados en fines representados, y esas explicaciones ya no parecen suficientes. Sin embargo, la posición dominante en el mundo científico es que no existe el problema teórico, sino que es la vulgarización de nuestro insuficiente conocimiento. La idea es que una comprensión profunda de la estructura y funcionamiento de nuestro cerebro eliminarán el problema al demostrar que cualquier propósito es simple consecuencia de una compleja computación reducible a una máquina de Turing. El autor recurre metafóricamente al golem del folclore judío y a los zombis, pero lo hace no para dedicarse a la lírica de los seres inanimados (aunque tenga algún arrebato ocasional), sino para plantear el problema en toda su crudeza: ¿por qué hay espejismos y fantasmas de agentes en nuestras mentes si no hay función que los requiera? ¿Por qué el golem evolucionó para convertirse en el Roy de Blade Runner y pelear por vivir más allá de los requerimientos de su programa diseñado por el dios de la biomecánica? Además, la teoría computacional de la mente olvida que, por mucho que deban existir procesos físicos para que una máquina real procese un algoritmo, el algoritmo es «algo» diferente de esos procesos en que se encarna. Y ese algo más está fuera del software y el hardware. Solo el homúnculo sabe que el algoritmo se refiere a algo fuera de su proceso físico, corresponde a algo con un propósito, algo que además no puede expandir su capacidad de conocer más allá de su programa por su propia limitación intrínseca. La tesis del autor es que la expansión solo puede entenderse como consecuencia del cambio evolutivo, que impone desde fuera una solución gordiana al análogo problema de la no detención de las máquinas de Turing. Así, si somos capaces de comprender más porque nuestra maquinaria se transforma, eso quiere decir que la relación de correspondencia con aquello a que se refiere el algoritmo no puede ser un producto de la propia computación, sino algo diferente, que nace desde el ruido y el caos, liberándose del diseñador de la máquina y de su programa.
Por hoy creo que es suficiente. Empezar a vislumbrar en qué consiste ese algo diferente será objeto de próximos artículos.
‘Un algo diferente, que nace del ruido y del caos…’
Un mero fenómeno emergente. Un equivalente mental a los spandrels de Gould.
Gracias por el artículo. Tengo el libro pendiente, y ahora lo cogeré con más ganas.
Aprovecho para recomendarte la serie sobre libre albedrío que estoy publicando en Mapping Ignorance
http://mappingignorance.org/author/jesus-zamora/
«Las consecuencias de esta tesis son tan absurdas, considerando, no lo que sentimos, sino la ubicuidad de las leyes de la física, y la complejidad de lo que hay y de lo que falta, que en la práctica solo una visión infantilmente mecanicista es compatible con aquellas»
Estoy en contra del mecanicismo, pero no veo por dónde meter ahí el argumento de la ubicuidad. El que las leyes físicas se cumplan en todas partes no lo refuta.
Búsquese una novia.
A veces pienso que el universo es como el tetris, con orden pero sin ningún sentido. No obstante, el problema de los orígenes sigue ahí y este debate es fascinante. Espero impaciente el siguiente artículo. Enhorabuena Tsevan.
¿Porqué tiene que haber un homúnculo (el diseñador humano) en el modelo computacional de la mente? Tampoco hay un homúnculo diseñador en las alas de las aves y sí que lo hay en las alas de un avión.
La hipótesis del homúnculo es tan ridícula como la hipótesis de un dios.
Y seguirá siendo ridícula por mucho que se argumente en base a la diferencia entre el algoritmo y los procesos que éste ocasiona, lo cual por cierto no es sino el trasunto del argumento del motor y/o las causas.
Se ve que el tal Tsevan es más religioso de lo que parece. Y que como antaño ocurrió con las ideas innatas es incapaz de asumir los descubrimientos científicos que suprimen el libre albedrío en la conciencia.
Pingback: Tsevan Rabtan: Naturaleza incompleta (III) – Emergencia
Pingback: Sobre elecciones | Las cuatro esquinas del mundo
La idea del mentalés no es de Pinker sino de Fodor (menudo dolor de estómago le daría a Jerry tamaño plagio).
Haces inferencias demasiado simplistas para el tema que abordas. Por hoy sólo comento lo que comento.
Pingback: Magapsine Semanal (8-14/09/2014) - Dronte