Inteligencia, entropía, ¿por qué no?


Gracias a José Cuesta de Inercia Creativa (@InerciaCreativa) he leído un artículo en el que, por lo visto, consiguen explicar comportamientos que se pueden considerar ‘inteligentes’ en sistemas físicos elementales.

La verdad es que tras leer el artículo, que ha aparecido en Physical Review Letters y ha levantado polvareda mediática en los medios de habla inglesa, me parece un trabajo que puede tener cierta relevancia a la hora de explicar ciertos comportamientos adaptativos pero que no consigo ver la fundamentación física del mismo. Así pues, como es un modelo chulo y seguro que da que hablar voy a explicar aquí lo que yo he entendido. Como siempre, cualquier aclaración, corrección o comentario serán bienvenidos.

La clave del asunto, la entropía causal

Ya hemos hablado varias veces del concepto de entropía en el blog. La entropía no es más que una medida del número de configuraciones de los componentes microscópicos de un sistema que dan lugar a la misma apariencia macroscópica. A mayor número de configuraciones microscópicas para un macroestado dado, mayor es su entropía.

Los científicos Wissner-Gross y Freer proponen otra forma de entropía. En vez de contar cuantas configuraciones microscópicas tiene un sistema en un macroestado determinado en un instante de tipo fijado, lo que proponen es considerar cuantas configuraciones microscópicas podría tener el sistema en su evolución futura partiendo de una dada. Es decir, en este concepto de entropía no están interesados en los microestados en un tiempo dado sino en los microestados que podría tener el sistema si lo dejamos evolucionar en el tiempo. A esta entropía la han denominado, entropía causal.

En la termodinámica tradicional se nos dice que la entropía es una función de estado, es decir, su valor solo depende del estado inicial y final del sistema sin importar el camino que haya seguido en su evolución. Aquí, en este trabajo, pudiera parecer que la entropía depende de la forma en la que evoluciona el sistema, pero solo lo parece porque en la definición que ellos dan (ecuación 2 del artículo) suman (integran) para todos los posibles caminos en los que evolucionaría el sistema. De esta forma, la información acerca de un camino determinado se pierde.

Cuando uno define esta entropía luego se puede preguntar si esto tendrá algún efecto en la evolución del sistema. Es ya conocido el hecho de que hay fenómenos físicos que están dirigidos por lo que se conoce como fuerzas entrópicas.

Estas fuerzas aparecen como resultado de que un sistema tiene la tendencia a aumentar su entropía. Por ejemplo, son comunes en la física de los polímeros que pierden su configuración lineal para tomar configuraciones más complicadas aumentando así su entropía.

Como nota técnica:  estas fuerzas entrópicas aparecen como el gradiente de la entropía, y algunas parámetros.

¿Qué pasa si calculamos fuerzas entropícas con la entropía causal?

Pues parece que si aplicamos este concepto a sistemas simples aparecen comportamientos sorprendentes.

Partícula en una caja

Si nos disponemos a estudiar una partícula en una caja que la dejamos moverse desde una posición inicial arbitraria, esta tendrá tendencia a ir hacia el centro de la caja y quedarse en sus inmediaciones. ¿Por qué? Pues porque esta es la posición que maximiza los posibles caminos que podría tomar en una evolución futura.

Vemos como si estudiamos solo una partícula esta se queda alrededor del centro de la caja alejada de las paredes. Con esto incrementa su entropía causal, es decir, aumentan los posibles caminos que podría tomar en un futuro.

Un péndulo

Al estudiar un péndulo con esta nueva definición de entropía lo que resulta es que tiene la tendencia a ponerse vertical en contra de lo que ocurre usualmente y estabilizarse en esa posición.

Esto podría ser una posible primera explicación al hecho del por qué los humanos se ‘decidieron’ por ser bípedos, con lo molesto y dificultoso que es.

Más ejemplos

Los autores del artículo han desarrollado un programa – ENTROPICA –  que realiza simulaciones en las que se busca el máximo de entropía causal. Han determinado que los sistemas cooperan, usan herramientas, etc.

Lo mejor de esto es que estos comportamientos pasan simple y únicamente porque así maximizan su entropía causal, según los autores no se le da ninguna orden al programa para que simule de esa manera, no tiene ningún objetivo marcado, las cosas suceden así ‘espontáneamente’.

¿Inteligencia?

En mi opinión este artículo muestra una forma de modelizar la evolución de los sistemas de forma que se consiguen comportamientos que no son usuales en física.  Es cierto que para sistemas abiertos en los que hay flujos de materia, energía e información con el exterior este procedimiento podría ser muy útil.  Pero veo muy difícil que esta idea pueda explicar la aparición del lenguaje, o del pensamiento abstracto o de las obras de literatura o arte en general.  Para mí que más que inteligencia lo que están modelizando es estabilización de fenómenos  en contra de las leyes físicas que se oponen a ese comportamiento (a la gravedad, por ejemplo, no lo agradan mucho los seres bípedos).

Esto no es menospreciar el artículo, de hecho hasta me parece bien en los tiempos que corren que se inflen los títulos y conclusiones porque de algo hay que comer, pero supongo que su interés radicará más en campos como la robótica y la inteligencia artificial.

De todas formas, es un artículo interesante que seguro que levanta mucho interés y genera muchos titulares divertidos.

El artículo

Uno de los autores ha puesto el artículo en su página web de acceso libre:

Causal Entropic Forces

(nótese que en el título no aparece nada de inteligencia 😉 )

Nos seguimos leyendo…

 

8 Respuestas a “Inteligencia, entropía, ¿por qué no?

  1. De hecho la inteligencia es una medida de eficiencia en el reconocimiento y reproducción de patrones de orden dentro de un contexto de aparente caos o entropía. Hablan también de relación entre vida y más entropía en el universo; pues la vida necesita de elementos químicos más allá que hidrógeno y helio (98% materia no oscura del universo), y estos otros elementos se forman como resultado de un proceso entrópico: muerte de estrellas. ¿entropía causal?

    http://sophimania.pe/2013/04/24/variacion-de-ley-de-la-entropia-se-propone-como-explicacion-de-la-inteligencia/sophimania/

  2. ¿La inteligencia es una cuestión entrópica?, ¿sí?. ¿Qué hay más entrópico que un cerebro? El aumento de la complejidad no es una casualidad y tiene como fin el dotar al individuo de una mayor plasticidad y adaptabilidad ante los cambios en su interacción con el medio. Por tento, en la línea del artículo, conviene un cerebro más entrópico capaz de responder con un mayor de estados posibles en un futuro periodicamente comprometedor. Ahora bien, el comportamiento es otra cosa, el comportamiento es la fijación de una o varias de las miles de posibles respuestas (algunas absurdas y otras exitosas) que dicho cerebro entrópico podría generar. El cerebro aporta la potencialidad, y la capacidad adquirida para el análisis previo y la selección natural fijan un comportamiento. La inteligencia es un concepto demasiado amplio para hablar de ella en esos términos. Respóndanme pues ¿Son las hormigas inteligentes? ¿Cuales son las características de lo que denominamos «inteligencia»? Interesante post.

  3. Pingback: Inteligencia, entropía, ¿por qué no? | Juanjo Pina

  4. Pingback: Inteligencia, entropía, ¿por qu&e...

  5. Un pequeño matiz sin mucha importancia: El péndulo al que se refieren en el artículo es un «Péndulo Invertido», un jugetito muy popular entre los aficionados a la robótica para trabajar con equilibrios dinámicos y esas cosas, y que consiste en un carrito con una barra rígida con un peso en su extremo. La barra puede oscilar y su equilibrio se puede controlar moviendo el carrito.

    Por otro lado, y yendo a lo importante, me debo haber saltado algo en el artículo o debo haber entendido algo mal (lo que tampoco sería de extrañar) porque ¿De donde se sacan que su Entropía Causal tienda a maximizarse como lo hace la entropía «tradicional»? No parece que tras el cambio de definición tenga por qué conservar esa propiedad y, en cualquier caso, es algo que habría que argumentar… :$

    • Sí, se me pasó comentar lo del péndulo invertido, pero se ve bien en el vídeo, aquí dejo un enlace wikipédico:

      http://en.wikipedia.org/wiki/Inverted_pendulum

      La gracia de este formalismo es que el péndulo se levanta solo y se mantiene estable solo (o eso dicen).

      Respecto a la definición de entropía, pues, no lo he comprobado, pero supongo que habrán tenido en cuenta las propiedades que se le exige a una función para llamarla entropía, que sea aditiva, positiva y tal… Además la derivan de la entropía/información de camino (creo que es el artículo 8 de las citas) http://arxiv.org/pdf/cond-mat/0005382v3.pdf

      No sé, me parece que las conclusiones son demasiado grandilocuentes pero a mí el trabajo me parece atractivo como modelo matemático para explicar ciertos comportamientos que podrían ser interesantes en algúnos ámbitos. Ya veremos dónde queda todo esto.

  6. Pingback: Inteligencia, entropía, ¿por qu&e...

  7. Pingback: Física | Annotary

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s