Archivo de la etiqueta: teoría de la información

Simetría, a veces, mejor rota

En este blog hemos hablado en alguna ocasión de la importancia de las simetrías.  Las simetrías de las leyes físicas son fundamentales por muchos motivos, por ejemplo:

  1. Nos ayudan a encontrar cantidades conservadas como la energía, el momento, la carga eléctrica, etc.
  2. Definen las interacciones, es decir, la forma en la que los sistemas interactúan entre si viene determinada por razones de simetría frente a algunas transformaciones admitidas de los objetos matemáticos con los que representamos las magnitudes físicas de interés.

Pero aún más interesante, si cabe, es que las simetría no solo es útil y fructífera cuando están presentes, hay muchas ocasiones en las que cuando una determinada simetría se rompe crea nuevos fenómenos físicos.  Hay muchos ejemplos, desde la obtención de masas por parte de algunas partículas según el mecanismo Higgs hasta el fenómeno de superconductividad, hay toda una plétora de fenómenos físicos que se pueden asociar a roturas de simetrías (y a las transiciones de fases asociadas).

Sin embargo, si miramos a nuestro alrededor no solo en física es importante hablar de simetría o de rotura de simetrías.  Estos conceptos posiblemente sean de los más profusamente empleados en ciencia y muchas de las preguntas abiertas en la actualidad están asociadas a simetrías y sus roturas.  En esta entrada discutiremos brevemente acerca de este hecho y de los campos, no propiamente de la física, en los que las cuestiones relativas a la simetría o su rotura son fundamentales.  No será una entrada exhaustiva, solo comentaré las cosas que me resultan curiosas y sorprendentes. El único objetivo es que, por si alguien no había caído, la simetría es importante más allá de la física y que tenerla presente siempre ayuda a la hora de encontrar, definir y solucionar problemas.

Sigue leyendo

Permíteme que te informe

Gracias a una interesante conversación twittera con @ramoneeza he decido a escribir una entrada a la que tenía ganas desde hace tiempo. Vamos a ver qué es la información y su relación con la entropía.

El hombre clave aquí es un tal Claude Shannon, que fue quien introdujo el concepto matemático de información.

Claude Shannon

En esta entrada veremos cómo se relaciona la entropía (definición de Boltzmann-Gibbs) con este concepto de información.  Lo que ha de quedar claro es que esta información de Shannon no es una característica física de los sistemas sino una medida de «lo sorprendente» que es un suceso.

Sería interesante repasar lo que se ha hablado aquí de entropía.  Recomiendo una breve lectura de:

Tan llevada y tan traída, hablemos de entropía

Ahí encontraréis una discusión elemental de qué es la entropía según el punto de vista físico.

Sigue leyendo