Interpretación estadística de la entropía
Enviado por andreskrys9 • 15 de Abril de 2013 • Tesina • 3.136 Palabras (13 Páginas) • 736 Visitas
10. ENTROPÍA
1. ENTROPÍA.
2. INTERPRETACIÓN ESTADÍSTICA DE LA ENTROPÍA.
3. RELACIÓN DE LA ENTROPÍA CON LA TEORÍA DE LA INFORMACIÓN.
1. ENTROPÍA.
La función termodinámica entropía, S, se estudia con el Segundo Principio de la Termodinámica. Puede interpretarse como una medida del desorden molecular o de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene una alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad. La entropía es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. En un sentido más amplio se interpreta como la medida de la uniformidad de la energía de un sistema. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.
La entropía coloquialmente puede considerarse como el orden de un sistema, es decir, cuán homogéneo está el sistema. Por ejemplo, si tenemos dos gases diferentes en un recipiente separados por una pared (a igual presión y temperatura) tendremos un sistema de menor entropía que al retirar la pared, donde los dos gases se mezclarán de forma uniforme, consiguiendo dentro del recipiente una mayor homogeneidad que antes de retirar la pared y un aumento de la entropía.
La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay un relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía libre de Gibbs.
Esta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de sólo depende de los estados inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). Por tanto ha de existir una función f(x) del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:
Téngase en cuenta que como el calor no es una función de estado se usa δQ en lugar de dQ.
La entropía física, en su forma clásica, es definida por la ecuación
o más simplemente, cuando no se produce variación de temperatura (proceso isotérmico):
donde S es la entropía, la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin). Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico. El significado de esta ecuación es el siguiente: Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará el grado de entropía. Si la temperatura aumenta, la entropía disminuye. Y viceversa.
Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. Cuando el sistema evoluciona irreversiblemente, la ecuación de Clausius se convierte en una inecuación:
Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresión en una ecuación:
Al termino σp, siempre positivo, se le denomina producción de entropía y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabático, según la ecuación, dS=0 , es decir, el valor de la entropía es constante y además constituye un proceso isoentrópico.
Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema es necesario fijar la entropía del mismo en un estado determinado. El Tercer Principio de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K).
Esta magnitud permite definir la Segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la energía del sistema (Primer Principio de la Termodinámica).
2. INTERPRETACIÓN ESTADÍSTICA DE LA ENTROPÍA
Entre los años 1890 - 1900 el conocido físico austríaco Ludwig Boltzmann y otros, desarrollaron las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía. Según estas ideas, la entropía queda definida por la ecuación:
Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es la función logaritmo neperiano).
La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Boltzmann en el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la poca aceptación de sus teorías en el mundo académico de la época. El significado literal de la ecuación es el siguiente:
La cantidad de entropía de un sistema es proporcional al logaritmo natural de su número de microestados posibles. Ahora bien, su significado final es aún materia de discusión en física teórica, dado el profundo alcance que posee.
3. RELACIÓN DE LA ENTROPÍA CON LA TEORÍA DE LA INFORMACIÓN.
Recientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de la información gracias a la revisión de la física
...