Entropía y reversibilidad
Enviado por perdo01 • 8 de Octubre de 2012 • Informe • 501 Palabras (3 Páginas) • 842 Visitas
En termodinámica, la entropía (simbolizada como S) es una magnitud física que permite, mediante cálculo, determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850;1 2 y Ludwig Boltzmann, quien encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.3
Contenido
1 Evidencias
2 Ecuaciones
2.1 Significado
3 Cero absoluto
4 Entropía y reversibilidad
5 Historia de la entropía
6 Interpretación estadística de la entropía
6.1 Entropía y desorden
6.2 Entropía como creadora de orden
6.3 Relación de la entropía con la teoría de la información
6.4 La entropía como flecha del tiempo
7 Véase también
8 Referencias
9 Enlaces externos
Evidencias
Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
La función termodinámica entropía es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad.
La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento
...