Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

ENTROPIA

TERMODINAMICA

  • Be the first to comment

  • Be the first to like this

ENTROPIA

  1. 1. Entropía Para otrosusosde este término,véase Entropía (desambiguación). En termodinámica,laentropía(simbolizadacomo S) esuna magnitudfísicaque,mediante cálculo,permite determinarlaparte de la energíaque no puede utilizarse para producirtrabajo.Es una funciónde estado de carácter extensivoysuvalor,enun sistema aislado,crece enel transcursode un procesoque se dé de formanatural.La entropíadescribe loirreversiblede lossistemas termodinámicos.Lapalabraentropía procede del griego(ἐντροπία) ysignificaevoluciónotransformación.Fue Rudolf Clausius quienle dio nombre y ladesarrollódurante ladécadade 1850;1 2 y LudwigBoltzmann,quienencontróen 1877 la manerade expresarmatemáticamente esteconcepto,desde el puntode vistade la probabilidad.3 Desigualdad de Clausius La igualdad y la desigualdad anteriores son válidas para el caso de que haya sólo dos focos térmicos. Pero, ¿qué ocurre si tenemos más de dos? Si el sistema evoluciona variando su temperatura en varios pasos, a base de ponerse en contacto con distintos ambientes a diferentes temperaturas, intercambiará calor con cada uno de ellos, y ya no podremos hablar simplemente de Qc y Qf, sino que tendremos una serie de calores Q1, Q2, Q3,… que entran en el sistema desde focos a temperaturas T1, T2, T3,…. En este caso, demostraremos más adelante que la desigualdad correspondiente, conocida como desigualdad de Clausius, es Donde de nuevo, la igualdad corresponde a ciclos reversibles y la desigualdad a irreversibles. Podemos generalizar aun más este resultado: supongamos que la temperatura del ambiente no cambia a saltos, sino que va variando gradualmente de forma continua. Podemos modelar esto como un conjunto infinito de baños térmicos, situados a temperaturas que varían en una cantidad diferencial (por ejemplo, que en un momento está en contacto con un baño a 25.00°C y posteriormente con uno a temperatura 24.99°C). La cantidad de calor que entrará en el sistema desde cada uno de estos baños será una cantidad diferencial dQ. La razón es que si el punto por el que entra el calor ha
  2. 2. alcanzado el equilibrio con un baño a 25.00°C y posteriormente se pone en contacto con uno a temperatura 24.99°C, la cantidad de calor que fluirá como consecuencia de la diferencia de temperaturas será minúscula. La suma de una cantidad infinita de pasos diferenciales no es más que una integral, por lo que la desigualdad de Clausius se escribe para un proceso continuo como Donde la igualdad corresponde a ciclos reversibles y la desigualdad a irreversibles. ENTROPIA Y SUS CAMBIOS ENTROPÍA La entropía describe lo irreversible de los sistemas termodinámicos. En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, logrando al final una temperatura uniforme. Sin embargo, el proceso inverso, el trozo caliente calentándose y el trozo frío enfriándose es muy improbable a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía. La función termodinámica entropía es central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia
  3. 3. natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad. La entropía, coloquialmente, puede considerarse como el desorden de un sistema, es decir, cuán homogéneo está el sistema. Un ejemplo doméstico, sería el de lanzar un vaso de cristal al suelo, este tenderá a romperse y esparcirse mientras que jamás conseguiremos que lanzando trozos de cristal se forme un vaso. Otro ejemplo domestico: Tenemos dos envases de un litro de capacidad conteniendo, respectivamente, pintura blanca y pintura negra. Con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y mezclamos. Luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca y mezclamos. Repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra. La entropía del conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo). La variación de entropía nos muestra la variación del orden molecular ocurrido en una reacción química. Si el incremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre la entropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs. Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta. Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema es necesario fijar la entropía del mismo en un estado determinado. La Tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K).
  4. 4. Proceso adiabático En termodinámica se designa como proceso adiabático a aquel en el cual el sistema termodinámico (generalmente, un fluido que realiza un trabajo) no intercambia calor con su entorno. Un proceso adiabático que es además reversible se conoce como proceso isotrópico. El extremo opuesto, en el que tiene lugar la máxima transferencia de calor, causando que la temperatura permanezca constante, se denomina proceso isotérmico. El término adiabático hace referencia a volúmenes que impiden la transferencia de calor con el entorno. Una pared aislada se aproxima bastante a un límite adiabático. Otro ejemplo es la temperatura adiabática de llama, que es la temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el entorno. En climatización los procesos de humectación (aporte de vapor de agua) son adiabáticos, puesto que no hay transferencia de calor, a pesar que se consiga variar la temperatura del aire y su humedad relativa. El calentamiento y enfriamiento adiabático son procesos que comúnmente ocurren debido al cambio en la presión de un gas. Esto puede ser cuantificado usando la ley de los gases ideales. En otras palabras se considera proceso adiabático a un sistema especial en el cual no se pierde ni tampoco se gana energía calorífica. Esto viene definido según la primera ley de termodinámica describiendo que Q=0 Si se relaciona el tema del proceso adiabático con las ondas, se debe tener en cuenta que el proceso o carácter adiabático solo se produce en las ondas longitudinales

×