• Save
Enunciados De Entropia
Upcoming SlideShare
Loading in...5
×
 

Enunciados De Entropia

on

  • 5,515 views

 

Statistics

Views

Total Views
5,515
Views on SlideShare
5,515
Embed Views
0

Actions

Likes
4
Downloads
7
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Enunciados De Entropia Enunciados De Entropia Document Transcript

  • 4770372100869-30196149111
    ESCUELA SUPERIOR POLITECNICA DEL LITORALTERMODINÁMICA ITEMA:II Ley de la TermodinámicaII Ley de la Termodinámica
    La segunda ley de la termodinámica o segundo principio de la termodinámica expresa, en una forma concisa, que " La cantidad de entropía de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo" . Más sencillamente, cuando una parte de un sistema cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un equilibrio térmico.
    En un sentido general, la segunda ley de la termodinámica afirma que las diferencias entre un sistema y sus alrededores tienden a igualarse. Las diferencias de presión, densidad y, particularmente, las diferencias de temperatura tienden a igualarse. Esto significa que un sistema aislado llegará a alcanzar una temperatura uniforme. Una máquina térmica es aquella que provee de trabajo eficaz gracias la diferencia de temperaturas de dos cuerpos. Dado que cualquier máquina termodinámica requiere una diferencia de temperatura, se deriva pues que ningún trabajo útil puede extraerse de un sistema aislado en equilibrio térmico, esto es, requerirá de la alimentación de energía del exterior. La segunda ley se usa a menudo como la razón por la cual no se puede crear una máquina de movimiento perpetuo.
    Los siguientes son algunos procesos compatibles con la primera ley de la termodinámica, pero que se cumplen en un orden gobernado por la segunda ley.
    Cuando dos objetos que están a diferente temperatura se ponen en contacto térmico entre sí, el calor fluye del objeto más cálido al más frío, pero nunca del más frío al más cálido.
    La sal se disuelve espontáneamente en el agua, pero la extracción de la sal del agua requiere alguna influencia externa.
    Cuando se deja caer una pelota de goma al piso, rebota hasta detenerse, pero el proceso inverso nunca ocurre. Todos estos son ejemplos de procesos irreversibles, es decir procesos que ocurren naturalmente en una sola dirección. Ninguno de estos procesos ocurre en el orden temporal opuesto. Si lo hicieran, violarían la segunda ley de la termodinámica. La naturaleza unidireccional de los procesos termodinámicos establece una dirección del tiempo.
    La segunda ley de la termodinámica, que se puede enunciar de diferentes formas equivalentes, tiene muchas aplicaciones prácticas. Desde el punto de vista de la ingeniería, tal vez la más importante es en relación con la eficiencia limitada de las máquinas térmicas. Expresada en forma simple, la segunda ley afirma que no es posible construir una máquina capaz de convertir por completo, de manera continua, la energía térmica en otras formas de energía.
    Entropía
    En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego que significa evolución o transformación.
    El concepto de temperatura está comprendido en la ley cero de la termodinámica y el de energía interna en la primera ley. Tanto la temperatura como la energía interna son funciones de estado. Es decir se pueden utilizar para describir el estado de un sistema. Otra función de estado, relacionada con la segunda ley de la termodinámica, es la función entropía.
    Para un proceso reversible cuasiestático entre dos estados de equilibrio, si dQ es el calor absorbido o liberado por el sistema durante algún intervalo pequeño de la trayectoria, el cambio de entropía, dS, entre dos estados de equilibrio está dado por el calor transferido, dQ, dividido entre la temperatura absoluta T del sistema, en ese intervalo. Es decir:
    La unidad de medida de la entropía en el SI es J/K. Cuando el sistema absorbe calor, dQ es positivo y la entropía aumenta. Cuando el sistema libera calor, dQ es negativo y la entropía disminuye. La ecuación 15.8 no define la entropía, sino el cambio de entropía.
    Al mirar las bellezas de la naturaleza, es fácil reconocer que los eventos de los procesos naturales tienen entre sí un gran factor común. Por ejemplo, el espacio entre los árboles en un bosque es al azar. Si se encuentra un bosque donde todos los árboles están igualmente espaciados, es muy probable que se concluya que el bosque fue plantado por la mano del hombre. De manera similar, las hojas caen al suelo en forma aleatoria. Es muy poco probable encontrar hojas que hayan caído en líneas perfectamente derechas o en montones perfectos. Se pueden expresar estos resultados diciendo que un arreglo desordenado es más probable que uno ordenado, si se dejan actuar las leyes de la naturaleza sin interferencia.
    En mecánica estadística, el comportamiento de una sustancia se describe en términos del comportamiento estadístico de los átomos y moléculas de una sustancia. Uno de los principales resultados de este tratamiento es que:
    “los sistema aislados tienden al desorden y la entropía es una medida de ese desorden”
    Por ejemplo, si todas las moléculas de gas en el aire de una habitación se movieran juntas en filas, este sería un estado muy ordenado, pero el más improbable.
    Si se pudieran ver las moléculas, se observaría que se mueven azarosamente en todas las direcciones, encontrándose unas con otras, cambiando sus velocidades después de chocar, moviéndose unas más rápidas que otras. Este es un estado muy desordenado y el más probable.
    Todos los estados físicos tienden al estado más probable y ese siempre es el que tiende a aumentar el desorden. Debido a que la entropía es una medida del desorden, una forma alternativa de expresar esto, y otra forma de establecer la segunda ley de la termodinámica es:
    “la entropía del Universo crece en todos los proceso naturales”.
    Para calcular el cambio de entropía en un proceso finito, se debe reconocer que en el caso general T no es constante. Si dQ es el calor transferido cuando el sistema se encuentra a una temperatura T, entonces el cambio de entropía en un proceso reversible cualquiera entre un estado inicial y un estado final es:
    El cambio de entropía de un sistema para ir de un estado inicial a otro final tiene el mismo valor para todas las trayectorias que conectan a los estados. Es decir:
    “el cambio en la entropía de un sistema sólo depende de las propiedades de los estados de equilibrio inicial y final”.
    En el caso de un proceso reversible y adiabático, no se transfiere calor entre el sistema y sus alrededores, y por lo tanto, en este caso ΔS = 0. Como no hay cambio en la entropía, un proceso adiabático también se conoce como un proceso isentrópico (de igual entropía).
    En un ciclo de Carnot, la máquina absorbe calor QC de la fuente a alta temperatura TC y libera calor QF la fuente de baja temperatura TF. Entonces, el cambio total de la entropía en un ciclo es:
    El signo negativo en el segundo término representa el hecho de que el calor QF es liberado por el sistema. Como en el ejemplo 15.2 se demostró que para un ciclo de Carnot se cumple la relación:
    Combinando estas dos últimas ecuaciones, se encuentra que el cambio total de entropía para una máquina que opera en un ciclo de Carnot es cero, es decir:
    En general, como la entropía es una función de estado, y sólo depende de las propiedades de cierto estado de equilibrio, se concluye que para cualquier ciclo reversible, ΔS = 0. Otra propiedad importante de la entropía es:
    “la entropía del Universo permanece constante en los procesos reversibles”.
    ENUNCIADO DE CLAUSIUS
    El concepto de entropía fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley:
    “No es posible construir una máquina cíclica, que no tenga otro efecto que transferir calor continuamente de un cuerpo hacia otro, que se encuentre a una temperatura más elevada”.
    En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso.
    En términos sencillos, el calor no puede fluir espontáneamente de un objeto frío a otro cálido. Este enunciado de la segunda ley establece la dirección del flujo de calor entre dos objetos a diferentes temperaturas. El calor sólo fluirá del cuerpo más frío al más cálido si se hace trabajo sobre el sistema.
    Rudolf Emanuel Clausius
    1714520320 (Koszalin, actual Polonia, 1822-Bonn, 1888) Físico alemán. Se doctoró en 1848 por la Universidad de Halle. Fue profesor de física en la Escuela Real de Artillería e Ingeniería de Berlín (1850-1855) y en las universidades de Zurich (1855-1867), Wurzburg (1867) y Bonn (1869).
    Fue uno de los fundadores de la termodinámica. En 1850 enunció el segundo principio de la termodinámica. En 1865 introdujo el término entropía, definido como la capacidad del calor para desarrollar trabajo, y demostró que la entropía del sistema se incrementa en un proceso irreversible.
    PRINCIPIO DE KELVIN-PLANCK
    En términos más o menos sencillos diría lo siguiente:
    “No es posible construir una máquina térmica que, operando en un ciclo, no tenga otro efecto que absorber la energía térmica de una fuente y realizar la misma cantidad de trabajo”.
    Este principio nació del estudio del rendimiento de máquinas y mejoramiento tecnológico de las mismas.
    Si este principio no fuera cierto, se podría hacer funcionar una central térmica tomando el calor del medio ambiente; aparentemente no habría ninguna contradicción, pues el medio ambiente contiene una cierta cantidad de energía interna, pero debemos señalar dos cosas: primero, la segunda ley de la termodinámica no es una consecuencia de la primera, sino una ley independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energía en diferentes procesos, en nuestro caso, en una central térmica. No existe una máquina que utilice energía interna de una sola fuente de calor.
    Figura 1.3Figura 1.2Figura 1.1
    Figura 1.1 Representación esquemática de una máquina térmica.
    Figura 1.2 Representación esquemática de una máquina térmica imposible de construir.
    Figura 1.3 Representación esquemática de un refrigerador.
    Esto es equivalente a afirmar que “es imposible construir una máquina de movimiento perpetuo (móvil perpetuo) de segunda clase”, es decir, una máquina que pudiera violar la segunda ley de la termodinámica. (Una máquina de movimiento perpetuo de primera clase es aquella que puede violar la primera ley de la termodinámica (conservación de la energía), también es imposible construir una máquina de este tipo). La figura 1.2 es un diagrama esquemático de una máquina térmica perfecta imposible de construir.
    Un refrigerador es una máquina térmica que opera en sentido inverso, como se muestra de manera esquemática en la figura 1.3. La máquina absorbe calor QF de la fuente fría y entrega calor QC a la fuente cálida. Esto sólo puede ser posible si se hace trabajo sobre el refrigerador. De la primera ley, se ve que el calor cedido a la fuente caliente debe ser igual a la suma del trabajo realizado y el calor absorbido de la fuente fría. Por lo tanto, se ve que el refrigerador transfiere calor del cuerpo más frío a un cuerpo más cálido (la cocina).
    William Thomson Kelvin
    8255133985(Belfast, 1824 - Netherhall, 1907) Físico y matemático británico. Se le conoce comúnmente como lord Kelvin, y era el segundo hijo de James Thomson, profesor de matemáticas de la Universidad de Glasgow.
    En 1851 presentó a la " Royal Society" de Edimburgo una memoria sobre la teoría dinámica del calor, Dynamical theory of heat; en este famoso texto figura el principio de la disipación de la energía, que, junto con el enunciado equivalente de Clausius, del año anterior, integra la base del segundo principio de la termodinámica. De este modo, Kelvin demostró que las conclusiones de Carnot no se oponían a la obra de Rumford, Robert Mayer y Joule; la teoría dinámica del calor, juntamente con el principio de la conservación de la energía, fue aceptada por todo el mundo.
    Ernst Karl Ludwig Planck
    60325129540 (Kiel, actual Alemania, 1858-Gotinga, Alemania, 1947) Físico alemán. Dotado de una extraordinaria capacidad para disciplinas tan dispares como las artes, las ciencias y las letras, se decantó finalmente por las ciencias puras, y siguió estudios de física en las universidades de Munich y Berlín; en ésta tuvo como profesores a Helmholtz y Kirchhoff. Tras doctorarse por la Universidad de Munich con una tesis acerca del segundo principio de la termodinámica (1879), fue sucesivamente profesor en las universidades de Munich, Kiel (1885) y Berlín (1889), en la última de las cuales sucedió a su antiguo profesor, Kirchhoff. Enunció la ley de Wien (1896) y aplicó el segundo principio de la termodinámica, formulando a su vez la ley de la radiación que lleva su nombre (ley de Planck, 1900).
    A lo largo del año 1900 logró deducir dicha ley de los principios fundamentales de la termodinámica, para lo cual partió de dos suposiciones: por un lado, la teoría de L. Boltzmann, según la cual el segundo principio de la termodinámica tiene carácter estadístico, y por otro, que el cuerpo negro absorbe la energía electromagnética en cantidades indivisibles elementales, a las que dio el nombre de quanta (cuantos).
    ENUNCIADO DE CARNOT
    El ciclo de Carnot, es de gran importancia desde el punto de vista práctico como teórico. Carnot demostró que una máquina térmica que operara en un ciclo ideal reversible entre dos fuentes de calor, sería la máquina más eficiente posible. Una máquina ideal de este tipo, llamada máquina de Carnot, establece un límite superior en la eficiencia de todas las máquinas. Esto significa que el trabajo neto realizado por una sustancia de trabajo llevada a través de un ciclo de Carnot, es el máximo posible para una cantidad dada de calor suministrado a la sustancia de trabajo.
    El teorema de Carnot se enuncia de la siguiente forma:
    “Ninguna máquina térmica real que opera entre dos fuentes de calor, puede ser más eficiente que una máquina de Carnot, operando entre las dos mismas fuentes”.
    Para describir el ciclo de Carnot, se debe suponer que la sustancia que trabaja entre las temperaturas TC y TF es un gas ideal contenido en un cilindro con un émbolo móvil en un extremo. Las paredes del cilindro y del émbolo no son conductores térmicos, por lo que no hay pérdida de calor al ambiente. El ciclo de Carnot es un proceso cíclico reversible que utiliza un gas ideal, que consta de dos procesos isotérmicos y de dos procesos adiabáticos, como se muestra en la figura 1.4, donde se indican los cuatro pasos del ciclo.
    Figura 1.4
    Figura 1.4 Diagrama esquemático del ciclo de Carnot.
    La representación gráfica del ciclo de Carnot en un diagrama PV se muestra en la figura 1.5, donde:
    1. El proceso A-B es una expansión isotérmica a la temperatura TC, donde el gas se pone en contacto térmico con una fuente de calor a esa TC. Durante el proceso, el gas absorbe calor QC de la fuente desde la base del cilindro y realiza trabajo WAB al subir el émbolo.
    2. En el proceso B-C, la base del cilindro se reemplaza por una pared térmicamente no conductora y el gas se expande adiabáticamente. Durante el proceso la temperatura baja de TC a TF y el gas realiza trabajo WBC al elevar el émbolo.
    3. En el proceso C-D el gas se coloca en contacto térmico con una fuente de calor a temperatura TF y se comprime isotérmicamente a una temperatura TF. Durante el proceso, el gas libera calor QF a la fuente y el trabajo realizado sobre el gas por un agente externo es WCD.
    4. En el proceso final D-A, la base del cilindro se reemplaza por una pared térmicamente no conductora y el gas se comprime adiabáticamente. La temperatura del gas aumenta de TF a TC y el trabajo realizado sobre el gas por un agente externo es WDA.
    Figura 1.5
    Figura 1.5 Diagrama PV del ciclo de Carnot.
    Eficiencia de una máquina de Carnot
    El trabajo neto realizado en el proceso cíclico reversible de Carnot es igual al área encerrada por la trayectoria ABCDA en el diagrama PV de la figura 1.5.
    Este trabajo neto es igual al calor neto transferido al sistema, QC – QF, ya que el cambio de energía interna es cero. Además la eficiencia térmica de una máquina está dada por la ecuación:
    Para un ciclo de Carnot, la razón de los calores QF/QC es:
    Por lo tanto, la eficiencia térmica eC de una máquina de Carnot, está dada por la expresión:
    De acuerdo con este resultado, todas las máquinas de Carnot que operen entre las dos mismas temperaturas de manera reversible tienen la misma eficiencia.
    A partir del ciclo de Carnot, se tiene que la eficiencia de cualquier máquina reversible que opere en un ciclo entre dos temperaturas, es mayor que la eficiencia de cualquier máquina irreversible (real) que opere entre las dos mismas temperaturas.
    De acuerdo a este resultado, la eficiencia es cero si TC = TF. La eficiencia aumenta a medida que TF disminuye y aumenta TC. La eficiencia sólo puede ser igual a 100% si TF = 0. No es posible tener una fuente fría con esa temperatura, por lo que la eficiencia es siempre menor que la unidad. En la mayoría de los casos prácticos, la fuente fría se encuentra a temperatura ambiente. Por lo tanto, se intenta aumentar la eficiencia elevando la temperatura de la fuente cálida. Todas las máquinas reales son menos eficientes que una máquina de Carnot, ya que siempre están presentes dificultades prácticas como la fricción y las pérdidas de calor por conducción.
    Nicolas Léonard Sadi Carnot
    17145183515 (París, 1796-id., 1832) Ingeniero y científico francés. Describió el ciclo térmico que lleva su nombre (ciclo de Carnot), a partir del cual se deduciría el segundo principio de la termodinámica.
    En su ensayo publicado en 1824 bajo el título Reflexiones sobre la potencia motriz del fuego, Carnot, sin perderse en detalles técnicos, describió el ciclo energético de una máquina idealizada, cuyo rendimiento depende únicamente de las temperaturas inicial y final de la sustancia que impulsa la máquina (vapor o cualquier otro fluido), con independencia de la naturaleza de la misma.
    CONTRIBUCIÓN DE BOLTZMANN
    Boltzmann uno de los creadores, junto con J.W. Gibbs, de la Mecánica estadística utilizó la teoría cinética de los gases, de acuerdo con la cual la cantidad de calor de un gas depende del movimiento irregular de sus moléculas, para mostrar que las colisiones entre moléculas conducen –según leyes estadísticas- a una igualación media de las diferencias de velocidad que ellas presentan.
    Así, las moléculas más rápidas que el promedio, pierden velocidad con cada choque; mientras las moléculas más lentas que el promedio, ganan velocidad al chocar con las moléculas más rápidas. Es precisamente esta igualación (o sea, desaparición de las diferencias) lo que constituye el estado de equilibrio o estado de máxima entropía.
    En palabras de Prigogine: " Dicho de otro modo, las colisiones entre las partículas aparecen como el mecanismo microscópico que conduce el sistema al equilibrio" .
    Vale decir, el incremento de entropía durante los procesos físicos implica que los conjuntos bien ordenados de moléculas se transforman en conjuntos mal ordenados. El " orden" es aquí sinónimo de " diferencia" o de " heterogeneidad" , lo cual no coincide necesariamente con el concepto de sentido común -o habitual de nuestra vida diaria- de orden. Para dar un ejemplo: si todas las moléculas rápidas –o sea, más rápidas que el promedio- se concentraran en la mitad izquierda del recipiente que las contiene, y las moléculas lentas –o sea, más lentas que el promedio- lo hicieran en su mitad derecha, tendríamos el estado de máximo orden (o el estado más alejado del estado de equilibrio, que es el estado de máximo desorden o entropía). Al sentido común, tal vez, le parecería más ordenado un estado homogéneo, es decir, un estado en que las moléculas están distribuídas en forma uniforme –donde en cualquier subespacio del sistema encontraríamos moléculas con una velocidad fluctuando muy poco alrededor del promedio-. Ésta es, sin embargo, la descripción del estado de equilibrio.
    De acuerdo con Boltzmann, las colisiones al azar entre las moléculas del gas (el llamado " caos molecular" , que no es lo mismo que " el caos dinámico" , del cual hablaremos después) son las responsables de esta igualación de las diferentes velocidades individuales, hasta alcanzar el estado de equilibrio termodinámico –en el cual el espectro de velocidades de las moléculas se distribuyen en una curva normal alrededor de la velocidad promedio (distribución de Maxwell)-. Destaquemos que el estado de equilibrio termodinámico es considerado por la Mecánica estadística como el estado de máxima probabilidad:
    " Para un conjunto macroscópico aislado, el mismo estado neto de equilibrio se predetermina mediante la Termodinámica como aquel en que la entropía llega a un valor máximo, y por medio de la Mecánica estadística como aquel que corresponde a una configuración predominante asociada con el número máximo de microestados" .
     Ahora, ¿por qué se califica al estado de equilibrio como el equivalente al estado de máxima probabilidad de la Mecánica estadística? Porque las distribuciones en el espacio de velocidades cercanas o levemente diferentes a la velocidad promedio -vale decir, la configuración predominante- están en un número inmensamente superior a aquellas velocidades alejadas del promedio (aquellas moléculas o demasiado rápidas o demasiado lentas). La configuración predominante, entonces, constituye el estado más probable del sistema. Y el estado de máxima entropía corresponde así a una homogeneidad estadística. A pesar de ésto, no es imposible que el choque de las moléculas pueda producir resultados que van en contra de esta igualación, lo cual no invalida sin embargo a esta ley probabilística que es la 2ª Ley de la Termodinámica.
    Nada prohíbe que del choque de una molécula rápida con otra molécula lenta, por ejemplo, la molécula rápida se haga más rápida y la molécula lenta se haga más lenta. Este resultado va en contra de la tendencia igualitaria –o sea, la tendencia hacia el incremento de la entropía-, pero se puede producir perfectamente; sólo que por ser su ocurrencia estadísticamente no significativa, se pierde en el resultado de conjunto que siempre representa un incremento de entropía (o desorden).
    Por otra parte, se habla de " estado de equilibrio" porque una vez que la distribución más probable ha sido alcanzada, permanece estacionaria. Pese a las colisiones posteriores que pueden hacer variar las velocidades individuales de las moléculas, la distribución de conjunto permanece invariable.
    Antes de hablar de la neguentropía, debemos aclarar un poco más los conceptos de orden y desorden. Digamos previamente que la entropía es una función general que caracteriza el estado de un sistema -de un gas, por ejemplo- como un todo.
    Si distinguimos entre microestado y macroestado, el primero se refiere a las ordenaciones moleculares (o configuraciones moleculares) y el segundo a la clase de ordenaciones (o microestados) que son macroscópicamente indistinguibles entre sí.
    Y agreguemos que las ordenaciones macroscópicamente indistinguibles poseen el mismo grado de orden. Por tanto, al macroestado correspondiente a un cierto microestado (a una cierta ordenación) se le puede denominar clase del mismo orden.
    De manera que el grado de desorden puede medirse por el número de ordenaciones que componen una clase del mismo orden, es decir, por su extensión, determinando así la configuración predominante. Recíprocamente, un alto grado de orden estará constituido por una clase del mismo orden que sea pequeña en extensión.
    Ésta es la concepción en la cual se basa la interpretación de la entropía como medida del desorden, o como medida inversa del orden, y por la cual la entropía –y con ella la probabilidad- aumenta en función del número de ordenaciones (o microestados) pertenecientes a una clase del mismo orden. Ahora, si en lugar de usar el concepto de entropía como medida inversa del orden de un sistema, utilizamos el concepto de neguentropía, será posible entonces hablar directamente del grado de orden del sistema considerado.
    La pregunta que surge en este momento es: ¿debemos considerar a la neguentropía (o entropía con signo negativo) simplemente como una forma de referirse a la entropía y con lo cual queremos dar a entender que la entropía del sistema considerado disminuyó en lugar de aumentar? Si así fuera, entonces no tendría más importancia que su mero valor terminológico.
    O bien, ¿debemos considerar a la neguentropía como un concepto propio, relacionado pero distinguible del concepto de entropía? La mejor manera de investigar el concepto de neguentropía es oponiéndolo al concepto de entropía, o sea, considerándolo como equivalente a la anti-entropía.
    Luego, si el estado de equilibrio es aquel estado de un sistema en el cual la entropía es máxima, pero es igualmente –como lo señala la Mecánica estadística- el estado más probable, entonces cualquier estado improbable puede ser considerado como un estado neguentrópico.
    Antes de seguir adelante, digamos que aceptamos plenamente el punto de vista que considera a la Mecánica estadística como una explicación de la Termodinámica (en el sentido de ser lógicamente anterior). Y esto es muy importante, pues, como afirma Nash: " La Termodinámica no proporciona ninguna información acerca del porqué los procesos espontáneos se realizan con un aumento de la entropía" .
    Las consecuencias de esta posición probabilista de la Mecánica estadística con respecto a la segunda Ley, ya la hemos señalado; lo haremos ahora explícitamente: La segunda Ley afirma, simplemente, el paso del sistema a configuraciones moleculares cada vez más probables a medida que pase el tiempo -aunque no en un tiempo determinado-. De aquí se desprende, entonces, que los sucesos improbables quedan descartados. Pero mientras que la Termodinámica clásica lo hacía en términos absolutos, la Mecánica estadística deja abierta su posibilidad.
    Ludwig Boltzmann
    17217815(1844-1906) Físico austriaco, nació en Viena y murió en Duino.
    Durante la década de 1870, Boltzmann publicó una serie de ensayos que demostraban que la segunda ley de la termodinámica podría explicarse analizando estadísticamente los movimientos de los átomos.