¿Qué es la entropía en termodinámica?

¡Probablemente hay tantas “definiciones” de entropía como personas que intentan definirla! Pero hay dos formas muy distintas, pero finalmente consistentes, de hablar sobre la entropía.

Desde un punto de vista estadístico, la entropía es una medida del desorden en el sentido de que todos los sistemas tienden, por sí solos, a ser menos ordenados. Piensa en lo que sucede si pones una gota de tinta en un vaso de agua. Inicialmente, ese vidrio contiene agua con una pequeña gota de tinta. Es un sistema ordenado. A medida que pasa el tiempo, la gota de tinta se vuelve más difusa y se extiende sobre todo el vaso de agua hasta que parece ser solo agua coloreada. Aunque ahora es más uniforme , está menos ordenado en el sentido de que la tinta y el agua ya no están separadas. La entropía de ese sistema ha aumentado. (Y por lo tanto, la entropía del universo ha aumentado).

Desde un punto de vista termodinámico, si dos objetos tienen temperaturas diferentes y se ponen en contacto, la energía térmica fluye desde el calentador de los dos objetos hasta el más frío de los dos hasta que alcanzan una temperatura común. Antes de ponerse en contacto, cuando no hubo transferencia de energía del objeto más cálido al más frío, hubo un estado de orden más alto que después de que se logró el equilibrio térmico en el sentido de que los átomos con una energía promedio más alta estaban contenidos en el objeto más cálido y Los átomos con una energía media más baja estaban contenidos en el objeto más frío. Es decir, hubo una sensación de orden que no existe después de que se logró el equilibrio térmico y la energía promedio por átomo fue la misma en todo el sistema. Decimos que la entropía del sistema ha aumentado como resultado del proceso natural de flujo de calor desde el objeto de temperatura más alta al objeto de temperatura más baja.

Matemáticamente, el cambio en la entropía de un objeto puede expresarse sumando todos los cambios incrementales en este proceso continuo (es decir, integrarse sobre los cambios), siendo cada cambio incremental solo la cantidad incremental de calor que se transfirió dividido por el temperatura a la que ocurrió la transferencia:

Como el calor que fluye hacia el objeto más frío es positivo, la entropía de ese objeto aumenta. Como el calor fluye fuera del objeto más cálido, esa transferencia de calor es negativa y la entropía del objeto más cálido disminuye a medida que se enfría. Por supuesto, la misma cantidad exacta de energía térmica transferida al objeto más frío que el objeto más cálido. Pero la temperatura del objeto más frío siempre es menor que la del objeto más cálido hasta que se alcanza el equilibrio térmico. Entonces, el aumento en la entropía del más frío es mayor que la disminución de la entropía del más cálido, por lo que el cambio total de entropía de los dos objetos combinados es positivo. Es decir, la transferencia de calor de un objeto más cálido a uno más frío siempre da como resultado un aumento neto de la entropía. Y decimos que este proceso aumentó la entropía del sistema y, por lo tanto, del universo.

¿Puede la entropía de un sistema disminuir alguna vez? Sí, por supuesto. Pero requiere hacer un trabajo para hacer que el sistema esté más ordenado. No sucede naturalmente. Y trabajar en un sistema siempre implica otro sistema en el que la entropía aumenta más que la disminución dentro del sistema que se volvió más ordenada.

El principio organizador fundamental es el siguiente: la entropía del universo permanece constante o aumenta. Nunca disminuye.

Mucho antes de Boltzmann, cuando la idea de los átomos no era ampliamente aceptada, se pensaba que el calor era un fluido llamado calórico , que fluía de un cuerpo a alta temperatura a un cuerpo a temperatura más baja.

Desde ese punto de vista, la entropía se definió de la siguiente manera:

ds = [matemáticas] \ delta [/ matemáticas] Q / T

Como una cantidad de calor [matemática] \ delta [/ matemática] Q fluyó en un cuerpo a una temperatura T, condujo a un aumento de la entropía del sistema. Pero la relación anterior solo era cierta si el cambio se realizaba de manera reversible. Para un cambio irreversible, se encontró que lo siguiente es válido:

ds> [matemáticas] \ delta [/ matemáticas] Q / T

ds = [matemáticas] \ delta [/ matemáticas] Q / T + I

El cambio de entropía tiene dos partes que contribuyen a ello:

  1. Transferencia de entropía: se produce en forma de transferencia de calor o transferencia de masa
  2. Generación de entropía debido a irreversibilidades.

La primera parte (transferencia de entropía dada por [math] \ delta [/ math] Q / T), es decir, la transferencia de entropía puede ser positiva, negativa o 0 dependiendo de la dirección del flujo.

La segunda parte, la generación de entropía (I) es siempre distinta de cero y positiva para un sistema que experimenta un proceso en el mundo real. Esta generación de entropía se produce debido a irreversibilidades que tiene muchas fuentes (fricción, turbulencia, etc.).

Para que cualquier proceso ocurra espontáneamente, es una condición necesaria que aumente la entropía del sistema que experimenta el proceso. Si la entropía disminuye, ese proceso no puede ocurrir espontáneamente. Necesita un poco de trabajo / energía para ser bombeado para que el proceso ocurra. Y esto generalmente depende de la transferencia de entropía [matemática] \ delta [/ matemática] Q / T, ya que generalmente es mucho mayor que la entropía generada.

Ahora piense en este escenario:

Estás en una fiesta, en una pequeña habitación llena de gente. Como la sala es pequeña, estará llena de gente y todos se sentirán incómodos. No tienes mucha libertad para moverte y estás restringido. Ahora, de repente, alguien abre una puerta y hay una habitación vecina que tiene mucho espacio. Poco a poco, las personas comienzan a extenderse de manera uniforme en las dos habitaciones, y ahora todos tendrán algo de espacio y serán mucho más felices. Ahora tiene mucha libertad para moverse, básicamente, ahora hay más lugares accesibles para usted.

Puedes relacionar el mismo concepto con la energía. La energía está representada por personas, y la sala está representada por los microestados accesibles a la energía.

¿Qué es un microestado?

Cuando observa la materia no como un continuo, sino como una colección de partículas, podemos definir un microestado. Un “microestado” se refiere a una descripción del sistema que se basa en los estados de cada elemento del sistema. Aplicado a un sistema termodinámico, cada microestado Mi [math] i [/ math] del sistema es un conjunto de posiciones y velocidades que describen la posición y la velocidad de cada partícula. Todos estos microestados se unen para definir los macroestados del sistema, como la presión, la temperatura, etc.

Relacionando esto con el ejemplo, cuando las personas estaban en la habitación pequeña, tenían menos libertad, y cuando la puerta se abría a la otra habitación, tenían más libertad. Lo mismo con la energía en un cuerpo de alta temperatura que entra en contacto con un cuerpo de temperatura más baja. Tiene la posibilidad de disiparse más, por lo que lo hace.

La energía siempre pasará de un estado donde tiene acceso a menos microestados, a un estado donde tiene más microestados. Esto se debe a que cuando tiene más microestados accesibles, se puede organizar de más maneras. Cuando se puede organizar de más maneras, aumenta la probabilidad de encontrarlo en ese estado. Entonces, la única razón para que la energía / átomos / masa fluya, es que tienes una mayor probabilidad de encontrarlo en ese estado disipado que estar agrupado en una esquina.

Cuando tienes un cuerpo de alta temperatura como el objeto 1, tiene mucha energía dentro de él en comparación con el objeto de menor energía 2.

[Imagen cortesía de Google Images]

Ahora, cuando los dos se ponen en contacto, el movimiento aleatorio de las moléculas toma energía en ambas direcciones, de caliente a frío y de frío a calor. Es solo que la transferencia del calor al frío es mucho más que eso del cuerpo frío al caliente. Ahora la energía en el objeto 1 tiene más microestados en el objeto 2 a los que tiene acceso, por lo que fluye allí y se distribuye uniformemente, porque matemáticamente, eso es lo que tiene la mayor probabilidad de ocurrir.

Considere que tiene una caja de diferentes bolas blancas y negras, que luego agita vigorosamente. Cuando lo abres, esperas verlos bien mezclados. ¿Pero por qué? Hay una pequeña probabilidad de que todas las bolas se separen, y todas las bolas blancas se irán a un lado, y todas las bolas negras irán al otro. Sin embargo, la cantidad de formas en que se pueden mezclar es mucho mayor que la cantidad de formas en que se pueden separar. Entonces, la probabilidad de que se mezclen es mucho mayor que si se separan. Entonces esto es lo que ves. Cualquiera que tenga la mayor probabilidad, lo verá como resultado (bolas que se mezclan).

Desde este punto de microestado, Boltzmann dio la siguiente relación para definir la entropía:

S = k * lnW donde W representa los microestados accesibles. Cuantos más microestados estén accesibles, mayor será la entropía.

La entropía nos da una medida de cuánta energía hay en un sistema y qué tan distribuida está.

k es la constante de Boltzmann con un valor de 1.38064852 × 10-23 [matemática] \ frac {kg m ^ 2} {s ^ {2} K} [/ matemática]

[La famosa relación está grabada en su lápida. Lea más sobre esto aquí – Tumba de Boltzmann]

Esta es una idea de lo que es la entropía y por qué las reacciones tienden a ocurrir espontáneamente en una dirección de entropía creciente, simplemente porque es allí donde el sistema tiene la máxima posibilidad de existir.

Editar –

Mire este video de entropía explicado por Steve Mould, es una de las explicaciones más simples y mejores que encontrará:

Vista física de la entropía: –

Físicamente, la entropía es un trastorno de un sistema y sus alrededores.

Básicamente en nivel microscópico, se produce cuando se produce la transferencia de calor porque el calor es una energía cuando se mueve se producen algunos movimientos adicionales, por ejemplo: fricción molecular, vibración molecular, desplazamiento interno de la molécula, momento de giro, energía cinética, etc., que hacen que la pérdida de calor útil, por lo tanto, el calor no se pueda transformar por completo en el trabajo Este movimiento adicional crea caos en el sistema y sus alrededores. Es por eso que algunas veces la entropía se llama la medida del caos.

Para este caos microscópico se produce un nivel macroscópico que se produce debido a algunas irreversibilidades innecesarias, por ejemplo, fricción, expansión sin manchas, mezcla de fluidos, resistencia eléctrica, deformación inelástica de sólidos, reacción química y transferencia de calor innecesaria en diferencia de temperatura finita. Notó que este tipo de pérdida de energía no se puede recuperar, por lo que el sistema y sus alrededores no pueden llegar a su estado inicial sin un trabajo adicional realizado. Por lo tanto, la entropía se llama la medida de irreversibilidades. Por esta causa, el calor no puede transformarse completamente en trabajo

En la vida real, todo tipo de proceso tiene este tipo de pérdida macroscópica y microscópica. Entonces, en realidad, todos y cada uno de los procesos termodinámicos son procesos irreversibles.

Definición matemática desde un punto de vista microscópico (ecuación de Boltzmann): –

Ahora, podemos ver que, cuanto más aumenta la entropía, más el sistema se vuelve caótico o irreversible. Como resultado, el sistema se sale de control. Este hecho de control puede estar relacionado con el aspecto de probabilidad.

Supongamos que dos sistemas A y B están en la misma temperatura T, un sistema A tiene más entropía que B como resultado, el sistema A tiene menos posibilidades (probabilidad) de convertirse en trabajo útil del calor que el sistema B.

Por lo tanto, considere que el valor de la entropía depende de la probabilidad de alcanzar ese microestado, ya que no podemos decir exactamente. Entonces, podemos definir la entropía como una función arbitraria de probabilidad, ya que no sabemos qué es exactamente esa función . Ahora, denotamos Probability Ω, que es el número de todos los microestados posibles.

Por lo tanto, S = f (Ω)

para el sistema A y B, S1 = f (Ω1) y S2 = f (Ω2)

Ahora de la teoría de la probabilidad si dos eventos ocurren simultáneamente entonces

Entonces, si ponemos ambos sistemas juntos, entonces la entropía total es S = S1 + S2

Ahora, probabilidad de llegar a todo el sistema, Ω = Ω 1 * Ω2

Entonces f (Ω) = f (Ω1) + f (Ω2)

=> f (Ω1 * Ω2) = f (Ω1) + f (Ω2)

tomando una diferenciación parcial con respecto a Ω1 y Ω2 obtenemos,

Ω2 * ∂ / ∂Ω1 {f (Ω1 * Ω2)} = ∂ / ∂Ω1 {f (Ω1)}

Ω1 * ∂ / ∂Ω2 {f (Ω1 * Ω2)} = ∂ / ∂Ω2 {f (Ω2)}

Por lo tanto, Ω2 / Ω1 = ∂ / ∂Ω1 {f (Ω1)} / ∂ / ∂Ω2 {f (Ω2)}

Entonces vemos que, Ω * ∂ / ∂Ω {f (Ω)} es constante para cualquier sistema.

Por lo tanto, Ω * ∂ / ∂Ω {f (Ω)} = C , C es una constante arbitraria.

=> ∂ / ∂Ω {f (Ω)} = C / Ω

=> ∫ ∂ / ∂Ω {f (Ω)} dΩ = C * ∫ dΩ / Ω

=> f (Ω) = C ln (Ω) + C * M, M es una constante integral.

=> S = C ln (Ω) + C * M

Ahora, cuando todo el sistema está bajo control, lo que significa S = 0 , podemos conocer fácilmente el estado de la energía, por lo que la probabilidad de microestado Ω = 1

así obtenemos, M = 0

Por lo tanto, definimos, S = C ln (Ω)

para todo el gas ideal C = k que es constante de Boltzmann, k = R / N

Definición matemática desde un punto de vista macroscópico (desigualdad de Clausius): –

Segunda ley de la termodinámica:

Consideremos un sistema dado a continuación,

que se conoce como Clausius Inequity .

Por lo tanto, para todo proceso irreversible o cualquier proceso termodinámico de la vida real.

dS> ∫ (δQ / T)

para cambio total de entropía, S2 -S1> ∫ (δQ / T)

Como sabemos que todos y cada uno de los sistemas tienen cierta pérdida de energía y todos son internamente irreversibles.

(Nota: internamente reversible es aquello para lo cual no hay irreversibilidades presentes en el sistema. Las irreversibilidades pueden ubicarse en los alrededores. Prácticamente, no se define fricción interna Internamente reversible).

Todos y cada uno de los sistemas en un proceso termodinámico generan una cantidad finita de Entropía σ por alguna causa conocida o desconocida.

así, para el cambio de entropía, S2 -S1 = ∫ (δQ / T) + σ donde σ se llama generación de entropía.

El cambio de entropía depende del estado del proceso, pero la generación de entropía depende de la irreversibilidad del proceso.

Para cualquier proceso irreversible, incluso para el proceso irreversible adiabático (no se produce transferencia de calor) σ> 0, por lo que el cambio de entropía puede ser mayor que cero debido a la generación de entropía.

Pero para un proceso reversible, incluso para un proceso reversible adiabático, σ = 0, entonces la generación de entropía es cero.

Es realmente una gran pregunta, pero es difícil de explicar todo de una vez. Pero aquí podría darte una breve idea de lo que es la entropía. No es muy fácil señalar directamente qué es la entropía en el nivel fundamental, pero tener una comprensión macrosópica, puede verlo como una medida de desorden en la naturaleza o cualquier fenómeno para el caso. Por ejemplo. ¿Por qué no un vidrio roto no puede unirse para formar la pieza original sin romper?

¿Por qué el calor siempre fluye de la región caliente a la fría?

¿Por qué envejecemos y no crecemos más jóvenes?

¿Por qué las cosas siempre fluyen en una dirección y no en la otra?

Eso sí, que no hay nada en las grandes leyes de la Física que evite que las cosas sucedan en el orden inverso, o que indique de qué manera deberían ocurrir los eventos, las leyes de la Física permiten ir en ambas direcciones.

Entonces, hay una cantidad fundamental que siempre tiende a hacer que los eventos vayan de una manera y no de la otra. Eso es del orden al desorden. En una medida apreciable en una escala microsópica, solo para darle una idea de por qué sucede, podría decir que hay una tremenda cantidad de formas en que las cosas van a ir de una manera incorrecta a la correcta, me refiero a la probabilidad de que los pedazos rotos de vidrio podrían arreglarse de manera incorrecta, es mucho más que mucho más de lo que podría arreglarse de la manera correcta, como era antes.

Por lo tanto, las cosas siempre tienden a pasar del orden al desorden. Si uno intenta reducir la entropía generada en el sistema, solo puede hacerlo aumentando la entropía correspondiente del Universo en la misma cantidad.

Estas cosas evitan que los ingenieros alcancen una eficiencia del 100 por ciento …

Es como el destino de la naturaleza … pero hay una explicación a esto en los argumentos de las escalas mecánicas cuánticas en Termodinámica estadística y mircrostates, pero el misterio no se entiende completamente. Uno también podría notar de esto que incluso el Tiempo fluye de una manera y no de la otra, que es que solo podríamos avanzar hacia el futuro pero no hacia el pasado, es debido a la gran LEY DE LA ENTROPÍA, también ampliamente conocida como Segunda Ley de la Termodinámica. Solo intenté darte una comprensión más física de la idea … para que te conviertas más curioso para explorar más al respecto.

En pocas palabras, la medida del número de configuraciones posibles de un sistema dado en un determinado estado. Está dado por:

Donde S es la entropía, y omega es el número de configuraciones posibles. La razón por la que se toma el logaritmo es doble, para suprimir el número ridículamente grande de configuraciones y hacer que la entropía de los sistemas compuestos sea aditiva, al igual que la energía.

Todo proceso termodinámico es la evolución del sistema a un estado más probable, que maximiza su entropía, que es la segunda ley de la termodinámica .

Deberías ver esta respuesta:

La respuesta de Jeff Comer a ¿Cómo se explica la segunda ley de la termodinámica en términos simples?

La entropía está relacionada con la cantidad de formas en que hay una determinada configuración. En mi ejemplo de monedas, hay 1 forma de tener seis monedas de cara (HHHHHH), pero 20 maneras de que tengan media cara y media cola:

HHHTTT HHTHTT HHTTHT HHTTTH HTHHTT HTHTHT HTHTTH HTTHHT HTTHTH HTTTHH THHHTT THHTHTH THTHTHTH THTHHTH THTHTH THTHTH THHTH THTHTH

Decimos que las medias cabezas y las medias colas tienen más entropía que todas las cabezas. La entropía de la configuración aumenta cuando aumenta el número de formas de hacerlo, y la entropía disminuye cuando disminuye el número de formas de hacerlo.

Matemáticamente, la entropía es simplemente el logaritmo de la cantidad de formas de tener una configuración, es decir, es aproximadamente la cantidad de dígitos en la cantidad de formas de tener una configuración particular. Por ejemplo, 10,000 tiene 5 dígitos y 10 tiene 2 dígitos. La diferencia en entropía entre algo con 10,000 formas de hacerlo y algo con 10 formas de hacerlo es some_constant * (5–2) = some_constant * 3. Usamos el logaritmo porque los números con los que estamos tratando son tan grandes que es más fácil hablar sobre el número de dígitos que tiene el número que el número mismo. ¿Cómo se llama 100,000,000,000,000,000,000,000? Es más fácil decir que es un 1 con 23 ceros después. log (100,000,000,000,000,000,000,000) = 23.

¿Por qué el té caliente siempre se enfría pero nunca se calienta solo?

Ya sea que la energía fluya de un objeto caliente a uno frío o viceversa, la energía permanece conservada. No se viola ninguna ley de la física si el objeto frío cede su calor al caliente. Pero eso nunca sucede. Por qué ?

El sistema macroscópico (gas dentro de la caja) es una colección de muchos componentes microscópicos (moléculas). No percibimos el movimiento de cada molécula, solo percibimos la energía total de la caja en forma de temperatura.

En realidad, todo lo que puede pasar, ¡pasa! A nivel microscópico, la energía fluye de frío a calor y de calor a frío. Pero no observamos arreglos de energía a nivel microscópico. Solo observamos el gran efecto de esa disposición en nuestro mundo macroscópico. En este artículo, veremos cómo el mundo microscópico da forma a nuestro mundo macroscópico.

¡Todo lo que puede pasar, pasa!

Pensemos en un ejemplo simple. Dos cajas de un gas, cada una de las cuales contiene solo dos moléculas. Comparten en total 4 unidades de energía entre ellos.

Las moléculas intercambian estos paquetes de energía entre ellas. Van en bultos. No puede transferir media unidad a ningún lado. Para este ejemplo, la energía total en A y la energía total en B son las cantidades macroscópicas y la forma en que esta energía se distribuye dentro de A o B es una cantidad microscópica. Ahora, cuentemos la cantidad de formas en que podemos distribuir los 4 paquetes de energía entre las 2 cajas.

La tabla muestra que hay un total de 35 formas de distribuir energía a nivel microscópico que dan lugar a 5 posibles variaciones a nivel macroscópico. Estos 35 estados se llaman microestados . Puede haber muchos microestados que nos dan la misma distribución de energía entre las casillas A y BEg: el caso en que A tiene 4 unidades de energía y B tiene 0 puede deberse a cualquiera de los siguientes 5 microestados:

  1. A (4,0) B (0,0)
  2. A (3,1) B (0,0)
  3. A (2,2) B (0,0)
  4. A (1,3) B (0,0)
  5. A (0,4) B (0,0)

En total, 35 microestados dan lugar a 5 estados macroscópicos que se muestran en la tabla: 4-0, 3-1, 2-2, 1-3 y 0-4. Estos se llaman macroestados. Y aquí radica la idea clave

Los 35 microestados son igualmente probables, pero los 5 macroestados que generan tienen diferentes probabilidades (como se muestra en la tabla).

Hay 9 microestados que conducen al macroestado 2-2. Y es por eso que es más probable que ocurra el estado 2-2. ¡Pero hay una buena posibilidad de que toda la energía termine en una de las moléculas! Cada uno de los macroestados 4-0 o 0-4 tiene un 14% de probabilidad de manifestarse. ¡Esto significa que la energía puede fluir del sistema energético más bajo al más energético! De hecho, puede suceder con un 14% de probabilidad de que comencemos con energía distribuida equitativamente y terminemos con toda la energía en el cuadro A. Si pensamos en la entropía como aleatoriedad, entonces en este caso, hemos pasado de un estado más aleatorio a menos estado aleatorio ¡La entropía ha disminuido ! Y esto no está mal. Si el número de partículas involucradas no es grande, la entropía puede disminuir espontáneamente.

Si el número de partículas involucradas no es grande, la entropía puede disminuir espontáneamente.

Por lo tanto, existe la posibilidad de que el calor fluya del cuerpo más frío al más caliente y la entropía pueda disminuir. Pero nunca notamos que una taza de té caliente se calienta. Nunca. ¿Por qué?

Veamos qué pasa si tenemos 20 partículas. 2 cajas que contienen 10 moléculas cada una, que consta de un total de 20 unidades de energía. Ahora la posibilidad de que toda la energía se concentre en una de las cajas es 0.01%. Si las cajas tienen 50 moléculas cada una, y queremos distribuir 100 unidades de energía, entonces las posibilidades de tener toda la energía acumulada en una caja son 0.00000000000000001%.

Esto es tan bueno como cero. En nuestra vida cotidiana, el número de partículas involucradas no está en cientos o miles, sino en billones de billones. Entonces, nunca veremos que el calor fluya de un objeto frío a un objeto caliente, hasta que tenga toda la energía.

Por otro lado, la cantidad de formas en que podemos crear el estado de energía igualmente distribuida aumenta exponencialmente (más rápido que exponencialmente. Suben como un factorial). Por lo tanto, es muy probable que ese estado se manifieste en la realidad.

El número de microestados que conducen a un macroestado nos da la entropía de ese estado.

Finalmente, definimos la entropía. El número de microestados (digamos n) que conducen a un macroestado particular nos da la entropía de ese macroestado. Está formulado como

donde k_B es la constante de Boltzmann.

La publicación original fue escrita aquí. Por favor, apoye el contenido original.

¿Por qué el té caliente no se calienta más? Los orígenes de la entropía.

La entropía física tiene dos teorías mutuamente consistentes de termodinámica y física estadística; Además, a veces puede ser útil definir analogías no físicas en estadística y teoría de la información.

La termodinámica clásica define la entropía S como una medida del trabajo mecánico que un motor térmico puede producir como término necesario para describir el balance energético interno U de un sistema térmico:

dU = (Q_H -Q_C) – dW = dQ – dW, que en un sistema cerrado se convierte en dU = TdS [+ términos adicionales dependiendo de los componentes del gas o líquido, reacciones químicas, etc.]. La entropía hace explícita una diferencia práctica en el comportamiento entre sistemas reversibles e irreversibles, así como una restricción de eficiencia de los motores térmicos que hacen que el trabajo macroscópico se desarrolle con grados de libertad microscópicos. Primera ley de la termodinámica – Wikipedia

La física estadística define la entropía S más adecuadamente como una función del número de grados de libertad microscópicos disponibles S (E, V, n, …) = k * log Omega (E, V, n, …), Omega = número de estados microscópicos .

Una de mis manías es que las personas equiparan estas medidas físicas con medidas estadísticas de desorden, que no tiene en cuenta las unidades físicas observadas y que el aumento de la entropía en sistemas restringidos (densos) corresponde a un mayor orden. Tan práctico pero no exactamente correcto y, a veces, obviamente erróneo, análogo (sin tener en cuenta el problema de la unidad) al uso de la gravedad newtoniana en cohetes de baja energía / baja precisión versus relatividad general en astronomía de alta energía / alta precisión.

La entropía está vinculada a la energía, especialmente su calidad llamada disponibilidad. Los componentes de energía pueden expresarse como un producto de un potencial y una propiedad extensa como presión / volumen para forma mecánica de energía, potencial químico / concentración para el químico, voltaje / densidad de carga para electricidad, etc .; de manera similar, temperatura / entropía para la térmica. dS es cero para un proceso reversible, (dE – Tds) representa la energía disponible, para la conversión de energía térmica a mecánica. Esto fluye de la segunda ley que asocia el aumento de la entropía en cualquier proceso natural de lectura irreversible.

Responder esta pregunta en forma de declaración es difícil. Podemos decir que la entropía (S) es una propiedad de un sistema termodinámico (un sistema que trata la termodinámica).

Se define matemáticamente por la siguiente expresión:

dS (universo)> = 0.

Un sistema aislado puede considerarse como universo. En ese caso podemos decir que la entropía de un sistema aislado nunca disminuye.

La ecuación [matemáticas] S = klogW [/ matemáticas] está en la tumba de Ludwig Boltzmann.

Esta ecuación nos muestra que la entropía es solo una cualidad estadística / probabilística. [math] W [/ math] es el número de microestados para un macroestado dado, donde un macroestado puede considerarse como la distribución general de partículas en una muestra (por ejemplo, todo el gas que se encuentra en la esquina de una caja vs distribuido uniformemente en toda la caja).

A menudo se dice que la entropía es una medida de “desorden” o “aleatoriedad” en un sistema. Esto es cierto, en el sentido de que los sistemas, con el tiempo, gravitarán hacia los estados más probables del ser. Tenga en cuenta que es posible que la entropía disminuya localmente, pero no tanto a nivel mundial (¡de lo contrario no podríamos tener vida!).

Si toma la interpretación del Principio Clausius de la entropía, entonces tenemos (para un proceso reversible) que [matemática] \ Delta [/ matemática] [matemática] S = \ int_ {a} ^ {b} dQ / T [/ matemática] . Entonces podemos pensar en la entropía como una variable de estado.

En cuanto a lo que significa que la entropía siempre aumenta (globalmente), todo lo que realmente dice es que, con el tiempo, las cosas tenderán hacia el resultado más probable. En realidad, es posible que la entropía disminuya en un corto período de tiempo, pero no a largo plazo.

La entropía es una propiedad extensa (no una cantidad) de un sistema. No estamos realmente interesados ​​en la entropía absoluta, pero estamos más interesados ​​en descubrir el cambio de entropía para un proceso (Ej .: estado 1 a estado 2) que puede determinarse usando la ecuación que se muestra a continuación. Esta ecuación fue obtenida por Clausius en 1865 a partir de su definición de la segunda ley de la termodinámica.
[matemáticas]
\ bigtriangleup \; S = \ int_1 ^ 2 \ left (\ frac {\ partial {Q}} {T} \ right) _ {rev}
[/matemáticas]
La entropía dice que un proceso puede ocurrir solo en una dirección determinada, no en cualquier dirección. Un proceso debe proceder en la dirección que cumpla con el aumento de la entropía (que es la declaración de Clausius de la segunda ley de la termodinámica) 😀

Consulte este enlace para obtener una explicación no técnica.


Introducción a la entropía

He entendido la entropía como una medida de falta de disponibilidad de energía en un sistema.

Siempre aumenta Nunca disminuye

Lo siento, quizás podría haber explicado mejor hace unos 48 años cuando estudié Termodinámica como una de las asignaturas de mi plan de estudios de ingeniería.

No soy un ingeniero químico o mecánico y nunca he usado esto en mi profesión y ahora no puedo explicarlo de manera competente después de todos estos años.

GV

Creo que hay dos buenas respuestas, pero quiero mencionar aquí que

la entropía tiene dos definiciones diferentes

primero en termodinámica y segundo en mecánica estática

pero la definición termodinámica es muy simple, así que para responder a su pregunta

la entropía es un parámetro o cantidad que muestra desorden en el sistema

la entropía muestra desorden en el sistema termodinámico

ahora tienes una idea al respecto

ser denotado por sy cambiar la entropía por

“Conozco la definición de entropía de Boltzmann. Pero la otra definición que es s = q / t [matemáticas] s = q / t [/ matemáticas] no la entiendo. Quiero saber por qué esta definición intuitiva tiene sentido “.

Esta es una pregunta fundamentalmente importante. Revela dos problemas. Una es que la entropía termodinámica de Clausius no se ha explicado como parte de la física convencional. El segundo es que la temperatura es la propiedad indefinida de la termodinámica.

Una propiedad indefinida es una propiedad inexplicable. La física convencional no puede explicar qué temperatura es. Para introducir una propiedad indefinida como la temperatura en las ecuaciones físicas, debe incluirse en la ecuación sin historia para contarnos sobre su naturaleza.

Las ecuaciones obtienen la información empírica sobre cómo la magnitud de la temperatura afecta las soluciones a los problemas físicos. Esas mismas ecuaciones no pueden decirnos el papel mecánico que juega la temperatura para ayudar a lograr la solución.

La definición original de Clausius y la redefinición posterior de Boltzmann no describen el mismo tipo de entropía. Clausius hizo la definición original de qué entropía es S = Q / T. Donde: S es la entropía termodinámica; Q es calor, que es energía en tránsito, por lo que la transferencia continua de energía es inevitablemente parte de la comprensión de la entropía termodinámica; T es la temperatura.

La derivación de la escala de temperatura Kelvin hace uso de la entropía termodinámica de Clausius. Esa escala muestra que la entropía termodinámica de un sistema cerrado no cambia. ¡La temperatura puede subir esa escala lo más alto posible y la entropía termodinámica de Clausius del gas ideal en cada uno de esos motores Carnot conectados permanece sin cambios! La energía no disponible para hacer más trabajo no está involucrada. El desorden no está involucrado. Los estados energéticos no están involucrados. La entropía termodinámica de Clausius es Q / T. El calor ingresa a cada motor a temperaturas consecutivas específicas en la báscula. La entropía termodinámica de Clausius es ese calor dividido por la temperatura específica. Más adelante en el ciclo del motor, otra medida de calor deja el motor a la siguiente temperatura más baja. La entropía termodinámica de Clausius es ese calor dividido por la siguiente temperatura en la escala pero con un signo menos de entropía termodinámica negativa. Los dos cálculos de entropía son iguales en magnitud. El resultado no es un cambio en la entropía termodinámica. Vaya desde cero hasta una temperatura muy alta y no hay cambio en Clausius, la entropía termodinámica. En otras palabras, la entropía termodinámica original real no es una medida de energía inutilizable; ni es una medida de desorden; ni se ve afectado en absoluto por la existencia de estados energéticos.

[Esta respuesta continuará como ediciones adicionales. Esto requerirá una explicación precisa y detallada que muestre que los físicos no saben qué temperatura es; una explicación de lo que digo temperatura es; y, usando esa explicación de la temperatura para finalmente explicar qué significa físicamente S = Q / T de Clausius. Esa explicación implica la propiedad del tiempo. No es una flecha indirecta del tiempo, sino más bien una explicación de lo que nos dice la entropía termodinámica de Clausius sobre el paso irreversible del tiempo. Si desea seguir leyendo, la explicación existe en este enlace: http://newphysicstheory.com/THE% … Este es mi trabajo original en mi sitio web.

James A putnam

Una herramienta que ayuda a comprender la segunda ley de la termodinámica.
Micronivel: supongamos que conoce cierta información (donde se encuentra cada partícula) sobre el sistema a 30 grados Celsius. Cuando suministra calor, aumenta su temperatura y pierde información sobre la ubicación de las partículas. Esta es la razón por la que a menudo se explica en términos de trastorno. El aumento en el trastorno del sistema da como resultado un aumento en
entropía
Nivel macro:
Tome una taza de café caliente y colóquelo en una habitación. Deje que la temperatura del café caliente sea T 1 y la habitación sea T2.T1> T2.
cambio en entropía dS = dq / T (para proceso reversible)
El calor perdido por el café sea -Q y el calor ganado por la habitación sea + Q
(-Q / T1) + (Q / T2) es la entropía del universo.
Q (1 / T2 – 1 / T1) es mayor que cero, lo que demuestra que la entropía del universo siempre está aumentando.
Si supone lo contrario, la entropía se vuelve menor que cero, lo que significa que la entropía puede usarse como una herramienta para verificar la segunda ley.

La entropía no es una cantidad tan fantasmal. Es fácil distinguirlo definiéndolo como la medida del desorden, pero eso parece fantasmal. La entropía real es el estado más probable por el que se distribuyen los paquetes de energía. Se puede aclarar con la mecánica estadística.

Digamos que un sistema en baja entropía significa que es inestable porque la energía está concentrada y el sistema trata de aumentar la entropía mediante la difusión de la energía que sea posible, lo que significa una entropía más alta.

Si un sistema tiene la oportunidad de aumentar la entropía, lo hará (si la energía tiene la oportunidad de extenderse, ¡lo hará!)

La entropía es lo que queda de la vieja teoría de las calorías. Caloric se definió como un fluido que era equivalente al concepto de calor.

La entropía es una cantidad escalar que tiene algunas propiedades de un gas indestructible. La temperatura es entropía análoga a la presión en un gas real.

Esa sería una buena descripción de la entropía a escala macroscópica. Sin embargo, la definición de entropía a escala atómica es un poco más complicada.

A diferencia de un gas verdadero, la entropía NO está hecha de partículas como los átomos. Boltzmann descubrió que es más como un trastorno. Cuando digo desorden, quiero decir que es la menor cantidad de grados de libertad disponibles para que los átomos se muevan.

La energía es propiedad real de los componentes del universo … en la medida en que alguien la denominó “la moneda común del universo”.

La temperatura es un resumen que hemos inventado para ayudarnos a resumir los estados de las colecciones de componentes del universo. (Así es la presión).

La entropía es otra, pero en muchos sentidos es solo el otro lado de la misma moneda que la temperatura, en la medida en que ΔE = ΔS.ΔT

Existen muchas definiciones para el concepto de entropía, por lo que, como lo defino de una manera, “ES UNA MEDIDA DE IRREVERSIBILIDAD O DEGRADACIÓN DE ENERGÍA”. Doy un ejemplo para eso, consideremos dos ciclos de Carnot, cada uno consta de dos procesos isotérmicos reversibles y dos procesos isentrópicos reversibles. Consideremos que el primero opera con límites de temperatura máxima y mínima como 900 K y 300 K respectivamente, de manera similar, el segundo opera con límites de temperatura máxima y mínima como 600 K y 300 K respectivamente. Dos ciclos funcionan con la misma entrada de calor de 24 kW. Si dibujamos el diagrama TS para esos dos casos como se muestra en las siguientes figuras, sabemos que el área bajo la curva Ts es suministrada o rechazada por calor, el rechazo de calor es más en el segundo ciclo en comparación con el primer ciclo porque el cambio de entropía es más en el segundo ciclo que en el primero ciclo, por lo que el segundo ciclo produce una menor eficiencia térmica en comparación con el primero, la degradación de la energía también más en el segundo caso.

Aunque la entrada de calor y la temperatura mínima son las mismas, dado que la temperatura máxima varía, la temperatura máxima más baja será el cambio en la entropía y mayor será la degradación de la energía.