¿Qué es la entropía y por qué existe? ¿Por qué el Big Bang sería de baja entropía y dónde estamos hoy en la entropía más alta? ¿Por qué la entropía seguiría aumentando si los átomos están en un estado de energía más bajo?

La entropía de una sustancia es una cantidad física real y es una función definida del estado del cuerpo, como la presión, la temperatura y el volumen de energía interna.

Es difícil formar una concepción tangible de esta cantidad porque no se puede sentir como temperatura o presión. Sin embargo, podemos inferirlo fácilmente de los siguientes aspectos:

1. Entropía y energía no disponible.

La segunda ley de la termodinámica nos dice que la cantidad total de energía interna de cualquier sustancia no es convertible en trabajo útil. Una parte de esta energía que se utiliza para realizar un trabajo útil se llama energía disponible . La parte restante de la energía que no se puede convertir en trabajo útil se llama energía no disponible . La entropía es una medida de esta energía no disponible. De hecho, la entropía puede considerarse como la energía no disponible por unidad de temperatura.

Es decir

o,

El concepto de entropía es de gran valor y proporciona la información sobre los cambios estructurales que acompañan a un proceso dado.

2. Entropía y desorden

La entropía es una medida del trastorno o aleatoriedad en el sistema. Cuando un gas se expande al vacío, el agua fluye fuera de un depósito, se produce una reacción en cadena espontánea, se produce un aumento en el trastorno y, por lo tanto, aumenta la entropía.

Del mismo modo, cuando una sustancia se calienta o enfría, también hay un cambio en la entropía. Por lo tanto, el aumento de la entropía implica una transición de un estado de asunto ordenado a uno menos ordenado.

3. Entropía y probabilidad

¿Por qué se favorece el desorden? Esto se puede responder considerando un ejemplo, cuando se lanza una sola moneda, existe la misma posibilidad de que aparezca la cabeza o la cola. Cuando se lanzan dos monedas, existe la posibilidad de que aparezcan dos caras o dos colas, pero hay una doble posibilidad de que aparezcan una cara y una cola. Esto muestra que el desorden es más frecuente que el orden.

Los cambios en el orden se expresan cuantitativamente en términos de cambio de entropía,

. ¿Cómo se relacionan la entropía y el orden en el sistema? Como un estado desordenado es más probable para los sistemas que para el orden (ver figura), las probabilidades de entropía y termodinámica están estrechamente relacionadas.

Orden y probalidad

A diferencia de otras variables termodinámicas (por ejemplo, U, T, H, G, F), la entropía parece carecer de un significado físico. La entropía tiene un significado físico concreto, pero su significado se encuentra en el campo de la mecánica estadística. La mecánica estadística también se conoce a veces como física estadística, termostatística o termodinámica estadística. La termodinámica se aplica a los sistemas macroscópicos (grandes) que consisten en el orden de al menos 1020 moléculas. Se ve a gran escala. La mecánica estadística se ve a nivel molecular.

La mecánica estadística y la termodinámica están íntimamente relacionadas. Los conceptos termodinámicos como la presión y la temperatura están vinculados a procesos que ocurren a nivel molecular, pero promediados en un gran número de moléculas. Las parcelas de aire, las gotas de nubes, etc. son todos sistemas macroscópicos. Sin embargo, para comprender realmente la entropía, tenemos que recurrir a la mecánica estadística.

En mecánica estadística, la entropía viene dada por


donde k es la constante de Boltzmann y Pn es la probabilidad de que el sistema esté en el nivel de energía n.

Si conocemos todas las probabilidades para todos los niveles de energía del sistema, entonces la entropía se puede encontrar directamente mediante la ecuación (1).

Algunos ejemplos pueden ayudar. Imagine que un sistema hipotético tiene cinco niveles de energía posibles diferentes, Pn, donde n = 1 a 5.
Si cada estado de energía no fuera degenerado, entonces
P1 = P2 = P3 = P4 = P5 = 1/5
y de la ecuación (1) tendríamos S = -5k (1/5) ln (1/5) = 1.61k
Ahora, si el sistema está alterado (tal vez enfriado) de modo que solo estén disponibles tres estados de energía no degenerados, entonces
P1 = P2 = P3 = 1/3
y de la ecuación (1) tendríamos S = -3k (1/3) ln (1/3) = 1.10k
Si el sistema se enfría aún más, suponga que solo hay un estado de energía
disponible. Entonces, P1 = 1 y S = 0.

El ejemplo muestra que cuanto más seguros estamos de en qué estado de energía se encuentra el sistema, menor es la entropía.
La entropía es una medida de la incertidumbre del estado energético del sistema.


Debido a que la entropía se asocia con la cantidad de incertidumbre de los estados de energía de un sistema, la entropía más alta a menudo se asocia con aleatoriedad (alta incertidumbre) mientras que la entropía más baja se asocia con el orden (baja incertidumbre).

Es importante tener en cuenta que la entropía se definió en términos de estados de energía en el contexto de la mecánica estadística y la termodinámica.

Muchas veces vemos la entropía aplicada (o mal aplicada en otros contextos).

Por ejemplo, imagine un contenedor que contiene cuentas rojas y cuentas blancas. Si
las cuentas rojas y blancas están separadas, presumiblemente tienen más orden. Si se mezclan, entonces presumiblemente están más desordenados. Algunos dirían que las cuentas mixtas tienen una entropía más alta que las cuentas separadas. Sin embargo, es difícil pensar en los estados de energía de las cuentas y aplicar la ecuación (1) en este caso.

Hay un tipo de entropía que es aplicable al ejemplo del cordón, pero no es la entropía termodinámica. En cambio, es una entropía matemática que aparece como la rama de las matemáticas aplicadas conocida como teoría de la información.
La entropía termodinámica y la entropía de la teoría de la información son análogas y se comportan de manera similar, pero son dos conceptos distintos. Cuando las personas hablan de aleatoriedad en la naturaleza como de mayor entropía que orden en la naturaleza, es la entropía de la teoría de la información de la que hablan, no la entropía termodinámica. La segunda ley de la termodinámica se aplica a la entropía termodinámica, no a la entropía de la teoría de la información. Sin embargo, hay científicos y matemáticos que están explorando posibles conexiones entre las dos entropías.

La entropía es solo otra palabra para la energía de desecho o la energía que no es útil.

La entropía es la cantidad de energía que se pierde en el entorno a una temperatura específica. De manera simple, puedo decir que, haga lo que haga, el calor se libera en los alrededores, lo que aumenta la entropía.

Encontrará esta definición:

La entropía es la aleatoriedad del sistema. Aquí la aleatoriedad significa que el movimiento molecular de la partícula será más el movimiento molecular, más colisionará y se expulsará más calor, lo que no sirve de nada, por lo que aumenta la entropía.

En el gas, el movimiento molecular es máximo, por lo que tendrá una entropía máxima.

Wikipedia:

“Originalmente, la entropía fue nombrada para describir el” calor residual “, o más exactamente, la pérdida de energía de los motores térmicos y otros dispositivos mecánicos que nunca podrían funcionar con una eficiencia del 100% para convertir la energía en trabajo. Más tarde, el término llegó a adquirir varios descripciones adicionales, a medida que se entendía más sobre el comportamiento de las moléculas a nivel microscópico. A fines del siglo XIX, Ludwig Boltzmann utilizó la palabra “desorden” para desarrollar visiones estadísticas de la entropía utilizando la teoría de la probabilidad para describir el aumento del movimiento molecular en el nivel microscópico. Eso fue antes de que Werner Heisenberg y aquellos que lo siguieron entendieran mejor el comportamiento cuántico . Las descripciones de la entropía termodinámica (calor) a nivel microscópico se encuentran en termodinámica estadística y mecánica estadística .

Durante la mayor parte del siglo XX, los libros de texto tendieron a describir la entropía como “desorden”, siguiendo la temprana conceptualización de Boltzmann de la energía “motriz” (es decir, cinética) de las moléculas. Más recientemente, ha habido una tendencia en los libros de texto de química y física para describir la entropía como dispersión de energía .

La entropía también puede implicar la dispersión de partículas, que son en sí mismas enérgicas. Por lo tanto, hay casos en que tanto las partículas como la energía se dispersan a diferentes velocidades cuando las sustancias se mezclan entre sí.

Se descubrió que las matemáticas desarrolladas en termodinámica estadística son aplicables en otras disciplinas. En particular, las ciencias de la información desarrollaron el concepto de entropía de información donde una constante reemplaza la temperatura que es inherente a la entropía termodinámica “.

Eso sería útil, creo …

La respuesta de Haridev Vaikundamoorthy a ¿Cuál es la definición exacta de entropía?

Repito mi respuesta aquí, ya que este hilo es más visto que el otro, y el OP hace las mismas preguntas que he respondido.

Para visualizar la entropía, aunque de una manera vaga y no muy precisa, consideremos la situación del profesor de física John y su clase de 35 estudiantes, ¿de acuerdo?

Digamos que John desea enseñar a los estudiantes qué significa la entropía, en relación con la probabilidad. Como también es el cumpleaños de John, compra algunos chocolates para distribuir a sus amados estudiantes. Pero intencionalmente compra solo 25 chocolates, en lugar de 35. Para enseñar a los estudiantes la entropía, arroja chocolates en direcciones aleatorias dentro de la clase, e informa a los estudiantes que cada uno puede llevar solo un chocolate con ellos. Por supuesto, sus alumnos no son conscientes de su intención, por lo que atrapan con entusiasmo cada chocolate que se les presenta y lo distribuyen entre sus propios círculos de amigos, asegurándose de tener uno para ellos. Una vez que todos los chocolates están terminados, los estudiantes se dan cuenta de que algunos de ellos no tienen chocolates y se quejan con John al respecto, pensando que algunos estudiantes se quedan con dos o tres chocolates para ellos en lugar de solo uno por estudiante.

En este punto, John revela que intencionalmente solo había comprado 25 chocolates. Los estudiantes están furiosos porque John era uno de sus maestros favoritos y no esperaban esto. Se sienten excluidos y piensan que John arrojó chocolates intencionalmente a estudiantes específicos de la clase. Luego, John dice: “NO ME IMPORTA exactamente qué estudiantes no tienen los chocolates, ya que si los hubiera distribuido de otra manera, todavía habría 10 estudiantes sin el chocolate”.

Pensemos en esta oración por un tiempo. Para John, todos sus alumnos son iguales. Realmente no le importa qué 10 estudiantes no recibieron los chocolates. Entonces, si hubiera distribuido los chocolates de otra manera, la situación habría sido la misma para él. En cualquier escenario, 10 estudiantes habrían quedado fuera.

Pero para los estudiantes, importa cuáles 10 no recibieron los chocolates. Entonces, ¿podemos preguntarnos cuáles son las posibles combinaciones de los 10 estudiantes que no obtienen el chocolate de los 35 estudiantes? Eso es exactamente de lo que habla la entropía. Hay dos términos en relación con la entropía que debemos entender en este punto: el macroestado y el microestado .

El macroestado es que 10 estudiantes no tienen el chocolate al final del ejercicio. El microestado corresponde a cada una de las combinaciones posibles para formar un grupo particular de 10 estudiantes para alcanzar el mismo macroestado.

Hay varios microestados que corresponden al mismo macroestado. Y para un observador (John), cada uno de los microestados es exactamente idéntico a otro.

Ahora, olvidemos de lo que hablamos hasta ahora y profundicemos en los tecnicismos, ¿de acuerdo?

La termodinámica clásica describe los sistemas en términos de algunas variables (funciones de estado): temperatura, presión, volumen … Pero tal sistema está realmente hecho de átomos, por lo que una descripción mucho más rica debe ser posible en principio: podríamos especificar el estado cuántico de todos los átomos microestado

Si vemos que los átomos son equivalentes a los estudiantes en el ejemplo anterior, entonces describimos qué átomo está en qué condición cuántica se convierte en un microestado, tal como describimos qué estudiante específico tiene un chocolate y llegó a un microestado. Pero fíjate, un átomo puede tener varios estados cuánticos, a diferencia de nuestro ejemplo en el que definimos un microestado con solo dos estados cuánticos: un estudiante tiene un chocolate o no.

Por supuesto, a medida que los átomos interactúan y este estado cambia muy rápidamente, quizás [matemática] 10 ^ {35} [/ matemática] veces por segundo. Pero lo observado macrostate del sistema no cambia. Todavía medimos la misma presión, temperatura, etc. —-> todavía tenemos solo 25 chocolates sin importar cómo se distribuyan.

Esto sugiere que podemos derivar la termodinámica directamente del comportamiento cuántico de átomos y moléculas. O, en otras palabras, podemos calcular el comportamiento macroscópico del sistema promediando los microestados correspondientes.

Formalmente, un “microestado” se refiere a una descripción del sistema que se basa en los estados de cada elemento del sistema. Cada microestado [matemático] M_i [/ ​​matemático] de un sistema termodinámico es un conjunto de posiciones [matemático] r_i [/ ​​matemático] y velocidades [matemático] v_i [/ ​​matemático], para todos [matemático] i = 1,2,3 , … n [/ math] que describen la posición y la velocidad de cada partícula que comprende el sistema.

Como puede imaginar, para N grande (digamos, N = 10 ^ 35), esto se sale de control.

La probabilidad de que el sistema esté en microestado [matemática] M_i [/ ​​matemática] es bastante baja ya que hay muchas, muchas microestaciones diferentes que el sistema podría ocupar. Esto es a lo que nos referimos como aleatoriedad . Entonces, aleatoriedad es solo un término utilizado para referirse al número total de microestados. Si la aleatoriedad en un sistema es demasiado alta, significa que el número de microestados de ese sistema que corresponde a un macroestado específico es grande.

La entropía de un sistema está relacionada con el número total de microestados posibles de un sistema, p , por la relación de Boltzmann:

[matemática] S [/ matemática] [matemática] = [/ matemática] [matemática] k [/ matemática] [matemática] ∗ \ ln [/ matemática] [matemática] ([/ matemática] [matemática] p [/ matemática] [matemáticas]) [/ matemáticas]

donde [matemática] k [/ matemática] [matemática] = [/ matemática] [matemática] 1.3806 [/ matemática] [matemática] ∗ 10 ^ {- 23} [/ matemática]

Por lo tanto, desde un punto de vista microscópico, la entropía de un sistema aumenta cada vez que aumenta la aleatoriedad molecular o la incertidumbre (es decir, la probabilidad molecular) de un sistema. Por lo tanto, la entropía es una medida del desorden molecular.

Lea este excelente artículo para comprender qué significa exactamente la irreversibilidad y cómo nos topamos con algo llamado entropía:

Reversibilidad y Entropía

Es apropiado decir en este punto que la entropía es esencialmente una medida de la estabilidad de un sistema de partículas. Cuando un sistema de partículas ya tiene tanta aleatoriedad, no puede volverse más aleatorio fácilmente. Por lo tanto, un sistema que tiene alta entropía es esencialmente un sistema estable: puede ocupar tantos microestados y aún estar en el mismo macroestado.

Al mismo tiempo, un sistema que tiene un solo microestado también es un sistema estable. Por lo tanto, tenemos dos tipos de estabilidad: entropía cero y entropía infinita, que corresponden a los valores [matemática] p = 1 [/ matemática] y [matemática] p = \ infty [/ matemática] en la relación de entropía.

Esto es lo que quieren decir los físicos cuando dicen que el universo comenzó desde el big bang (antes del cual la entropía era cero, o p = 1), y ahora se está acelerando hacia otro estado de estabilidad (con entropía infinita, o [matemáticas] p = \ infty [/matemáticas]). Esta es una inferencia de la ley que dice que la entropía del universo siempre aumenta.

En cierto sentido, podemos decir que antes del Big Bang existía un equilibrio inestable absoluto, y en el futuro existirá un equilibrio estable absoluto.

La entropía es una medida del desorden: ¡esa es la explicación más simple que me gusta!

Supongamos que le doy un kg de arroz en una bolsa y un kg de azúcar en otra. Al mismo tiempo, le doy a su amigo una sola bolsa que contiene un kg de arroz mezclado con un kg de azúcar. ¡Tu amigo no está contento! Si argumento que debería ser tan feliz como tú porque le di los mismos artículos a ambos, ¿estarás de acuerdo? ¡No! ¿Por qué? Debido a que su amigo obtuvo una mezcla de arroz y azúcar que no es útil para hacer arroz al vapor, etc. Lo que sucedió aquí: al mezclar los dos, hemos aumentado el trastorno. Ahora, para separar el arroz del azúcar, tu amigo debe esforzarse mucho. Este es un ejemplo de “entropía de mezcla”.

Del mismo modo, echemos un vistazo al calor. Si te doy 100 kJ de energía a 200 grados centígrados, puedes usarlo para hacer té por ti mismo. Pero si lo mismo es a 10 grados? Obviamente es la misma cantidad de energía, pero ni siquiera puedes hacer té. Queremos energía a temperaturas más altas. Aquí, la entropía define una “calidad” de energía. La energía a temperaturas más altas es buena, esto tiene una entropía más baja. La energía a temperaturas más bajas no es buena, esto tiene una entropía más alta.

Los procesos naturales van del orden al desorden, pero no al revés. Una tormenta puede destruir una casa; el orden para desordenar es natural. Pero, ¿puede otra tormenta poderosa volver a poner los pedazos de la casa y reconstruirla? ¡No! ¡El desorden a la orden no es natural! La entropía formaliza este concepto de procesos irreversibles. ¡Esta es la razón por la cual no es posible viajar en el tiempo hacia atrás!

¡Espero que mis explicaciones hayan sido útiles!

No puedo decirte qué es la entropía. Como explicó Philip Ball:

“No creo que haya logrado escribir sobre termodinámica sin un exceso de notas al pie de página, ya que casi cualquier declaración simple a este respecto necesita aclaración si no es para ser engañosa o totalmente equivocada”. (Formas, p 111, Oxford, 2009)

La entropía describe la relación entre un conjunto y sus partes. Debido a que las partes de un conjunto generalmente no tienen similitud o conexión lógica con el cuerpo que componen, la entropía es casi incomprensible. En termodinámica, la entropía es la posición y el impulso de todas las partículas en un volumen de espacio dado, pero el concepto es igualmente aplicable a la relación entre sonidos y declaraciones, entre animales y sus especies, o entre personas y comités. Boltzmann se dio cuenta de que Darwin y Clausius estaban trabajando en el mismo problema y formuló el límite de lo que se puede saber al respecto en términos de la probabilidad de que un conjunto de partes determinado haga un todo con cualidades particulares. “La visión de Boltzmann conectó la teoría de Darwin con la física fundamental, un logro intelectual sorprendente”.

Independientemente de la inteligencia, las personas no entienden la entropía por la misma razón por la que pierden dinero en los casinos: las probabilidades no “tienen sentido”. Debido a que la posición y el momento de las partículas no se pueden medir simultáneamente, no hay una verdadera medida o explicación de la entropía. Tienes que imaginar la aleatoriedad y creer en el caos. Si pudieras conocer la entropía completa en cualquier espacio dado, conocerías la composición química de todo lo que contiene; sabría cuánta información se mapeó en su estructura y cuánta información podría transmitir, así como su contenido de energía y potencial. Esta verdadera entropía es inconmensurable. Esta inmensurabilidad es más evidente en la escala subatómica donde la incertidumbre de Heisenberg es prohibitiva, pero la aparición de entropía tiende a ser invariante en la escala: la proporción de lo que se puede medir con respecto a lo que realmente existe es prácticamente la misma, no importa cuán grande o pequeño sea tu tema Los fenómenos autoorganizados, cosas que se organizan en virtud de su propia entropía, tenderán a tener el mismo patrón en todas las escalas. Esta invariancia de escala hace que la entropía sea igualmente aplicable a tormentas y tazas de té, remolinos y galaxias, gobiernos y moléculas. No me gusta el término “autoorganización” porque implica que el sistema o el cuerpo está actuando con la intención de violar la segunda ley de la termodinámica, lo cual es simplemente incorrecto. La autoorganización ilustra cómo la entropía no es una medida del desorden, pero es tan probable que cause orden como desorden, y generalmente es indiferente a ambos.

Antes de Newton había una noción oculta de que la energía proviene de los espíritus y desaparece en el éter. Newton respondió esto con la afirmación de que cada acción tiene una reacción igual y opuesta. Esto tampoco está del todo bien. La energía se conserva, pero no la dirección, por lo que la reacción no es opuesta sino aleatoria. Esto puede parecer una objeción menor, pero introduce otro término que no se puede definir. La energía proviene de la entropía y vuelve a la entropía. Ni la energía ni la información pueden crearse o destruirse, pero sus transformaciones a través de la entropía son inquietantes y ofensivas para el intelecto. Esta es la razón por la cual incluso los físicos se rebelan contra la segunda ley, y generalmente la tratan con desprecio desconfiado en lugar de admiración. En una revisión de la información cuántica en termodinámica, Lidia del Río, et. al., vaya tan lejos como para decir que “si las teorías físicas fueran personas, la termodinámica sería la bruja del pueblo. Las otras teorías la encuentran algo extraña, de alguna manera diferente en naturaleza del resto, sin embargo, todos acuden a ella en busca de consejo, y no “Uno se atreve a contradecirla. Einstein, por ejemplo, la llamó ‘la única teoría física del contenido universal, que estoy convencido, que en el marco de la aplicabilidad de sus conceptos básicos nunca será derrocada'”.

Pero la entropía es importante porque la mente es tan fácilmente seducida para creer que el poder es arbitrario y caprichoso, como lo demuestra la popularidad de las películas de Marvel Comics. Esta seducción no comenzó con los cómics; Ha estado allí en los mitos y leyendas desde los albores de la civilización, y va más allá de la mera confusión sobre causa y efecto. Incluso a los científicos duros les encanta ver que se rompa la segunda ley de la termodinámica. Pero hay algo extrañamente contraproducente en este escapismo, ya que el ejercicio arbitrario del poder sin restricciones no tiene sentido.

Lo que puedo decir es que la entropía solo existe como un efecto secundario de la definición de energía. La energía se define cinéticamente como una fuerza aplicada sobre una distancia (un julio de energía es lo que se necesita para aplicar un newton de fuerza sobre un metro; y un vatio es un julio aplicado durante un segundo). Los físicos generalmente definen la energía como la capacidad de hacer trabajo, y como animales que necesitan salir y encontrar comida, tiene sentido intuitivo pensar en la energía en términos de locomoción. Pero eso es tan obviamente arbitrario y sesgado que los físicos lo barren inmediatamente bajo la alfombra de observaciones medibles. No existe un concepto general de energía que lo describa en abstracto. No solo eso, sino que cuando funciona, algo de energía siempre se desvía un poco en sus perambulaciones de una forma a otra. No importa cuán perfecto sea su sistema de transmisión, siempre se necesita más de un julio de energía para aplicar realmente un newton de fuerza sobre un medidor completo en una dirección particular. Esto es importante porque sabemos que la energía no desaparece en el camino. La energía sigue ahí, simplemente no puede hacer ningún trabajo. Entonces, para mantener nuestra definición de energía como la capacidad de hacer trabajo, necesitamos un concepto para cuidar la energía que se escapa, para distinguir la energía libre que se puede usar para encontrar alimentos de toda esa energía inútil que no está disponible para trabajo. Para esto, necesitamos entropía. Para una planta, la diferencia entre energía y entropía es irrelevante.

El problema con la entropía no es que nadie lo entienda; El problema es que todos piensan que entienden la energía, cuando no lo hacen. No voy a arreglar eso aquí, pero a medida que miramos hacia un futuro con acceso incierto a la energía libre, es importante comprender las formas en que la energía puede convertirse en entropía y la entropía puede convertirse en energía. Si la energía libre es fuerza transmisible o calor, entonces la entropía es el resultado de esa fuerza o calor cuando se agota. La energía no cambia ni se disipa, pero se absorbe en las relaciones entre las cosas.

En esta formulación, la energía es la comunicación de fuerza o radiación de una cosa a otra, mientras que la entropía son las relaciones establecidas por esa comunicación. Esta traducción entre energía y entropía explica de dónde proviene la energía cuando parece estar “generada” y hacia dónde va cuando parece estar “disipada”. También es válido para todas las escalas, ya sea que se trate de partículas, bolas de billar o seres humanos en una sociedad. Si disparas una bola blanca en un grupo de bolas, puedes ver cómo se traduce su fuerza en un conjunto de relaciones después de que golpea las bolas, y que cada colisión resultante comunica la fuerza de una bola a la otra, mientras altera todas las relaciones (ímpetu relativo y posición) entre las bolas. Este último punto será significativo.

Esta formulación también ilustra por qué la ecuación de Shannon que relaciona la información con la entropía se parece a la ecuación de Boltzmann que relaciona el momento y la ubicación con la entropía. La energía, como la información, solo existe en la transmisión. Ambas ecuaciones definen la cantidad de material, ya sea información o energía, que se puede comunicar mediante la configuración o las relaciones de un sistema físico dado. Esto es más obvio para la información, pero recuerde que no hay forma de saber cuánta energía está “contenida” en un objeto a menos que transmita parte de su energía o información a otro objeto. Es por eso que la ley cero de la termodinámica es fundamental. Dos sistemas que están en equilibrio con un tercer sistema están en equilibrio entre sí. Esto también es cierto para la resonancia, donde dos sistemas que están sintonizados con un tercer sistema están sintonizados entre sí. De esta manera, la ley cero también permite el concepto de tiempo dentro de un marco de referencia estático: donde dos fenómenos periódicos están al unísono con un tercer fenómeno periódico, están al unísono entre sí. Finalmente, la ley cero permite la transmisión de información entre resonadores en forma de energía resonante. Este último punto vincula la información con la termodinámica: para que se establezca el equilibrio entre dos sistemas, deben compartir información, ya sea entre sí o con un tercer sistema. Es por eso que tiene sentido que Arieh ben-Naim describa la ecuación de entropía de Boltzmann (entropía de Gibbs) como un caso especial de la medida de información de Shannon. La única objeción que tendría es que ninguno define qué es realmente la entropía, por lo que lo que describe la ecuación de Boltzmann es el límite de lo que se puede conocer a medida que la incertidumbre se acerca al infinito.

Quizás más importante, la información puede venir en dos formas: primero, la representación abstracta de la equivalencia de energía / masa de un cuerpo; y segundo, la masa física y la ubicación de un cuerpo en relación con el espacio y todos los cuerpos con los que puede interactuar. El primer tipo de información es la información abstracta sobre un objeto, que puede transmitirse a otro objeto y permite que el objeto sea conocido. El segundo tipo es la información física en el objeto, que es la suma de su masa y sus grados cinéticos de libertad, y define el objeto internamente como sí mismo, lo que no puede conocerse debido a la incertidumbre de Heisenberg. Esta, de nuevo, es la diferencia entre lo epistemológico y lo ontológico, entre la ficción conocida y la verdad incognoscible.

Debido a que la entropía de un sistema es mucho más ontológica que epistemológica, es difícil hablar de ello. La mecánica estadística relaciona la energía y la entropía conceptualmente, pero de una manera que no es terriblemente útil para una persona real. La energía se define como la capacidad del sistema A para acelerar el sistema B en una dirección particular. Esto significa que el sistema A debe restringir la libertad del sistema B para moverse en la otra dirección o permanecer quieto. De esta manera, energía es el nombre del sistema A que aplica una restricción al sistema B. Cuando el sistema A acelera el sistema B, ambos sistemas pierden la restricción de aislamiento entre sí, y en esta pérdida de aislamiento su entropía aumenta en una cantidad que es igual a la aceleración del sistema B. Debido a que ambos sistemas también han perdido un grado de aislamiento interno y algo de aislamiento adicional de su entorno, la entropía total es mayor que la energía de aceleración aplicada al sistema B. Es por eso que cualquier aplicación de energía es acompañado de un aumento en la entropía. La entropía es la relación entre energía, materia y espacio, que puede describirse matemáticamente en términos de calor mediante la fórmula termodinámica de la entropía igual a la energía sobre la temperatura, y en términos de mecánica según la ecuación de Boltzmann de entropía es igual a la probabilidad de encontrar el sistema. dado posible microestado multiplicado por el logaritmo del número total de microestados, dado un macroestado observable. Ambas ecuaciones trazan la energía que se agota en las relaciones entre las partes del sistema.

Esto es igualmente cierto en la información. Un mensaje es la aplicación del transmisor de una restricción en el receptor mediante una conexión a través de un canal (que también aumenta la entropía física del sistema). En los sistemas de información también existe la entropía informativa del lenguaje utilizado para transmitir el mensaje, por lo que existe una confusión entre la entropía física del sistema y la entropía abstracta del código que se utiliza, pero dejaré esta confusión con ustedes por ahora.

Clausius usó la palabra “entropía” para describir el límite de la eficiencia de un motor térmico por una razón. Hubo una transformación oculta en las cosas del motor que no pudo convertirse de impulso a calor o de calor a impulso. Esta fue la transformación interna de la materia que fue termodinámicamente “irreversible”. La termodinámica estadística definió la energía cinética y térmica de un sistema de tal manera que esta transformación podría definirse y predecirse probabilísticamente, pero de una manera que las partes reversibles e irreversibles de la transformación son indistinguibles y la transformación en sí misma es una reafirmación sin sentido de la igualdad de masa y energía.

Clausius quería entender por qué algunos procesos solo van en una dirección. No lo definió de una manera que fuera determinante, pero su definición era evocadora y aún se aplica a la entropía molar en química en forma de joules por molkelvin, J mol − 1 K − 1 o energía sobre masa por temperatura.

El modelo de mecánica estadística de la entropía siempre es correcto, pero elimina la transformación de la entropía, que es como sacar la cafeína del café, el sexo del romance o el alcohol de la cerveza. Le da una noción sobre la cosa, pero pierde el punto. Decir que la entropía de un sistema es la suma de sus posibles microestados multiplicados por el logaritmo de su número total de microestados es un poco como el viejo chiste sobre el globo que está perdido en la niebla: cuando ve un persona en el suelo, el globo grita “¿dónde estoy?”, a lo que la persona responde “estás en un globo”.

Nadie ha creado una definición satisfactoria de entropía, por lo que todos la usan de manera diferente.

La entropía es una medida del desorden del sistema. Es proporcional al número de microestados posibles, por relación [matemática] S = k_b \ ln {\ Omega} [/ matemática], donde [matemática] k_b [/ matemática] es la constante de Boltzmann y [matemática] \ Omega [/ matemática ] es el número de todos los microestados posibles. Si hay una partícula en el sistema y el sistema tiene cierta cantidad de energía, está claro que toda esta energía debe “almacenarse” en esta misma partícula. Solo hay un estado posible y la entropía es cero. Pero, ¿qué pasa si hay dos partículas? Ambos comparten la cantidad total de energía. Pueden tener la misma cantidad de energía o no. Hay múltiples estados posibles y la entropía será positiva. Cuantos más microestados posibles haya, mayor será la entropía del sistema. Tenga en cuenta que debido a la definición de entropía, no puede ser negativa. Esta fue la definición estadística de entropía.

La entropía también se puede definir en términos del mundo macroscópico. La definición termodinámica es [matemática] dS = \ frac {\ delta q} {T} [/ matemática], o cómo aumenta la entropía al agregar calor al sistema a temperatura constante. Sin embargo, esta ecuación es correcta solo para procesos reversibles. El proceso reversible es aquel cuya dirección puede invertirse agregando o recuperando energía del sistema. Por ejemplo, tome un poco de hielo a muy poco menos de 0 ° C. Si comienzas a agregar energía al hielo, comenzará a derretirse. En cualquier momento, podemos redibujar un poco de energía infinitamente pequeña del sistema y nuevamente se forma hielo. Un ejemplo clásico de proceso irreversible es romper la cáscara del huevo. No puedes descifrarlo. El cambio de entropía causado por un proceso irreversible siempre es positivo. Se expresa por la desigualdad de Clausius. Además, ningún proceso en el mundo real es completamente reversible. Por lo tanto, el cambio de entropía siempre es positivo. Por supuesto, a veces, la entropía del sistema está disminuyendo, por ejemplo, cuando enfriamos el sistema, pero el calor sale del sistema y hay un aumento de la entropía fuera del sistema.

En el mundo macroscópico, la entropía también nos muestra qué procesos son espontáneos a cierta temperatura. Se puede demostrar fácilmente que el valor absoluto del cambio de entropía para la congelación del agua es menor que el valor absoluto de la entalpía de congelación dividido por el punto de fusión del hielo a -5 ° C, pero es mayor a 5 ° C. Esto significa que el proceso de congelación del agua es espontáneo a -5 ° C, pero no espontáneo a 5 ° C según la definición de energía de Gibbs, [matemática] \ Delta G = \ Delta HT \ Delta S [/ matemática ] Los procesos con cambio negativo de las energías de Gibbs son espontáneos. La congelación del agua tiene un cambio negativo de entropía y un cambio negativo de entalpía. Como la entropía puede ser sustituida por [matemáticas] \ Delta S = \ frac {\ Delta H} {T_f} [/ matemáticas], la energía de Gibbs para la congelación es, por supuesto, 0 en el punto de fusión del hielo. A temperaturas positivas será negativo ya que el término entrópico crece con la temperatura, mientras que la entalpía de fusión es más o menos constante.

La entropía es una cantidad muy útil con algunas consecuencias interesantes y extrañas. Mira esto por ejemplo: temperatura negativa. Es causado por el hecho de que si definimos la temperatura en términos de entropía, en lugar de la velocidad de las moléculas, la entropía puede disminuir al agregar calor a temperaturas muy altas. Entonces, de acuerdo con la definición de temperatura [matemática] T = \ frac {dq} {dS} [/ matemática], cuando [matemática] dq> 0 [/ matemática] y [matemática] dS \ leq 0 [/ matemática] y por lo tanto la temperatura es negativa, aunque el sistema sea más caliente que cualquier sistema con temperatura positiva.

La entropía en palabras simples es la medida del grado de aleatoriedad de un cuerpo.
(Sin embargo, estas palabras no parecen ser simples).

Se ha observado que en la naturaleza tiende a desordenarse más en sistemas aislados. (Aunque consideramos a la naturaleza como nuestra madre, en contraste con nuestra madre a la que le gusta el orden en nuestra vida, la naturaleza tiende al desorden).

Por ejemplo –

Puede ver fácilmente la disposición de cosas macroscópicas como su ropa, libros y saber qué disposición es más aleatoria (o desordenada), pero ¿cómo estudiamos el orden de las partículas microscópicas que constituyen nuestro cuerpo y todo lo que nos rodea? Es casi imposible observar átomos y diferenciar entre sus arreglos en términos u orden.

Por lo tanto, la entropía se desarrolló para tener una idea de las formas probables de disposición de las partículas más pequeñas.

Una forma más precisa de caracterizar la entropía es decir que es una medida de la “multiplicidad” asociada con el estado de los objetos. Si un estado dado se puede lograr de muchas maneras más, entonces es más probable que uno que se pueda lograr de unas pocas maneras.
Al “tirar dados”, lanzar un siete es más probable que un dos porque puedes producir siete de seis maneras diferentes y solo hay una forma de producir un dos. Entonces, siete tiene una multiplicidad más alta que un dos, y esto da una idea de por qué los sistemas en la naturaleza como las moléculas de un gas tenderían espontáneamente a estados de multiplicidad más alta o “entropía” más alta.

Esta respuesta está destinada a dar solo una breve idea o una mejor sensación hacia la entropía. Hay algunas cosas que se han descuidado para mantener las cosas más simples pero precisas.
Siempre he tratado de tener en cuenta las palabras de uno de los grandes maestros de física de mediados del siglo XX, Mark Zemansky:

“Enseñanza de la física térmica
es tan fácil como una canción:
Crees que lo haces más simple
cuando lo haces un poco mal “.

Existen diferentes tipos de entropía, siendo solo uno la entropía termodinámica real original. Los otros no son lo mismo. La entropía termodinámica original es la entropía de Clausius. La entropía de Clausius es oficialmente inexplicable. Por oficialmente, me refiero a separar la falta de significado oficial de la definición matemática de la entropía termodinámica de Clausius de las opiniones de los físicos sobre lo que es.

La razón por la que la entropía termodinámica de Clausius carece de un significado oficial es que su definición matemática S = Q / T incluye la temperatura T. La temperatura es una propiedad indefinida de la termodinámica. Es una propiedad inexplicable. Para explicar la entropía termodinámica original de Clausius, primero se debe explicar la temperatura.

Mientras tanto, la derivación de la escala de temperatura Kelvin deja en claro que la entropía de Clausius no es lo que dicen las opiniones populares. No es desorden. No es energía la que no está disponible para hacer el trabajo. No es una medida de células ocupadas o desocupadas, o niveles de energía, o microestados, etc. Para todos los grados de temperatura en la escala de temperatura Kelvin, la entropía termodinámica de Clausius sigue siendo la misma magnitud constante.

El trabajo para apoyar este hallazgo existe en:

http://necsi.edu/events/iccs2011

“La termodinámica es un tema divertido. La primera vez que lo atraviesas, no lo entiendes en absoluto. La segunda vez que lo atraviesas, crees que lo entiendes, excepto por uno o dos puntos pequeños. La tercera vez que lo atraviesas, sabes que no lo entiendes, pero para entonces estás tan acostumbrado que ya no te molesta más ”.

Estas son las palabras de uno de los más grandes físicos teóricos Arnold Sommerfeld.

Ahora es normal que todos se confundan y se sorprendan por los conceptos en Termodinámica. La más confusa es la entropía. Así que comencemos nuestro viaje para entenderlo.

La segunda ley de la termodinámica dice que la energía de todo tipo en nuestro mundo material se dispersa o se extiende si no se le impide hacerlo. La entropía es la medida cuantitativa de ese tipo de proceso espontáneo: cuánta energía ha fluido desde su localización hasta su mayor difusión (a una temperatura específica).

De hecho, la pregunta “¿Qué es la entropía?” Es frecuentemente planteada por los estudiantes, con la implicación de que nadie realmente lo sabe. Esta sección se ha incluido en un intento de dar una idea de los aspectos cualitativos y filosóficos del concepto de entropía e ilustrar la amplia aplicación de la entropía a muchas disciplinas diferentes.

Primero, recordamos que el concepto de energía surge de la primera ley de la termodinámica y el concepto de entropía de la segunda ley de la termodinámica. En realidad, es tan difícil responder la pregunta “¿Qué es la energía?” Como responder la pregunta “¿Qué es la entropía?” Sin embargo, dado que usamos regularmente el término energía y podemos relacionar este término con los fenómenos que observamos todos los días. , la palabra energía tiene un significado definido para nosotros y, por lo tanto, sirve como un vehículo efectivo para el pensamiento y la comunicación. La palabra entropía podría servir en la misma capacidad. Si, cuando observamos un proceso altamente irreversible (como enfriar el café colocando un cubo de hielo en él), dijimos: “Eso seguramente aumenta la entropía”, pronto estaríamos tan familiarizados con la palabra entropía como lo estamos con la palabra energía . En muchos casos, cuando hablamos de una mayor eficiencia, en realidad estamos hablando de lograr un objetivo dado con un aumento total menor en la entropía.

Un segundo punto a destacar con respecto a la entropía es que en termodinámica estadística, la entropía de la propiedad se define en términos de probabilidad. Aunque este tema no se examinará en detalle en este libro, algunas breves observaciones sobre la entropía y la probabilidad pueden resultar útiles. Desde este punto de vista, el aumento neto de la entropía que ocurre durante un proceso irreversible puede asociarse con un cambio de estado de un estado menos probable a un estado más probable.

Para vincular la entropía un poco más a la física y al nivel de desorden o caos, consideremos un sistema muy simple. Propiedades como U y S para una sustancia en un área de estado dada promediada sobre muchas partículas en el nivel molecular, por lo que ellos (átomos y moléculas) no existen en el mismo estado cuántico detallado. Hay varias configuraciones diferentes posibles para un estado dado que constituye una incertidumbre o caos en el sistema. El número de configuraciones posibles, w , se denomina probabilidad termodinámica , y cada una de ellas es igualmente posible; esto se usa para definir la entropía como

S = k ln w

donde k es la constante de Boltzmann, y es a partir de esta definición que S está conectado a la incertidumbre o al caos. Cuanto mayor sea el número de configuraciones posibles, mayor es S. Para un sistema dado, tendríamos que evaluar todos los estados cuánticos posibles para energía cinética, energía rotacional, energía vibratoria, y así sucesivamente para encontrar la distribución de equilibrio y w.

Aquí hay un video del MIT, sobre Entropía. Puede obtener una buena idea de Entropía de ella.

Entropía y probabilidad

La presentación de la termodinámica de ingeniería proporcionada en este libro tiene una visión macroscópica , ya que trata principalmente del comportamiento general o general de la materia. Los conceptos macroscópicos de la termodinámica de ingeniería introducidos hasta ahora, incluida la energía y la entropía, se basan en definiciones operativas cuya validez se muestra directa o indirectamente a través de la experimentación. Aún así, los conocimientos sobre energía y entropía pueden resultar de considerar la microestructura de la materia. Esto trae consigo el uso de probabilidad y la noción de desorden .

En termodinámica estadística, la entropía se asocia con la noción de trastorno microscópico . Un proceso ny que aumenta el número de posibles microestados de un sistema aumenta su entropía y viceversa. Por lo tanto, para un sistema aislado , los procesos ocurren solo en una dirección tal que aumenta el número de microestados disponibles para el sistema, lo que resulta en que tengamos menos conocimiento sobre la condición de las partículas individuales. Debido a este concepto de disminución del conocimiento, la entropía refleja el trastorno microscópico del sistema. Entonces podemos decir que los únicos procesos que puede sufrir un sistema aislado son aquellos que aumentan el desorden del sistema.

La noción de entropía como medida del desorden a veces se usa en campos distintos de la termodinámica. El concepto se emplea en teoría de la información, estadística, biología e incluso en algunos modelos económicos y sociales.

Una fuente adicional de confusión para cualquier persona fuera de la química o la física se debe a los matemáticos brillantes pero irreflexivos. Decidieron que sería divertido nombrar una nueva función matemática muy importante como “entropía” de comunicación porque “nadie sabe qué es realmente la entropía [termodinámica], por lo que en un debate siempre tendrá la ventaja”. (Esa cita es de John von Neumann hablando con Claude Shannon ( Sci. Am. 1971 225 , 180.) Durante el último medio siglo esto ha resultado ser una broma cruel y práctica impuesta a generaciones de científicos y no científicos porque muchos autores han mezclado completamente la “entropía” de la información y la entropía termodinámica. No son ¡lo mismo!

Fuentes:

  • La entropía es simple … ¡si evitas los parches de brezo!
  • Amazon.in: termodinámica: un enfoque de ingeniería.
  • Fundamentos de la termodinámica – Claus Borgnakke, Richard E. Sonntag
  • Fundamentos de la termodinámica de la ingeniería, 7a edición -Michael J. Moran, Howard N. Shapiro, Daisie D. Boettner, Margaret B. Bailey
  • Entropía

Vista física de la entropía: –

Físicamente, la entropía es un trastorno de un sistema y sus alrededores.

Básicamente, en el nivel microscópico, ocurre cuando se produce transferencia de calor porque el calor es una energía cuando se mueve. Ocurren algunos movimientos adicionales, por ejemplo: fricción molecular, vibración molecular, desplazamiento interno de la molécula, momento de rotación, energía cinética, etc. no puede transformarse completamente en trabajo. Este movimiento adicional crea caos en el sistema y sus alrededores. Es por eso que algunas veces la entropía se llama la medida del caos.

Para este caos microscópico se produce un nivel macroscópico que se produce debido a algunas irreversibilidades innecesarias, por ejemplo, fricción, expansión sin manchas, mezcla de fluidos, resistencia eléctrica, deformación inelástica de sólidos, reacción química y transferencia de calor innecesaria en diferencia de temperatura finita. Notó que este tipo de pérdida de energía no se puede recuperar, por lo que el sistema y sus alrededores no pueden llegar a su estado inicial sin un trabajo adicional realizado. Por lo tanto, la entropía se llama la medida de irreversibilidades. Por esta causa, el calor no puede transformarse completamente en trabajo

En la vida real, todo tipo de proceso tiene este tipo de pérdida macroscópica y microscópica. Entonces, en realidad, todos y cada uno de los procesos termodinámicos son procesos irreversibles.

Definición matemática desde un punto de vista microscópico (ecuación de Boltzmann): –

Ahora, podemos ver que, cuanto más aumenta la entropía, más el sistema se vuelve caótico o irreversible. Como resultado, el sistema se sale de control. Este hecho de control puede estar relacionado con el aspecto de probabilidad.

Supongamos que dos sistemas A y B están en la misma temperatura T, un sistema A tiene más entropía que B como resultado, el sistema A tiene menos posibilidades (probabilidad) de convertirse en trabajo útil del calor que el sistema B.

Por lo tanto, considere que el valor de la entropía depende de la probabilidad de alcanzar ese microestado, ya que no podemos decir exactamente. Entonces, podemos definir la entropía como una función arbitraria de probabilidad, ya que no sabemos qué es exactamente esa función . Ahora, denotamos Probability Ω, que es el número de todos los microestados posibles.

Por lo tanto, S = f (Ω)

para el sistema A y B, S1 = f (Ω1) y S2 = f (Ω2)

Ahora de la teoría de la probabilidad si dos eventos ocurren simultáneamente entonces

Entonces, si ponemos ambos sistemas juntos, entonces la entropía total es S = S1 + S2

Ahora, probabilidad de llegar a todo el sistema, Ω = Ω 1 * Ω2

Entonces f (Ω) = f (Ω1) + f (Ω2)

=> f (Ω1 * Ω2) = f (Ω1) + f (Ω2)

tomando una diferenciación parcial con respecto a Ω1 y Ω2 obtenemos ,

Ω2 * ∂ / ∂Ω1 {f (Ω1 * Ω2)} = ∂ / ∂Ω1 {f (Ω1)}

Ω1 * ∂ / ∂Ω2 {f (Ω1 * Ω2)} = ∂ / ∂Ω2 {f (Ω2)}

Por lo tanto, Ω2 / Ω1 = ∂ / ∂Ω1 {f (Ω1)} / ∂ / ∂Ω2 {f (Ω2)}

Entonces vemos que, Ω * ∂ / ∂Ω {f (Ω)} es constante para cualquier sistema.

Por lo tanto, Ω * ∂ / ∂Ω {f (Ω)} = C, C es una constante arbitraria.

=> ∂ / ∂Ω {f (Ω)} = C / Ω

=> ∫ ∂ / ∂Ω {f (Ω)} dΩ = C * ∫ dΩ / Ω

=> f (Ω) = C ln (Ω) + C * M, M es una constante integral.

=> S = C ln (Ω) + C * M

Ahora, cuando todo el sistema está bajo control, lo que significa S = 0 , podemos conocer fácilmente el estado de la energía, por lo que la probabilidad de microestado Ω = 1

así obtenemos, M = 0

Por lo tanto, definimos, S = C ln (Ω)

para todo el gas ideal C = k que es constante de Boltzmann , k = R / N

Definición matemática desde un punto de vista macroscópico (desigualdad de Clausius): –

Segunda ley de la termodinámica:

Consideremos un sistema dado a continuación,

que se conoce como Clausius Inequity.

Por lo tanto, para todo proceso irreversible o cualquier proceso termodinámico de la vida real.

dS> ∫ (δQ / T)

para cambio total de entropía, S2 -S1> ∫ (δQ / T)

Como sabemos que todos y cada uno de los sistemas tienen cierta pérdida de energía y todos son internamente irreversibles .

(Nota: internamente reversible es aquello para lo cual no hay irreversibilidades presentes en el sistema. Las irreversibilidades pueden ubicarse en los alrededores. Prácticamente, no se define fricción interna Internamente reversible ).

Todos y cada uno de los sistemas en un proceso termodinámico generan una cantidad finita de Entropía σ por alguna causa conocida o desconocida.

así, para el cambio de entropía, S2 -S1 = ∫ (δQ / T) + σ donde σ se llama generación de entropía.

El cambio de entropía depende del estado del proceso, pero la generación de entropía depende de la irreversibilidad del proceso.

Para cualquier proceso irreversible, incluso para el proceso irreversible adiabático (no se produce transferencia de calor) σ> 0, por lo que el cambio de entropía puede ser mayor que cero debido a la generación de entropía.

Pero para un proceso reversible, incluso para un proceso reversible adiabático, σ = 0, entonces la generación de entropía es cero.

Wikipedia (bajo Teoría de la información) tiene un ejemplo simple que puede ser más fácil de entender.
http://en.wikipedia.org/wiki/Ent

“Considere lanzar una moneda con probabilidades conocidas, no necesariamente justas, de sacar cara o cruz.
La entropía del resultado desconocido del próximo lanzamiento de la moneda se maximiza si la moneda es justa (es decir, si las caras y las colas tienen la misma probabilidad 1/2). Esta es la situación de máxima incertidumbre, ya que es más difícil predecir el resultado del próximo lanzamiento; El resultado de cada lanzamiento de la moneda entrega 1 bit completo de información.
Sin embargo, si sabemos que la moneda no es justa, pero sale cara o cruz con las probabilidades p y q , entonces hay menos incertidumbre. Cada vez que se tira, es más probable que aparezca un lado que el otro. La incertidumbre reducida se cuantifica en una entropía más baja: en promedio, cada lanzamiento de la moneda entrega menos de un bit completo de información.
El caso extremo es el de una moneda de doble cara que nunca sale cara, o una moneda de doble cola que nunca da como resultado una cara. Entonces no hay incertidumbre. La entropía es cero: cada lanzamiento de la moneda no entrega información. A este respecto, la entropía se puede normalizar dividiéndola por la longitud de la información. La medida se llama entropía métrica y permite medir la aleatoriedad de la información “.

En termodinámica, la entropía (símbolo habitual S) es una medida del número de realizaciones específicas o microestados que pueden realizar un sistema termodinámico en un estado definido especificado por variables macroscópicas. La mayoría entiende la entropía como una medida del desorden molecular dentro de un sistema macroscópico. La segunda ley de la termodinámica establece que la entropía de un sistema aislado nunca disminuye. Tal sistema evoluciona espontáneamente hacia el equilibrio termodinámico, el estado con máxima entropía. Los sistemas no aislados pueden perder entropía, siempre que aumenten la entropía de su entorno en ese incremento. Dado que la entropía es una función de estado, el cambio en la entropía de un sistema es constante para cualquier proceso con estados iniciales y finales conocidos. Esto se aplica si el proceso es reversible o irreversible. Sin embargo, los procesos irreversibles aumentan la entropía combinada del sistema y su entorno.

El cambio en la entropía (ΔS) de un sistema se definió originalmente para un proceso termodinámicamente reversible como
\ Delta S = \ int \ frac {\ delta Q_ \ text {rev}} T,
donde T es la temperatura absoluta del sistema, dividiendo una transferencia incremental reversible de calor en ese sistema (δQrev). (Si el calor se transfiere, el signo se revertiría dando una disminución en la entropía del sistema). La definición anterior a veces se denomina definición macroscópica de entropía porque puede usarse sin tener en cuenta cualquier descripción microscópica del contenido de un sistema. Se ha encontrado que el concepto de entropía es generalmente útil y tiene varias otras formulaciones. La entropía se descubrió cuando se observó que era una cantidad que se comportaba como una función del estado, como consecuencia de la segunda ley de la termodinámica.

La entropía es una propiedad extensa. Tiene la dimensión de la energía dividida por la temperatura, que tiene una unidad de julios por kelvin (JK − 1) en el Sistema Internacional de Unidades (o kg m2 s − 2 K − 1 en términos de unidades base). Pero la entropía de una sustancia pura generalmente se da como una propiedad intensiva: entropía por unidad de masa (unidad SI: JK − 1 kg − 1) o entropía por unidad de cantidad de sustancia (unidad SI: JK − 1 mol − 1).

La entropía absoluta (S en lugar de ΔS) se definió más tarde, utilizando mecánica estadística o la tercera ley de la termodinámica.

En la interpretación microscópica moderna de la entropía en la mecánica estadística, la entropía es la cantidad de información adicional necesaria para especificar el estado físico exacto de un sistema, dada su especificación termodinámica. Comprender el papel de la entropía termodinámica en varios procesos requiere una comprensión de cómo y por qué esa información cambia a medida que el sistema evoluciona desde su condición inicial a su condición final. A menudo se dice que la entropía es una expresión del trastorno, o la aleatoriedad de un sistema, o de nuestra falta de información al respecto. La segunda ley ahora se ve a menudo como una expresión del postulado fundamental de la mecánica estadística a través de la definición moderna de entropía.

ENTROPIA GENERAL Y ENTROPIA ESPECIAL

Estrictamente en términos termodinámicos, la entropía negativa solo se puede producir en agujeros negros donde la materia en estado de masa se transfiere a la materia en estado de energía.

En todas las condiciones normales, la energía siempre se disipa. Mientras la materia en estado de masa se transfiere de esta energía disipada y se hace cada vez más complicada. Y en este proceso, la información se crea y se hace cada vez más ordenada y complicada (que incluye información de proceso e información efectiva).

En la naturaleza, este proceso de disipación de energía crea una estructura disipativa en diferentes niveles: nuestros sistemas de soporte termodinámico (p. Ej., Galaxia, sistema solar, tierra), ecosistema y vida. Todos se están ordenando a sí mismos de forma natural, pero todos tienen que tomar energía de su entorno para ingresar en su propio proceso de pedido para que este proceso de pedido suceda y se mantenga.

En las estructuras hechas por el hombre, incluida la sociedad humana, que también es una estructura disipativa, funciona de la misma manera termodinámicamente: también tiene que tomar energía de su entorno para ingresar en su propio proceso de orden para mantenerla. Pero las estructuras disipativas hechas por el hombre difieren de la estructura disipativa natural en que: los sistemas naturales están ordenados naturalmente por procesos naturales que están dirigidos por leyes naturales, mientras que los sistemas hechos por el hombre están ordenados por el pensamiento y los esfuerzos racionales. Los únicos efectos que los procesos naturales imponen sobre los sistemas hechos por el hombre, las estructuras hechas por el hombre, son destrucciones; mientras que los únicos efectos de cualquier interferencia humana impuesta en los sistemas naturales también serán destructivos.

Los sistemas naturales y los sistemas artificiales son consumidores de energía. Ambos tienen que tomar energía del medio ambiente e insumos en sus procesos de pedido. Su diferencia está en su entrada de información: la naturaleza no necesita planificar sus acciones, pero tiene sus leyes que son las reglas para dirigir cada movimiento de cualquier asunto. Si bien estos movimientos son causados ​​y potenciados por el movimiento fundamental del universo: masa fundamental – transformación de energía (y ese movimiento de transformación es auto causante, autoinductivo y autoajustable). Tiene su poder para conducirlo y tiene sus reglas para dirigirlo. Y eso es todo lo que necesita. Nada más. Cualquier interferencia humana en él causará efectos desordenadores más o menos.

Si bien los procesos de ordenamiento de los sistemas creados por el hombre (estructuras disipativas hechas por el hombre) solo pueden introducir el pensamiento racional para dirigirlos. Cualquier tendencia natural, proceso natural está haciendo un trabajo destructivo en ellos.

Entonces, decir que los procesos de ordenamiento de los sistemas creados por el hombre están impulsados ​​por la entropía negativa es usar su significado especial: usar su significado de entropía de información, hablar de este tema en términos de entropía de información. Asegúrese de no mezclarlo con el significado general de entropía: entropía termodinámica. Son cosas diferentes.

La entropía cada vez mayor se aplica a todas las condiciones normales en términos termodinámicos. Todas las estructuras disipativas, incluidas las formas de vida, no están exentas de esto. Nunca produjeron ninguna entropía negativa; simplemente toman energía de su entorno para ponerla en sus procesos de autoordenamiento para contrarrestar otra tendencia natural: la descomposición. Ordenar en la naturaleza es una tendencia natural impulsada por la disipación de energía y dirigida por el principio de eficiencia. La sociedad humana en su etapa superior de desarrollo es una forma especial de estructura disipativa, su ordenamiento no es una tendencia natural, sino que también está impulsada por la disipación de energía y dirigida por el principio de eficiencia (aunque está dirigida por el principio de eficiencia en la versión humana: pensamiento racional).

Aunque la entropía termodinámica y la entropía de la información son conceptos diferentes, pero comparten una propiedad fundamental: la entropía negativa termodinámica (o digamos disminución de la entropía) indica un valor real y la entropía negativa de la información también indica un valor real (o digamos que es equivalente al valor real). A partir de sus funciones, podemos descubrir que producen el mismo producto resultante: producen valor real. Cuando disminuye la entropía termodinámica, se crea un valor real. Cuando se reduce la entropía de la información (o digamos que se introduce una entropía de información negativa), también se crea un valor que no es un valor real pero que puede ser equivalente e intercambiable con el valor real. Dejemos que el autor lo llame valor informativo por el momento para que podamos usar este concepto más fácilmente. Entonces, la entropía negativa termodinámica y la entropía de información negativa son equivalentes e intercambiables en el valor que representan. Aunque tienen diferentes funciones, los resultados finales que logran son los mismos.

Eso significa que el pensamiento racional humano y la entrada de esfuerzos en un proceso son equivalentes a la ganancia (no estoy seguro) / o el mantenimiento de miles o millones de años de logros de evolución natural que la naturaleza nos puede dar cuando hacemos lo correcto (que es el valor eso se mide por la energía, su sistema de soporte termodinámico se disipa durante este período de evolución).

La misma razón, las ideas erróneas y los esfuerzos incorrectos introducidos en un proceso son equivalentes a la pérdida o destrucción de miles o millones de años de logros de evolución natural (que es el valor que se mide por la energía que su sistema de soporte termodinámico se disipa durante este período de evolución). ) Por ejemplo, el uso humano de la energía geotérmica significa que perderemos 2 mil millones de años – 400,000 años = 1,999,600,000 años de tiempo efectivo de evolución en la Tierra. Esta idea equivocada nos hace disfrutar de 400,000 años de energía fácil pero perdimos 1.9996 mil millones de años de nuestro tiempo efectivo de evolución para alcanzar la existencia perpetua y el desarrollo hacia el futuro. Otro ejemplo es el “principio de gestión anti-riesgo” que la gente usa ahora para hacer un compromiso conveniente con las tendencias naturales (o decir ganar dinero): acabo de escuchar esto del programa de televisión “Catalyst” y estoy muy de acuerdo con los científicos: “cuando sale un nuevo químico, si aún no ha sido probado por millones de víctimas humanas de enfermedad o muerte, se presume como inocente y puede ser producido y utilizado por personas hasta que décadas de prueba en toda la sociedad demuestren lo contrario ”(rasgo característico humano es la capacidad de prever lo que podría suceder y sopesar los beneficios y pérdidas, luego planificar con anticipación, pero esta metodología es lo contrario). “Si se sabe que un químico es dañino, dele un valor de concentración oficialmente permitido y déjelo libre en el mercado hasta que sus nietos acumulados e irreversibles aparezcan en nuestros nietos” (no pueden verme y no puedo saber nada de ellos) para entonces). “No debe haber una concentración permitida de productos químicos nocivos porque pueden tener efectos acumulativos y a largo plazo”. Permítanme agregar algunos más: obtuve el dinero que obtuvieron por la contaminación, estaré bien (todos están en el mismo entorno, nadie puede realmente aislarse de él). Contamine primero, luego luego [Eso no tiene sentido termodinámico. La contaminación química causó desorden de la información biológica en las vidas y el ecosistema, lo que será equivalente a la pérdida de miles o millones de años de tiempo efectivo de evolución. La información biológica desordenada pasará su efecto negativo en nuestra información de pensamiento (un cerebro disfuncional no funcionará correctamente). Pensar mal dirigirá un mal hacer que arruinará nuestro futuro. Y de causa los efectos negativos de la contaminación no solo afectarán a una o dos generaciones; nos afectará mucho más que eso. Los efectos negativos se harán eco en el sistema y entre los sistemas para amplificar sus efectos]. Use una pequeña parte del dinero ganado por la contaminación para desollar el ambiente dañado más tarde (eso nunca funcionará, porque el daño causado al medio ambiente es irreversible y también la pérdida es miles de veces más que el dinero que puede ganar del contaminación). Hay muchos de ellos. Los lectores pueden encontrar más ejemplos.

La historia de la vida ha demostrado que la contaminación no es una parte necesaria de nuestra vida. Evolucionamos bien sin ellos antes, y podemos evolucionar mejor sin ellos para siempre.

Nuestra historia debe terminar como cualquier cuento de hadas: “Viven juntos felices para siempre” (sin contaminaciones, por supuesto).

La información efectiva es el producto de la disipación de energía. Cuando se ingresa información avanzada y efectiva en el proceso de evolución, se acelerará (no estoy seguro) / se mantendrá cerca de su ley natural de máxima eficiencia permitida para este proceso. Eso es equivalente a la entrada (no estoy seguro) / manténgase cerca de su tiempo de evolución efectivo máximo permitido por la ley natural (cuyo valor se mide por la disipación de energía por su sistema de soporte termodinámico en ese período).

El aumento de la eficiencia de este proceso mediante el pensamiento racional y los esfuerzos estará limitado por la ley natural (termodinámicamente y biológicamente posible), pero la disminución de la eficiencia de este proceso por el pensamiento y los esfuerzos irracionales será ilimitado en el sistema por la ley natural (el fondo) es la destrucción del sistema). Eso significa: si haces lo correcto, puedes quedarte con lo que puedas obtener; Si hace algo incorrecto, puede perder lo que posiblemente pueda perder (en su sistema, incluidos sus sistemas de apoyo social, ecológico y termodinámico).

Un ejemplo, un alpinista hace todas las cosas correctas que puede alcanzar con éxito en la cima en el menor tiempo posible y de manera segura. Si hace algo incorrecto, el peor escenario es caerse de la colina y morir en el proceso y trajo algunas rocas con él y destruyó algunos árboles jóvenes en el camino.

Otro ejemplo, los humanos hacen todas las cosas correctas que podemos alcanzar con éxito al nivel para sobrevivir independientemente sin la Tierra y lograr la existencia perpetua en 1 a 2 mil millones de años. Aunque teletransportarse humano en 500 años o acortar el espacio a través de un agujero de gusano o espacio-tiempo doblado es imposible. Si hacemos lo incorrecto, el ser humano no podrá lograr la existencia perpetua. Nuestra cadena de vida se cortará en un cierto anillo en el futuro y nosotros, los humanos, se convertiremos en una pieza de información de proceso y desaparecerá. Los miles de millones de años de disipación de energía del Sol estarán en furgoneta. No produjo una salida de información efectiva de este proceso.

“La disminución de la eficiencia de este proceso por el pensamiento irracional y los esfuerzos serán ilimitados en el sistema por ley natural”, significa: podemos destruir la Tierra, hacer que los miles de millones de años de disipación de energía del Sol en furgoneta; pero al menos no podemos salir a arruinar otros sistemas adecuados para la vida. Esos son los mecanismos que la naturaleza usa para prohibir que la civilización primitiva destruya el universo.

En el contexto de la teoría de la información:

Si Alice elige un número x entre 1 y n de acuerdo con una distribución conocida X, y Bob identifica x usando preguntas Sí / No. Bob se pregunta cómo minimizar el número de preguntas Sí / No para identificar x. Por ejemplo, ¿es x = 10? ¿Es x <50?

La respuesta óptima está dada por la función H basada en 2 parámetros, tomando H_b (x, P) preguntas en promedio donde b = 2 para preguntas binarias Sí / No.

En el contexto de la física:

Piense en la cantidad de lugares en los que se pueden colocar todas las partículas de aire en una habitación, si se colocan todas de manera ordenada, por ejemplo, todas en una esquina, la cantidad de lugares en que las partículas se verían igualmente ordenadas sería muy baja (solo en otras 7 esquinas si no se descuenta la simetría). Sin embargo, si todas las partículas se dispersaron al azar en la habitación, se dice que la habitación está en alta entropía porque se verá estadísticamente aleatoria de manera similar a cualquier otra configuración estadísticamente aleatoria.

Los límites de la entropía de Shannon:

Hay que tener mucho cuidado con la entropía, tanto medirla como un concepto. Al medir la entropía, se requiere uno para tomar decisiones arbitrarias, algunas se pueden eludir, como la unidad de granularidad, tomando lo que se llama la tasa de entropía (básicamente teniendo en cuenta todas las granularidades posibles), pero algunas otras limitaciones son insuperables. Por ejemplo, uno tiene que hacer una elección arbitraria sobre cómo describir eventos, ¡porque Entropía no es invariable en la forma en que puede describir el mismo objeto! Y esta es una limitación aún mayor a la limitación común y generalmente reconocida de que para medir la entropía y tener sentido, uno tiene que conocer el dominio del problema, es decir, todos los demás objetos o eventos en el conjunto de intereses y su distribución, para el cual la entropía tampoco es independiente.

Sin embargo, la entropía es una función extremadamente simple, básicamente cuenta (con un logaritmo involucrado) la cantidad de cosas que tienen ciertas propiedades o la cantidad de características de interés, y nada más. Para ver cómo funciona o falla la entropía, he escrito un artículo que muestra cómo la entropía se puede aplicar al mismo gráfico y los valores divergen para diferentes descripciones sin pérdida, consulte [1608.05972] Gráficos engañosos de entropía de baja complejidad algorítmica

En resumen, si bien la entropía es una medida interesante, cuyo objetivo original era solo cuantificar el tamaño de un canal de comunicación, no es una propiedad intrínseca de un objeto o evento, ya que depende de una distribución, pero además puede dar valores contradictorios a medida que usted cambia la descripción del mismo objeto, sin perder ni nada de información en las descripciones, y por lo tanto es una medida muy frágil y no universal que se ha utilizado y abusado en gran medida.

La entropía de un sistema es, aproximadamente, el número de estados diferentes en los que puede estar el sistema. Por lo tanto, es solo un número que puede calcular si observa el sistema. Es una propiedad del sistema y no una cosa física hecha de algún material físico.

Como analogía, puede ir a su cocina y contar la cantidad de platos sin lavar en el fregadero. Ese también es un número que es propiedad del sistema (su cocina). Pero seguramente no tiene ningún sentido preguntar “de qué cantidad de platos sucios están hechos” …

(Para ser perfectamente claro y evitar confusiones, aquí estoy preguntando de qué está hecho el número en sí , no los platos en sí. Así que esto es exactamente como preguntar “de qué está hecha la entropía de los platos sucios”).

No entendí la pregunta correctamente. ¿Querías decir cómo es significativo en el mundo físico, o cómo se puede observar la entropía en el mundo físico? De todas formas.

Como todos sabemos, la segunda ley de la termodinámica habla de la entropía, que comúnmente se conoce como la medida del orden de desorden o aleatoriedad. La segunda ley de la termodinámica nos dice que la cantidad total de energía interna de cualquier sustancia no es convertible en trabajo útil. Una parte de esta energía que se utiliza para realizar un trabajo útil se llama energía disponible. La parte restante de la energía que no se puede convertir en trabajo útil se llama energía no disponible. Entonces, aquí puede medir la entropía como energía no disponible por unidad de temperatura.

El aumento de la entropía implica una transición de un estado ordenado a uno menos ordenado o más desordenado. Un ejemplo muy básico sería un vaso lleno de agua, donde el agua dentro del vidrio se limita a su entorno y está en algún orden. Ahora, si derrama el agua del vaso sobre el piso, el agua estará en un estado más desordenado o aleatorio.

Ahora la pregunta del millón sería si el universo realmente favorece el desorden o la aleatoriedad. Considere un ejemplo muy básico, si lanza una moneda obtendrá una cabeza o una cola, solo hay una probabilidad de 50-50. Si lanzas dos monedas, entonces hay 1 en cuatro posibilidades de que obtengas ambas cabezas o ambas colas, pero hay 2 en cuatro posibilidades de que obtengas una cabeza y una cola. Ves el patrón. El desorden es más frecuente de lo ordenado.

Es realmente una muy buena pregunta Bhavika …

Estaré encantado de responder esto basado en mi mejor conocimiento …

entonces,

Si te digo de manera simple, la entropía es la cantidad de energía que existe pero no podemos usarla … por ejemplo, si tiene millones de libros en una habitación de manera aleatoria y para el momento en que necesite uno de ellos … tomará toda su vida para comprender dónde estará …

porque la entropía de la habitación es muy alta … La entropía es mucho menor … cuando piensas en cualquier gran biblioteca posible …

El concepto de entropía viene dado por la Segunda Ley de la Termodinámica … una de las afirmaciones es que … no podemos construir un dispositivo que pueda proporcionar una eficiencia del 100% … porque siempre habrá pérdida de energía … y la razón de esto es ir -reversibilidad .. producida por Friction durante diferentes operaciones ..

Como saben, la energía no puede crearse ni destruirse … entonces la pérdida de energía existirá en algún lugar y no tenemos idea sobre … esto es aleatoriedad y se mide por ENTROPIA

Si solo habla sobre el sistema, entonces puede ser cero o incluso negativo también … pero como un sistema completo + entropía circundante … no podemos hacerlo negativo … pero cero en el caso ideal puede ser posible …

dS = Q / T

Si agrega cualquier cantidad de calor en cualquier cosa, solo aumentará la entropía.

y cada una de nuestras actividades … cada máquina está transfiriendo energía térmica residual a nuestro medio ambiente y está liderando un aumento continuo de la entropía …

Y se llama aumento principal de la entropía que “no se puede realizar ninguna actividad que pueda reducir la entropía del universo” Los humanos están haciendo su trabajo para la comodidad y el progreso … solo estamos tratando de agregar un mínimo.

Espero que sea útil para usted. Le sugeriré que lea el libro “Termodinámica de Yunus A. Cengel y Michael A. Boles”.

Esta pregunta se hace, una y otra vez … A pesar de que hay una buena función de búsqueda de Quora. De todos modos, hay innumerables variaciones de “entropía”, todo lo cual significa algo diferente. Ejemplos son

E termodinámica (una medida de disipación de energía sin restricciones (J) sobre la temperatura (K), es decir , una cantidad de J / K);

Información E (una medida de “incertidumbre de la información” en un mensaje recibido (o resultado del evento), en número de bits (dígitos binarios)); y

Agujero negro E (hay al menos diez teorías diferentes sobre cómo llegar a este número, una de las más populares dice:

BH entropía S = A / (4 [matemáticas] _P ^ 2 [/ matemáticas]),

donde A es el “área de superficie” de BH y [matemáticas] _P [/ matemáticas] es la longitud de Planck. Sorprendentemente (!), S también está en unidades de J / K. Esta fórmula se atribuye a Bekenstein-Hawking , y es solo uno de los muchos (y muy diferentes: los resultados abarcan más de 35 órdenes de magnitud) cálculos de “entropía” BH).

Hay varios más. Consulte ¿Cuál es la definición más fácil de “entropía”?

Una cosa a tener en cuenta: la entropía nunca se trata de “desorden”. No importa lo que te digan los autores de Wikipedia.

Si supiéramos cómo rebobinar un universo, o configurar uno, entonces estaría en todas las noticias. Nosotros no Así que deja de preguntar y sé paciente como el resto de nosotros. Nadie sabe por qué las cosas existen y probablemente nunca puedan existir, porque esa pregunta es más que probable que no tenga respuesta. Lo que hacemos es, en primer lugar, estudiar lo que existe y también cómo existe. La idea básica de la termodinámica es muy simple. Lo que llamamos universo está concentrado y, en general, se está concentrando menos. Si enrollas un resorte, estás concentrando energía, pero debes tener un resorte más grande para enrollar uno más pequeño, por lo que, en última instancia, todos tus resortes se están volviendo más pequeños. ¿Consíguelo?

Mire, todas esas cosas que está tratando de aportar sobre los átomos y el “orden”, sea lo que sea que piense que eso significa, es irrelevante. No encontrarás la respuesta en los detalles. Podrías ser un extraterrestre que lidia con zonkowups y plottygobbles, va a terminar con la misma historia. Es como lo dije. La energía se reduce y se vuelve menos utilizable. Palabras como “entropía” son solo medidas de eso.

Lo mejor que puedo hacer es mostrarle cómo esa medida parece ser válida. Sin embargo, tampoco es seguro que la medida de entropía que usamos comúnmente sea la mejor para el trabajo. También podemos mostrar cómo funciona la evolución del tiempo en la teoría cuántica, pero eso comienza a ser más difícil de entender, por lo que es más largo de explicar.

La experiencia más común de comportamiento energético que encontramos en el mundo cotidiano es la vida en la tierra alimentándose del flujo de energía del sol. Fue en las máquinas de calor y vapor donde la idea de energía recuperable se volvió importante, donde la entropía es sinónimo de recuperabilidad.

Si tiene la suerte de recibir capacitación en química, al principio le sorprende descubrir que esta propiedad de recuperación de la energía en el universo puede equipararse más o menos con un cierto sentido de “orden” en las propiedades energéticas de los átomos y las moléculas que transportan energía. Después de todo, tiene unidades de energía por grado de temperatura, pero no hay nada allí que insista en que un átomo debe estar involucrado. También encontrará que la idea de “orden” y “desorden” realmente no capta la intuición correctamente. Hay muchos documentos que puedes encontrar donde los científicos en ejercicio se quejan amargamente de eso como una interpretación también. Es más bien como “La escalera de Wittgenstein”, mentiras para niños. La intuición adecuada es más acerca de la disponibilidad frente a la libertad de energía, por lo que estamos tratando con las cualidades de la energía, una cualidad particular de la energía que extiende la intuición de lo que realmente queremos decir con energía.

El otro punto a destacar desde el principio es que las medidas de entropía utilizadas en termodinámica son propiedades físicas, con unidades. Pero aquí está el punto importante que a menudo se pasa por alto. De la teoría estadística cuántica emerge una constante fundamental. Cada vez que nos encontramos con una constante fundamental, da pausa. No estoy hablando de h, Planck es constante aquí. Estamos discutiendo la constante fundamental k, la constante de Boltzmann. Tiene las unidades físicas de entropía física, unidades de Joules por Kelvin. Hay un truco en física en el que puede elegir su punto de referencia para establecer constantes para tener el valor ultra conveniente de 1, y luego la entropía puede tratarse como una construcción de probabilidad adimensional en aras del cálculo.

Mientras que el químico que trabaja aprende a lidiar con la entropía como una propiedad física real. Puede ir a un libro y buscar los valores para diferentes sustancias. Esto no es solo un cálculo místico en una página de teoría, la entropía es práctica. Esos julios por Kelvin son verdaderos julios, verdaderos Kelvins. Más que eso, el concepto de energía determinista clásica se extiende en termodinámica a otras energías, “Gibbs Energy” o “Energía libre” tampoco es simplemente un cálculo seco, hay tablas reales con valores reales para cada químico en cada botella que tienen Utilidad inmediata. Después de todo, lo que importa no es solo la energía real contenida en un producto químico, lo que importa es la disponibilidad de esa energía y su capacidad de redistribuir entre las botellas. Esta calidad de energía que nos preocupa, su capacidad de recuperación, es una propiedad física real que se puede calcular, medir, predecir y usar.

Se vuelve aún más interesante que la energía para un químico. El mismo flujo de argumentos se aplica a propiedades derivadas como la fuerza. El concepto de fuerza ahora tiene dos cuerdas en su arco. El concepto clásico de fuerza puede relacionarse con un gradiente espacial de energía, que en Einstein también dio una interpretación geométrica. Entonces, una calidad de energía (su disponibilidad) da lugar a una “calidad de fuerza de energía” o “fuerza entrópica” (y una interpretación geométrica correspondiente si sigues a Einstein).

Esto puede parecer otro giro extraño a la historia, pero si está pensando que no hay mucha importancia práctica para esto, piénselo de nuevo. El químico está interesado en las propiedades de las macromoléculas. Desde el caucho hasta los biopolímeros, la disponibilidad entrópica de energía varía directamente con el número de posibles conformaciones disponibles para las moléculas. La libertad de sacudir y sacudir se relaciona directamente con las propiedades físicas manifestadas en la materia. Si estira una banda elástica grande, luego la aplica a sus labios, puede notar un cambio de temperatura. Deja que se enfríe por un momento, luego relájate y vuelve a probarlo con tus labios. La resistencia al estiramiento es en parte una fuerza entrópica, la libertad molecular está involucrada y el efecto de enfriamiento es una forma de refrigeración.

Solo para volver a señalar, el número de posibles conformaciones per se no es relevante para la entropía. Lo que nos interesa es la cantidad de conformaciones posibles que implican la distribución de energía . Y solo entonces podemos vincular la construcción matemática de la probabilidad de los estados con la física de la energía, a través del factor de Boltzmann. Si va a hablar libremente de “orden” o “desorden”, está obligado a hablar en términos de estados . Y no cualquier estado en lo que respecta a la segunda ley. Los estados de energía disponibles es el nombre del juego .

También hay una serie de bloques de construcción conceptuales que debe tener en su lugar antes de poder apreciar esto correctamente. Estoy deliberadamente trabajando en el tema, porque al leer las preguntas aquí en Quora, descubro constantemente que muchas preguntas ya contienen conceptos erróneos, por lo que debemos asegurarnos de estar en la misma página. Debe comprender que la energía en los átomos y las moléculas es una mezcla de dos partes de potencial por una parte de cinética. Y son signos opuestos. Cuando se separan dos cargas atrayentes, ese sistema contiene energía. Es sobre todo potencial. A medida que las cargas se acercan, la energía potencial debe liberarse de alguna manera o simplemente no sucederá. Las órbitas se tensan y la energía cinética en la órbita aumenta, pero la energía general debe liberarse. Entonces, las reacciones entre los átomos que liberan la mayor cantidad de energía son las que se unieron más débilmente en primer lugar, pero después de la reacción están más fuertemente unidas. Este es un claro ejemplo en el que el proceso natural de pérdida de energía está asociado con un resultado aparentemente más limitado, unido a fuerzas más fuertes. Elvis (el fotón) ha abandonado el edificio. Entonces, ¿cómo podemos conciliar eso? Bueno, la entropía ha aumentado a pesar del átomo condensado que se está formando, porque la entropía también debe incluir las nuevas libertades que Elvis ha ganado. Él puede ser visto en los centros comerciales ahora 🙂

Bien, ahora hagamos un cálculo práctico de entropía solo para tener una idea de este aspecto. Primero haré uno que no esté relacionado con la energía, solo para darle una idea de la entropía. Por lo tanto, no será un ejemplo de entropía termodinámica, y no puedes interpretarlo como algo profundo relacionado con el universo de un reloj. Pero es solo un poco de matemática, los lingüistas y los informáticos usan los cálculos de entropía en otros contextos de todos modos, como la medición de información o las tasas de error, o sorpresa, y lo que no. Entonces, saber cómo hacer un cálculo de entropía es una pieza útil del kit.

P (juego) probabilidad de juego

S (juego) entropía para jugar

P (juego | lluvia) probabilidad condicional, juego dada la lluvia:

Todos los registros realizados en la base 2, para mayor comodidad.

Datos:

No soleado

No soleado

Si nublado

Si lluvia

Si lluvia

No llueve

Si nublado

No soleado

Si soleado

Si lluvia

Si soleado

Si nublado

Si nublado

No llueve

Cálculos de probabilidad:

P (juego) = 9/14

P (sin juego) = 5/14

P (juego | lluvia) = 3/5

P (sin juego | lluvia) = 2/5

P (jugar | sin lluvia) = 6/9

Y puedes hacer cosas como P (lluvia | jugar) y así sucesivamente.

¿Qué significan los siguientes cálculos de entropía?

S = -9/14 log (9/14) -5/14 log (5/14) = 0.94

S (lluvia) = -3/5 log (3/5) -2/5 log (2/5) = 0.971

S (nublado) = -4/4 log (4/4) = 0 log (0) = 0

S (soleado) = -2/5 log (2/5) -3/5 log (3/5) = 0.971

O combínalos así:

S (juego | perspectiva) = -5/14 (0.971) -4/14 (0) -5/14 (0.971) = 0.694

Puede ver cómo esto se relaciona con la previsibilidad, en lugar de la probabilidad en sí misma. Si la probabilidad es siempre algún valor X, entonces ese valor es altamente predecible y la entropía es baja. No importa lo que X sea. Entonces, si está nublado, la entropía es cero.

Ahora tal vez podamos comenzar a ver qué está haciendo el universo. Comienza en una situación en la que los estados contienen información sobre los demás, donde la interacción tiene significado, pero todo evoluciona a una situación en la que los estados producen menos información sobre el otro.

Lo siguiente que probablemente debería hacer es mostrar cómo los cálculos de entropía se aplican a los niveles de energía cuántica en algún sistema. Eso le dará una mejor idea de cómo la entropía está involucrada en algunas transacciones de energía típicas, y cómo se relaciona con la forma en que los niveles de energía atómica y molecular siguen estos principios en sus asuntos diarios.

Luego, finalmente intentaré volver a conectarme con la termodinámica del trabajo y el calor, que es la conexión histórica con los refrigeradores y las máquinas de vapor, establecida mucho antes que los átomos y los modelos estadísticos.

Continuará