¿Qué es la entropía?

Entropía significa uno de los parámetros de estado de la materia utilizados para describir la "degradación de energía".

Entropía pinyin: shāng, explicación: 1. En termodinámica, es un número que representa la energía térmica que no se puede utilizar para realizar trabajo (es decir, el cociente del cambio de energía térmica dividido por la temperatura). 2. En ciencia y tecnología, generalmente se refiere a una medida del estado de ciertos sistemas materiales o el grado en que puede ocurrir el estado de ciertos sistemas materiales.

El concepto de entropía

El concepto de entropía fue propuesto por el físico alemán Clausius en 1865 y se utilizó originalmente para describir uno de los parámetros del estado material de "degradación de energía", es ampliamente utilizado en termodinámica.

Sin embargo, en 1948, Claude Elwood Shannon introdujo la entropía termodinámica en la teoría de la información, por lo que también se la llama entropía de Shannon. En teoría de la información, la entropía (inglés: entropía) es la cantidad promedio de información contenida en cada mensaje recibido, también conocida como entropía de información, entropía de fuente y autoinformación promedio.

Por tanto, la esencia de la entropía es el “grado inherente de caos” de un sistema. Ahora tiene importantes aplicaciones en los campos de la cibernética, la teoría de la probabilidad, la teoría de números, la astrofísica, las ciencias de la vida, etc., y también se ha extendido a definiciones más específicas en diferentes disciplinas. En esencia, según el pensamiento matemático, estas definiciones extendidas específicas. Todos ellos son autoconsistentes y unificados.