La entropía es un concepto de la física que designa la magnitud termodinámica del grado de desorden molecular presente en un sistema. Así, sirve para medir la relación entre la energía calórica y la temperatura, para conocer la cantidad de energía útil en un sistema. También es un concepto de la informática que señala la medida de incertidumbre que existe en un conjunto de mensajes.
El concepto de entropía surgió durante los estudios de termodinámica. Como tal, este concepto explica por qué algunos fenómenos no se concretan a pesar de respetar la conservación de energía. El mismo forma parte de la segunda ley de la termodinámica propuesta por Rudolf Clausius.
Dicha ley menciona que resulta imposible para una máquina autónoma transferir calor de un cuerpo a otro más caliente sin ayuda externa. Aunque el concepto de entropía como tal se trata de una definición más bien moderna de estos fenómenos. Así, la definición de entropía señala el número de microestados que son equivalentes a un macroestado en un sistema.
Otra definición de la entropía sirve para medir la probabilidad de encontrar un estado entre múltiples combinaciones que dan el mismo resultado. De esta forma, un estado con alto nivel de entropía cuenta con gran probabilidad de ocurrencia. Aquí es cuando se puede establecer la relación con el concepto de termodinámica antes mencionado.
Este concepto también se utiliza en la economía para designar el desorden que puede darse en un sistema sin regular. De acuerdo a algunos autores, el sistema económico tiende al caos cuando el Estado no interviene. Esto puede provocar que la situación económica en cuestión se convierta en una crisis, como sucedió durante la Gran Recesión, por ejemplo.
En estos casos de entropía económica, los especialistas consideran que deben tomarse fuertes medidas para regularizar la situación. Por ejemplo, durante la crisis estadounidense del 2008 la Reserva Federal realizó una política monetaria expansiva. Los economistas consideran que si no se aplicaban estas medidas la economía pudo sufrir mucho más.
Características y otras definiciones
La palabra entropía es de origen griego y se la puede definir como una vuelta o transformación en sentido figurado. Durante el siglo XIX, esta palabra fue acuñada como concepto de la física para señalar el desorden presente en las moléculas de un gas. Desde ese momento, este mismo concepto ha sido utilizado en distintas ciencias con diferentes significados.
En el ámbito de la informática, la entropía señala la cantidad de información que presentan los símbolos transmitidos. También hace referencia a la medida del desorden que presenta un sistema y se relaciona con el grado de homogeneidad. En química, la entropía se refiere a la forma en que se establece la formación de un compuesto químico.
Para la teoría de la información, la entropía sirve para medir la incertidumbre existente en un conjunto de mensajes. De esta manera, la entropía resulta de gran utilidad para eliminar o reducir dicha incertidumbre. Además, la entropía señala la cantidad de información contenida en los símbolos que se transmiten.
Formato para citar
"Entropía: Desorden, Probabilidad y sus Implicaciones en Física, Información y Economía". En: De Significados. Disponible en: https://designificados.com/entropia/ Consultado: 21 de noviembre de 2024.
Lee también
- La Tabla Periódica: Organización de los Elementos Químicos y su Utilidad en la Química
- Disgrafía: Dificultad para Escribir, Causas, Síntomas y Tratamiento
- Función: Definición, Tipos, Ejemplos y Aplicaciones en Matemáticas y Otros Campos
- Síndrome de Asperger: Guía Completa sobre Causas, Síntomas y Tratamiento
- Foros: Qué Son, Tipos, Características, Reglas y Ejemplos