Véase también Claude Shannon.
La entropía tiene significados en la física y en la teoría de las comunicaciones. De manera más general, la entropía significa un proceso en el que el orden se deteriora con el paso del tiempo. Tiene varios significados especiales en las comunicaciones de datos.
Muchos científicos creen que el universo está evolucionando naturalmente hacia un estado de máxima entropía. El ejemplo comúnmente citado es la tendencia a la desaparición de las diferencias térmicas. Según la llamada teoría de la entropía, todo en el universo finalmente alcanzará una temperatura uniforme. No habrá fuentes de energía ni absorbentes. Las estrellas y galaxias como las conocemos dejarán de existir. No habrá vida.
En las comunicaciones de datos, el término entropía se refiere al grado relativo de aleatoriedad. Cuanto mayor es la entropía, más frecuentes son los errores de señalización. La entropía es directamente proporcional a la máxima velocidad de datos alcanzable en bps (bits por segundo). La entropía también es directamente proporcional al ruido y al ancho de banda. La entropía de una señal es inversamente proporcional a la compresibilidad; cuanto mayor es la entropía, menor es el factor por el cual se pueden comprimir los datos. La entropía también se refiere al desorden agregado deliberadamente a los datos en ciertos procesos de cifrado.