Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

9.3: Entropía

( \newcommand{\kernel}{\mathrm{null}\,}\)

Nuestra incertidumbre se expresa cuantitativamente por la información que no tenemos sobre el estado ocupado. Esta información es

S=ip(Ai)log2(1p(Ai))

La información se mide en bits, como consecuencia del uso de logaritmos para basar 2 en la Ecuación\ ref {9.2}.

Al tratar con sistemas físicos reales, con una gran cantidad de estados y por lo tanto una entropía que es un número muy grande de bits, es conveniente multiplicar la suma anterior por los constanteskB=1.381×1023 Julios por Kelvin de Boltzmann, y también usar logaritmos naturales en lugar de logaritmos para basar 2. Entonces seS expresaría en Julios por Kelvin:

S=kBip(Ai)ln(1p(Ai))

En el contexto tanto de los sistemas físicos como de los sistemas de comunicación la incertidumbre se conoce como la entropía. Tenga en cuenta que debido a que la entropía se expresa en términos de probabilidades, también depende del observador, por lo que dos personas con diferentes conocimientos del sistema calcularían un valor numérico diferente para la entropía.


This page titled 9.3: Entropía is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?