7.6.1: Notación
- Page ID
- 82292
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
Diferentes autores utilizan notación diferente para las cantidades que tenemos aquí llamadas\(I\)\(J\),\(L\),\(N\), y\(M\). En su artículo original Shannon llamó a la distribución de probabilidad de entrada\(x\) y la distribución de salida\(y\). La información de entrada\(I\) fue denotada\(H(x)\) y la información de salida\(J\) fue\(H(y)\). Se denotó la pérdida\(L\) (que Shannon llamó “equívoco”)\(H_y(x)\) y\(N\) se denotó el ruido\(H_x(y)\). Se\(M\) denotó la información mutua\(R\). Shannon utilizó la palabra “entropía” para referirse a la información, y la mayoría de los autores han seguido su ejemplo.
Con frecuencia, las cantidades de información se denotan por\(I\)\(H\)\(S\), o, a menudo como funciones de distribuciones de probabilidad, o “conjuntos”. En la física, a menudo se denota la entropía\(S\).
Otra notación común es usar para referirse\(A\) a la distribución de probabilidad de entrada, o conjunto, y para estar\(B\) para la distribución de probabilidad de salida. Entonces\(I\) se denota\(I(A)\),\(J\) es\(I(B)\),\(L\) es\(I(A\;|\;B)\)\(I(B\;|\;A)\),\(N\) es y\(M\) es\(I(A; B)\). Si existe la necesidad de la información asociada con\(A\) y\(B\) conjuntamente (en contraposición a condicionalmente) se puede denotar\(I(A, B)\) o\(I(AB)\).