Saltar al contenido principal
LibreTexts Español

8.1: Estimación

  • Page ID
    82524
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    A menudo es necesario determinar el evento de entrada cuando solo se ha observado el evento de salida. Este es el caso de los sistemas de comunicación, en los que el objetivo es inferir el símbolo emitido por la fuente para que pueda reproducirse en la salida. También es el caso de los sistemas de memoria, en los que el objetivo es recrear el patrón de bits original sin error.

    En principio, esta estimación es sencilla si se conocen la distribución de probabilidad de entrada\(p(A_i)\) y las probabilidades de salida condicionales, condicionadas a los eventos de entrada.\(p(B_j \;|\; A_i) = c_{ji}\) Estas probabilidades condicionales “hacia adelante”\(c_{ji}\) forman una matriz con tantas filas como eventos de salida, y tantas columnas como eventos de entrada haya. Son propiedad del proceso, y no dependen de las probabilidades de entrada\(p(A_i)\).

    La probabilidad incondicional\(p(B_j)\) de cada evento de salida\(B_j\) es

    \(p(B_j) = \displaystyle \sum_{i} c_{ji}p(A_i)\tag{8.1}\)

    Captura de pantalla 2021-05-19 a las 11.14.10 PM.png
    Figura 8.1: Flujo de información en un proceso discreto sin memoria

    y la probabilidad conjunta de cada entrada con cada salida\(p(A_i, B_j)\) y las probabilidades condicionales hacia atrás se\(p(A_i \;|\; B_j)\) pueden encontrar usando el Teorema de Bayes:

    \ begin {alinear*}
    p (A_ {i}, B_ {j}) &=p (B_ {j}) p (A_ {i}\; |\; B_ {j})\\
    &= p (A_ {i}) p (B_ {j}\; |\; A_ {i})\ tag {8.2}\\
    &=p (A_ {i}) c_ {ji}
    \ final {alinear*}

    Ahora supongamos que se\(B_j\) ha observado un evento de salida particular. El evento de entrada que “causó” esta salida puede estimarse solo en la medida de dar una distribución de probabilidad sobre los eventos de entrada. Para cada evento de entrada\(A_i\) la probabilidad de que fuera la entrada es simplemente la probabilidad condicional hacia atrás\(p(A_i \;|\; B_j)\) para el evento de salida particular\(B_j\), que se puede escribir usando la Ecuación 8.2 como

    \(p(A_i \;|\; B_j) = \dfrac{p(A_i)c_{ji}}{p(B_j)} \tag{8.3}\)

    Si el proceso no tiene pérdida (\(L\)= 0) entonces para cada uno\(j\) exactamente uno de los eventos de entrada\(A_i\) tiene una probabilidad distinta de cero, y por lo tanto su probabilidad\(p(A_i \;|\; B_j)\) es 1. En el caso más general, con pérdidas distintas de cero, la estimación consiste en refinar un conjunto de probabilidades de entrada para que sean consistentes con la salida conocida. Tenga en cuenta que este enfoque solo funciona si se conoce la distribución de probabilidad de entrada original. Todo lo que hace es afinar esa distribución a la luz de nuevos conocimientos, es decir, la producción observada.

    Podría pensarse que la nueva distribución de probabilidad de entrada tendría menos incertidumbre que la de la distribución original. ¿Es esto siempre cierto?

    La incertidumbre de una distribución de probabilidad es, por supuesto, su entropía como se definió anteriormente. La incertidumbre (sobre el evento de entrada) antes de que se conozca el evento de salida es

    \(U_{\text{before}} = \displaystyle \sum_{i} p(A_i) \log_2 \Big(\dfrac{1}{p(A_i)}\Big) \tag{8.4}\)

    La incertidumbre residual, después de que se conoce algún evento de salida particular, es

    \(U_{\text{after}}(B_j) = \displaystyle \sum_{i} p(A_i \;|\; B_j) \log_2 \Big(\dfrac{1}{p(A_i \;|\; B_j)}\Big) \tag{8.5}\)

    La pregunta, entonces es si\(U_{\text{after}}(B_j) ≤ U_{\text{before}}\). La respuesta suele ser, pero no siempre, sí. Sin embargo, no es difícil probar que el promedio (sobre todos los estados de producción) de la incertidumbre residual es menor que la incertidumbre original:

    \(\displaystyle \sum_{j} p(B_j)U_{\text{after}}(B_j) ≤ U_{\text{before}} \tag{8.6}\)

    Captura de pantalla 2021-05-19 a las 11.27.02 PM.png
    a)
    Captura de pantalla 2021-05-19 a las 11.27.20 PM.png
    b)

    Figura 8.2:: (a) Canal binario sin ruido (b) Canal binario simétrico, con errores

    En palabras, esta afirmación dice que en promedio, nuestra incertidumbre sobre el estado de entrada nunca se incrementa al aprender algo sobre el estado de salida. Es decir, en promedio, esta técnica de inferencia nos ayuda a obtener una mejor estimación del estado de entrada.

    Dos de los siguientes ejemplos continuarán en capítulos posteriores, incluido el siguiente capítulo sobre el Principio de máxima entropía: el canal binario simétrico y Berger's Burgers.


    This page titled 8.1: Estimación is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.