Saltar al contenido principal
LibreTexts Español

6.5: Teorema de Canal Silencioso

  • Page ID
    81995
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Si el canal no introduce ningún error, la relación entre la información suministrada a la entrada y lo que está disponible en la salida es muy simple. Que se denote la velocidad de información de entrada, en bits por segundo\(D\) (por ejemplo,\(D\) podría ser la entropía por símbolo de una fuente\(H\) expresada en bits por símbolo, multiplicada por la velocidad de la fuente\(R\) en símbolos por segundo). Si\(D ≤ C\) entonces la información disponible en la salida puede ser tan alta como\(D\) (la información en la entrada), y si\(D > C\) entonces la información disponible en la salida no puede exceder\(C\) y así\(D − C\) se pierde una cantidad al menos igual a. Este resultado se muestra en la Figura 6.4.

    Tenga en cuenta que este resultado pone un límite en la rapidez con la que se puede transmitir la información a través de un canal dado. No indica cómo lograr resultados cercanos a este límite. Sin embargo, se sabe cómo usar códigos Huffman para representar eficientemente flujos de símbolos por flujos de bits. Si el canal es un canal binario es simplemente cuestión de usar ese flujo de bits para cambiar la entrada. Para otros canales, con más de dos estados de entrada posibles, la operación cercana al límite implica el uso de múltiples bits para controlar la entrada rápidamente.

    Lograr una alta velocidad de comunicación puede (como el código Huffman) requerir representar algunos símbolos que ocurren con poca frecuencia con palabras de código largas. Por lo tanto, la velocidad a la que los bits individuales llegan a la entrada del canal puede variar, y aunque la velocidad promedio puede ser aceptable, puede haber ráfagas de velocidad más alta, si por coincidencia varios símbolos de baja probabilidad resultan ser adyacentes. Puede ser necesario proporcionar búferes de almacenamiento temporal para acomodar estas ráfagas, y los símbolos pueden no materializarse a la salida del sistema a una tasa uniforme. También, para codificar los símbolos de manera eficiente puede ser necesario considerar varios de ellos juntos, en cuyo caso el primer símbolo no estaría disponible en la salida hasta que se hubieran presentado varios símbolos en la entrada. Por lo tanto, la operación a alta velocidad puede conducir a una alta latencia Diferentes sistemas de comunicación tienen diferente tolerancia para latencia o ráfagas; por ejemplo, la latencia de más de aproximadamente 100 milisegundos es molesta en una llamada telefónica, mientras que la latencia de muchos minutos puede ser tolerable en el correo electrónico. Una lista de las necesidades de algunos sistemas de comunicación prácticos, mostrada en la Sección 6.9, revela una amplia variación en la velocidad requerida, rendimiento, latencia, etc.


    This page titled 6.5: Teorema de Canal Silencioso is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.