Saltar al contenido principal
LibreTexts Español

5.A: Apéndice- Matemáticas de Procesos Aleatorios

  • Page ID
    83238
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Este apéndice presenta las matemáticas esenciales requeridas para describir las propiedades estadísticas de un proceso aleatorio como el ruido. Además, es difícil analizar circuitos con señales moduladas digitalmente a menos que las señales sean tratadas como aleatorias con estadísticas de orden superior. Se introducen varios términos estadísticos para describir las propiedades de una variable aleatoria\(X\) y cómo su valor en un momento se relaciona con su valor en otros momentos. Así, en general,\(X\) variará con el tiempo (es decir, se puede escribir como\(X(t)\)) y su valor en un momento determinado será aleatorio.

    En esta sección se presentan todas las métricas de probabilidad necesarias para describir el ruido, la interferencia y las señales moduladas digitalmente. Un proceso aleatorio en el tiempo\(t\) es una familia de variables aleatorias\(\{X(t), t ∈ T \}\), donde\(t\) está en algún lugar del intervalo de tiempo\(T\). La probabilidad de que\(X(t)\) tenga un valor menor que\(x_{1}\) se denota por\(P\{X(t) ≤ x_{1}\}\). Esto también se llama la función de distribución acumulativa (CDF), y a veces se llama solo la función de distribución (DF):

    \[\label{eq:1}F_{X}(x_{1})=P\{X\leq x_{1}\} \]

    En general, ya que\(X(t)\) varía con el tiempo, el CDF requerido para manejar el ruido, es decir, voltajes y corrientes aleatorias, dependerá del tiempo. Entonces el CDF usado con ruido e interferencia en las comunicaciones tendrá dos argumentos, y el CDF multivariado es

    \[\label{eq:2}F_{X}(x_{1};t_{1})=P\{X(t_{1})\leq x_{1}\} \]

    Es decir,\(F_{X}(∞, t)=1\) y\(F(−∞, t)=0\). \(F_{X}\)se está utilizando con dos argumentos, ya que es necesario indicar el valor de\(X\) en un momento determinado. \(F_{X}(x_{1};t_{1})\)se dice que es la distribución de primer orden de\(X(t)\).

    Otra métrica de probabilidad utilizada a menudo es la función de densidad de probabilidad (PDF)\(f\), que se relaciona con el CDF como

    \[\label{eq:3}F_{X}(x_{1};t_{1})=\int_{-\infty}^{x_{1}}f(x,t_{1}) dx \]

    Otra propiedad que necesita ser capturada es la relación entre el valor de la variable aleatoria en un momento,\(t_{1}\), a su valor en otro momento,\(t_{2}\). Claramente, si las variables son completamente aleatorias no habría relación alguna. La relación estadística de\(x\) at\(t_{1}\) y at\(t_{2}\) es descrita por el CDF conjunto\(F_{X}(x_{1}, x_{2};t_{1}, t_{2})\), que es la distribución de segundo orden del proceso aleatorio:

    \[\label{eq:4}F_{X}(x_{1}, x_{2};t_{1}, t_{2}) = P\{X(t_{1}) ≤ x_{1}, X(t_{2}) ≤ x_{2}\} \]

    Esta es la CDF conjunta, o probabilidad, que\(X(t_{1})\) será menor que\(x_{1}\) en el tiempo\(t_{1}\) y también que\(X(t_{2})\) será menor que\(x_{2}\) en el momento\(t_{2}\). Entonces, en el caso del ruido, la CDF conjunta describe la correlación del ruido en dos momentos diferentes. En general, la distribución de orden\(n\) th es

    \[\label{eq:5}F_{X}(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}) = P\{X(t_{1}) ≤ x_{1},\ldots ,X(t_{n}) ≤ x_{n}\} \]

    Si el proceso aleatorio (es decir,\(X\)) es discreto, entonces se usa la función de masa de probabilidad (PMF) para la probabilidad que\(x\) tiene un valor particular. La forma general del PMF es

    \[\label{eq:6}p_{X}(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}) = P\{X(t_{1}) = x_{1},\ldots ,X(t_{n}) = x_{n}\} \]

    y la forma general del PDF, utilizada con variables aleatorias continuas, es (de Ecuación\(\eqref{eq:3}\))

    \[\label{eq:7}f_{X}(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n})=\frac{\partial^{n}F_{X}(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n})}{\partial x_{1}\ldots \partial x_{n}} \]

    Las medidas estadísticas anteriores describen las propiedades de las variables aleatorias y capturan la forma en que una variable se relaciona consigo misma en diferentes momentos, y cómo dos procesos aleatorios diferentes se relacionan entre sí al mismo tiempo y en diferentes momentos. Dichas caracterizaciones se basan en el valor esperado de una variable aleatoria. La expectativa de una variable aleatoria\(X(t)\) es el promedio ponderado de todos los posibles

    clipboard_eb9b287694e7909bafa2e565924606887.png

    Figura\(\PageIndex{1}\): Distribución gaussiana.

    valores de la variable aleatoria. La ponderación es la probabilidad para una variable aleatoria discreta, y es la densidad de probabilidad para una variable aleatoria continua. Entonces el valor esperado de la variable aleatoria\(X(t)\) es

    \[\label{eq:8}E[X(t)]=\left\{\begin{array}{ll}{\sum_{-\infty}^{\infty}x(t)p_{X}(x,t)}&{\text{for a discrete random variable}}\\{\int_{-\infty}^{\infty}x(t)p_{X}(x,t)dx}&{\text{for a continuous random variable}}\end{array}\right. \]

    Esta es solo la media de\(X(t)\) definida como

    \[\label{eq:9}\mu_{X}=\overline{X}(t)=\langle X(t)\rangle =E[X(t)] \]

    A la media también se le llama el momento de primer orden de\(X(t)\). \(E[\:\: ]\)se llama el valor esperado de una variable aleatoria y el término es sinónimo de expectativa, expectativa matemática, media y primer momento de una variable aleatoria. Los símbolos\(\langle\:\:\rangle\) son una manera limpia de especificar la expectativa. En general se necesitaría utilizar un programa de cómputos para calcular el valor esperado. Sin embargo, para algunas distribuciones de probabilidad supuestas existen soluciones analíticas para\(E[\:\: ]\).

    El momento de\(n\) orden th de\(X(t)\) es solo el valor esperado del\(n\) th poder de\(X(t)\):

    \[\label{eq:10}\mu_{n}'=E[X^{n}(t)]=\langle X^{n}(t)\rangle =\left\{\begin{array}{ll}{\sum_{-\infty}^{\infty}x^{n}(t)p_{X}(x,t)}&{\text{for a discrete}}\\{}&{\text{random variable}}\\{\int_{-\infty}^{\infty}x^{n}(t)p_{X}(x,t)dx}&{\text{for a continuous}}\\{}&{\text{random variable}}\end{array}\right. \]

    Así es el segundo momento, a veces llamado el segundo momento crudo\(\mu_{2}′=\langle X^{2}(t)\rangle = E[X^{2}(t)]\). Una cantidad más útil para caracterizar las estadísticas de una señal es el segundo momento central, que es el segundo momento sobre la media. El segundo momento central de una variable aleatoria también se llama su varianza, escrito como\(\sigma^{2}\) o como\(\mu_{2}\):

    \[\begin{align}\sigma^{2}=\mu_{2}&= E[(X −\mu)^{2}] = E[X^{2} − 2\mu X + \mu^{2}] = E[X^{2}] − 2\mu E[X] + \mu^{2}\nonumber \\&= E[X^{2}] − 2\mu^{2} + \mu^{2} = E[X^{2}] − \mu^{2} = E[X^{2}] − (E[X])^{2}\nonumber \\ \label{eq:11}&=\langle X^{2}(t)\rangle −\mu^{2} =\langle X^{2}(t)\rangle −\langle X^{2} (t)\rangle\end{align} \]

    La varianza es una medida de la dispersión de una variable aleatoria (es decir, cuánto se extiende la variable aleatoria). La varianza es una de varias medidas de dispersión, pero es la medida preferida cuando se trabaja con ruido y señales moduladas digitalmente. La desviación estándar,\(\sigma\), es la raíz cuadrada de la varianza\(\sigma^{2}\). También es común denotar la varianza de\(X\) as\(\sigma_{X}^{2}\), y en general, la varianza puede ser una función del tiempo,\(\sigma^{2}(t)\).

    Es común aproximar la distribución estadística de una señal modulada digitalmente como una distribución gaussiana o normal. Esta distribución se muestra en la Figura\(\PageIndex{1}\) y se describe matemáticamente por su distribución de probabilidad

    \[\label{eq:12}p[X(t)]=\frac{1}{\sqrt{2\pi}\sigma}e^{-(X(t)-\mu)/(2\sigma^{2})} \]

    donde la media de la distribución es\(\mu\) y la varianza es\(\sigma^{2}\). Los momentos tercero y superior de la distribución gaussiana son cero. Esa es una de las razones por las que esta distribución es tan comúnmente utilizada como aproximación. El análisis utilizando la distribución gaussiana es mucho más sencillo de lo que sería para otras distribuciones. De manera más realista, una señal modulada digitalmente tiene\(I\) y\(Q\) componentes y la distribución de cada uno de estos debe aproximarse como una distribución gaussiana. Tal distribución se denomina distribución gaussiana compleja y el análisis de la distorsión producida por un amplificador utilizando la distribución gaussiana compleja es más preciso. Usar una distribución más sofisticada, por ejemplo, usar los momentos calculados a partir de la señal modulada digitalmente real, proporciona una precisión aún mayor en el análisis [43] pero ahora la complejidad está más allá del cálculo manual.

    Si una señal modulada digitalmente es completamente aleatoria, entonces no habría correlación entre el valor de la señal en un momento y su valor en otro momento. Sin embargo, existe una relación y la relación es descrita por la función de autocorrelación de la señal. La función de autocorrelación se utiliza para describir la relación entre valores de una función separados por diferentes instantes de tiempo. Para una variable aleatoria, viene dada por

    \[\label{eq:13}R_{X}(t_{1},t_{2})=E[X(t_{1})X(t_{2})] \]

    Cuando la variable aleatoria es discreta, la función de autocorrelación unidimensional de una secuencia aleatoria de longitud\(N\) se expresa como

    \[\label{eq:14}R_{X}(i)=\sum_{j=0}^{N-1}x_{j}x_{j+i} \]

    donde\(i\) está el llamado parámetro lag. La función de autocovarianza de\(X(t)\) viene dada por

    \[\begin{align}K_{X}(t_{1},t_{2})&=E[\{X(t_{1}) −\mu_{X}(t_{1})\}]E[\{X(t_{1}) − \mu_{X}(t_{1})\}]\nonumber \\ \label{eq:15}&=R_{X}(t_{1},t_{2})-\mu_{X}(t_{1})\mu_{X}(t_{2})\end{align} \]

    mientras que la varianza viene dada por

    \[\label{eq:16}\sigma_{X}(t)= E[\{X(t) −\mu_{X}(t)\}]^{2} = K_{X}(t_{1}, t_{1}) \]

    Un proceso aleatorio\(X(t)\) es estacionario en sentido estricto si

    \[\label{eq:17}F_{X}(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}) = F_{X}(x_{1},\ldots ,x_{n};t_{1} +\tau ,\ldots , t_{n} +\tau ) \]

    \(\forall t_{i} ∈ T\),\(i ∈ \mathbf{N}\). Si el proceso aleatorio es estacionario de sentido amplio (WSS), entonces es estacionario con orden\(2\). Esto significa que en la mayoría de los casos solo sus momentos primero y segundo (es decir, la media y la autocorrelación) son independientes del tiempo\(t\) y solo dependen del intervalo de tiempo\(\tau\). Más precisamente, si un proceso aleatorio es WSS, entonces

    \[\begin{align} E[X(t)]&=\mu\quad \text{(i.e., its mean is a constant)}\nonumber \\ \label{eq:18} \text{and}\:\:R_{X}(t,s)&=E[X(t)X(s)]=R_{X}(|s-t|)=R_{X}(\tau )\end{align} \]

    Tenga en cuenta que la autocorrelación de un proceso WSS depende solo de la diferencia de tiempo\(\tau\). Un proceso aleatorio que no es estacionario en ningún orden es no estacionario (es decir, sus momentos dependen explícitamente del tiempo).

    La discusión ahora vuelve a las propiedades de un proceso aleatorio gaussiano. Un proceso aleatorio gaussiano es un proceso aleatorio continuo con PDF de la forma

    \[\label{eq:19}f_{X}(x,t)=\frac{1}{\sqrt{2\pi\sigma (t)^{2}}}\text{exp}\left(\frac{-\mu (x,t)^{2}}{2\sigma (t)^{2}}\right) \]

    donde\(\mu (x, t)\) representa la media del proceso aleatorio y\(\sigma (t)\) representa la varianza. Un proceso aleatorio normal es un caso especial de un proceso aleatorio gaussiano en que tiene una media de cero y una varianza de unidad. Un proceso aleatorio de Poisson es un proceso aleatorio discreto con parámetro\(\lambda (t) > 0\) y tiene un PDF dado por

    \[\label{eq:20}p_{X}(k)=P(X(t)=k)=e^{\lambda t}\frac{(\lambda t)^{k}}{k!} \]

    donde\(\lambda (t)\) generalmente depende del tiempo. La media y varianza de un proceso aleatorio de Poisson es\(\lambda (t)\). Entonces, para un proceso aleatorio de Poisson,

    \[\begin{align}\label{eq:21} \mu_{X}&=E[X(t)]=\lambda (t) \\ \label{eq:22}\sigma_{X}^{2}&=\text{Var}(X(t))=\lambda (t)\end{align} \]

    Las medidas estadísticas anteriores son las necesarias para describir estadísticamente las señales moduladas digitalmente y también describir la mayoría de los procesos de ruido.


    This page titled 5.A: Apéndice- Matemáticas de Procesos Aleatorios is shared under a CC BY-NC license and was authored, remixed, and/or curated by Michael Steer.