Saltar al contenido principal
LibreTexts Español

13.1: Métodos de transformación

  • Page ID
    151052
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Como se señaló en las unidades de Expectativa y Varianza, la expectativa matemática\(E[X] = \mu_X\) de una variable aleatoria\(X\) localiza el centro de masa para la distribución inducida, y la expectativa

    \(E[g(X)] = E[(X - E[X])^2] = \text{Var} [X] = \sigma_X^2\)

    mide la difusión de la distribución alrededor de su centro de masa. Estas cantidades también se conocen, respectivamente, como la media (momento) de\(X\) y el segundo momento de\(X\) aproximadamente la media. Otros momentos dan información agregada. Por ejemplo, el tercer momento sobre la media\(E[(X - \mu_X)^3]\) da información sobre el sesgo, o asimetría, de la distribución sobre la media. Investigamos más a lo largo de estas líneas examinando la expectativa de ciertas funciones de\(X\). Cada una de estas funciones implica un parámetro, de una manera que determina completamente la distribución. Por las razones señaladas a continuación, nos referimos a estas como transformaciones. Consideramos tres de los más útiles de estos.

    Tres transformadas básicas

    Definimos cada una de las tres transformaciones, determinamos algunas propiedades clave y las usamos para estudiar diversas distribuciones de probabilidad asociadas con variables aleatorias. En la sección sobre transformaciones integrales, mostramos su relación con transformaciones integrales bien conocidas. Estos han sido ampliamente estudiados y utilizados en muchas otras aplicaciones, lo que permite utilizar la considerable literatura sobre estas transformaciones.

    Definición

    La función de generación de momento\(M_X\) para la variable aleatoria\(X\) (es decir, para su distribución) es la función

    \(M_X (s) = E[e^{sX}]\)(\(s\)es un parámetro real o complejo)

    La función característica\(\phi_X\) para la variable aleatoria\(X\) es

    \(\varphi_X (u) = E[e^{iuX}]\)(\(i^2 = -1\),\(u\) es un parámetro real)

    La función generadora\(g_X(s)\) para una variable aleatoria de valor entero no negativa\(X\) es

    \(g_X (s) = E[s^X] = \sum_k s^k P(X = k)\)

    La función generadora\(E[s^X]\) tiene significado para variables aleatorias más generales, pero su utilidad es mayor para las variables no negativas de valor entero, y limitamos nuestra consideración a ese caso.

    Las expresiones definitorias muestran similitudes que muestran relaciones útiles. Tomamos nota de dos que son particularmente útiles.

    \(M_X (s) = E[e^{sX}] = E[(e^s)^X] = g_X (e^s)\)y\(\varphi_X (u) = E[e^{iuX}] = M_X (iu)\)

    Debido a esta última relación, ordinariamente usamos la función de generación de momento en lugar de la función característica para evitar escribir la unidad compleja i. Cuando es deseable, convertimos fácilmente por el cambio de variable.

    El carácter de transformación integral de estas entidades implica que existe esencialmente una relación uno a uno entre la transformación y la distribución.

    Momentos

    El nombre y parte de la importancia de la función generadora de momentos surgen del hecho de que los derivados de\(M_X\) evaluados en\(s = 0\) son los momentos sobre el origen. Específicamente

    \(M_{X}^{(k)} (0) = E[X^k]\), siempre y cuando\(k\) exista el momento

    Dado que la expectativa es una integral y por la regularidad del integrando, podemos diferenciar dentro de la integral con respecto al parámetro.

    \(M_X'(s) = \dfrac{d}{ds} E[e^{sX}] = E[\dfrac{d}{ds} e^{sX}] = E[X e^{sX}]\)

    Al establecer\(s = 0\), tenemos\(M_X'(0) = E[X]\). La diferenciación repetida da el resultado general. El resultado correspondiente para la función característica es\(\varphi^{(k)} (0) = i^k E[X^k]\).

    Ejemplo\(\PageIndex{1}\) The exponential distribution

    La función de densidad es\(f_X (t) = \lambda e^{-\lambda t}\) para\(t \ge 0\).

    \(M_X (s) = E[e^{sX}] = \int_{0}^{\infty} \lambda e^{-(\lambda - s) t}\ dt = \dfrac{\lambda}{\lambda - s}\)

    \(M_X'(s) = \dfrac{\lambda}{(\lambda - s)^2}\)\(M_X '' (s0 = \dfrac{2\lambda}{(\lambda - s)^3}\)

    \(E[X] = M_X' (0) = \dfrac{\lambda}{\lambda^2} = \dfrac{1}{\lambda}\)\(E[X^2] = M_X'' (0) = \dfrac{2\lambda}{\lambda^3} = \dfrac{2}{\lambda^2}\)

    De esto obtenemos\(\text{Var} [X] = 2/\lambda^2 - 1/\lambda^2 = 1/\lambda^2\).

    La función generadora no se presta fácilmente a la computación de momentos, salvo que

    \(g_X' (s) = \sum_{k = 1}^{\infty} k s^{k - 1} P(X = k)\)para que\(g_X'(1) = \sum_{k = 1}^{\infty} kP(X = k) = E[X]\)

    Para los momentos de orden superior, podemos convertir la función generadora en la función generadora de momento reemplazando\(s\) con\(e^s\), luego trabajar con\(M_X\) y sus derivadas.

    Ejemplo\(\PageIndex{2}\) The Poisson (\(\mu\)) distribution

    \(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\),\(k \ge 0\), para que

    \(g_X (s) = e^{-\mu} \sum_{k = 0}^{\infty} s^k \dfrac{\mu^k}{k!} = e^{-\mu} \sum_{k = 0}^{\infty} \dfrac{(s\mu)^k}{k!} = e^{-\mu} e^{\mu s} = e^{\mu (s - 1)}\)

    Convertimos a\(M_X\) reemplazando\(s\) con\(e^s\) para obtener\(M_X (s) = e^{u(e^s - 1)}\). Entonces

    \(M_X'(s) = e^{u(e^s - 1)} \mu e^s\)\(M_X''(s) = e^{u(e^s - 1)} [\mu^2 e^{2s} + \mu e^s]\)

    para que

    \(E[X] = M_X' (0) = \mu\),\(E[X^2] = M_X''(0) = \mu^2 + \mu\), y\(\text{Var} [X] = \mu^2 + \mu - \mu^2 = \mu\)

    Estos resultados concuerdan, por supuesto, con los encontrados por cómputo directo con la distribución.

    Propiedades operacionales

    Nos referimos a lo siguiente como propiedades operativas.

    (T1): Si\(Z = aX + b\), entonces

    \(M_Z (s) = e^{bs} M_X (as)\),\(\varphi_Z (u) = e^{iub} \varphi_X (au)\),\(g_Z (s) = s^b g_X (s^a)\)

    Por el momento la función de generación, este patrón se desprende de

    \(E[e^{(aX + b)s}] = s^{bs} E[e^{(as)X}]\)

    Argumentos similares se mantienen para los otros dos.

    (T2): Si el par\(\{X, Y\}\) es independiente, entonces

    \(M_{X+Y} (s) = M_X (s) M_Y(s)\),\(\varphi_{X+Y} (u) = \varphi_X (u) \varphi_Y(u)\),\(g_{X+Y} (s) = g_X (s) g_Y(s)\)

    Por el momento generando función,\(e^{sX}\) y\(e^{sY}\) formar un par independiente para cada valor del parámetro\(s\). Por la regla del producto para la expectativa

    \(E[e^{s(X+Y)}] = E[e^{sX} e^{sY}] = E[e^{sX}] E[e^{sY}]\)

    Se utilizan argumentos similares para las otras dos transformaciones.

    Un converse parcial para (T2) es el siguiente:

    (T3): Si\(M_{X + Y} (s) = M_X (s) M_Y (s)\), entonces el par no\(\{X + Y\}\) está correlacionado. Para mostrar esto, obtenemos dos expresiones para\(E[(X + Y)^2]\), una por expansión directa y uso de linealidad, y la otra tomando la segunda derivada de la función generadora de momento.

    \(E[(X + Y)^2] = E[X^2] + E[Y^2] + 2E[XY]\)

    \(M_{X+Y}'' (s) = [M_X (s) M_Y(s)]'' = M_X'' (s) M_Y(s) + M_X (s) M_Y''(s) + 2M_X'(s) M_Y'(s)\)

    Al establecer\(s = 0\) y usar el hecho de que\(M_X (0) = M_Y (0) = 1\), tenemos

    \(E[(X + Y)^2] = E[X^2] + E[Y^2] + 2E[X]E[Y]\)

    lo que implica la igualdad\(E[XY] = E[X] E[Y]\).

    Tenga en cuenta que no hemos demostrado que no estar correlacionado implica la regla del producto.

    Utilizamos estas propiedades para determinar el momento generando y generando funciones para varias de nuestras distribuciones comunes.

    Algunas distribuciones discretas

    Función de indicador\(X = I_E\)\(P(E) = p\)

    \(g_X(s) = s^0 q + s^1 p = q + ps\)\(M_X (s) = g_X (e^s) = q + pe^s\)

    Variable aleatoria simple\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) (forma primitiva)\(P(A_i) = p_i\)

    \(M_X(s) = \sum_{i = 1}^{n} e^{st_i} p_i\)

    Binomial (\(n\),\(p\)). \(X = \sum_{i = 1}^{n} I_{E_i}\)con\(\{I_{E_i}: 1 \le i \le n\}\) iid\(P(E_i) = p\)

    Utilizamos la regla de producto para sumas de variables aleatorias independientes y la función generadora para la función indicadora.

    \(g_X (s) = \prod_{i = 1}^{n} (q + ps) = (q + ps)^n\)\(M_X (s) = (q + pe^s)^n\)

    Geométrico (\(p\)). \(P(X = k) = pq^k\)\(\forall k \ge 0\)\(E[X] = q/p\)Utilizamos la fórmula de la serie geométrica para obtener

    \(g_X (s) = \sum_{k = 0}^{\infty} pq^k s^k = p \sum_{k = 0}^{\infty} (qs)^k = \dfrac{p}{1 - qs} M_X (s) = \dfrac{p}{1 - qe^s}\)

    Binomial negativo (\(m, p\)) Si\(Y_m\) es el número del ensayo en una secuencia de Bernoulli en la que se produce el éxito\(m\) th, y\(X_m = Y_m - m\) es el número de fracasos antes del\(m\) th éxito, entonces

    \(P(X_m = k) = P(Y_m - m = k) = C(-m, k) (-q)^k p^m\)

    donde\(C(-m, k) = \dfrac{-m (-m - 1) (-m - 2) \cdot\cdot\cdot (-m - k + 1)}{k!}\)

    La expansión de la serie de potencia sobre\(t = 0\) muestra que

    \((1 + t)^{-m} = 1 + C(-m, 1) t + C(-m, 2)t^2 + \cdot\cdot\cdot\)para\(-1 < t < 1\)

    Por lo tanto,

    \(M_{X_m} (s) = p^m \sum_{k = 0}^{\infty} C(-m, k) (-q)^k e^{sk} = [\dfrac{p}{1 - qe^s}]^m\)

    La comparación con la función generadora de momento para la distribución geométrica muestra que\(X_m = Y_m - m\) tiene la misma distribución que la suma de variables aleatorias\(m\) iid, cada geométrica (\(p\)). Esto sugiere que la secuencia se caracteriza por tiempos de espera sucesivos e independientes para el éxito. Esto también muestra que la expectativa y varianza de\(X_m\) son\(m\) veces la expectativa y varianza para lo geométrico. Así

    \(E[X_m] = mq/p\)y\(\text{Var} [X_m] = mq/p^2\)

    Poisson (\(\mu\))\(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\)\(\forall k \ge 0\) En el Ejemplo 13.1.2, anterior, establecemos\(g_X (s) = e^{\mu(s -1)}\) y\(M_X (s) = e^{\mu (e^s - 1)}\). Si\(\{X, Y\}\) es un par independiente, con\(X\) ~ Poisson (\(\lambda\)) y\(Y\) ~ Poisson (\(\mu\)), entonces\(Z = X + Y\) ~ Poisson\((\lambda + \mu)\). Sigue de (T1) y producto de exponenciales.

    Algunas distribuciones absolutamente continuas

    Uniforme en\((a, b) f_X(t) = \dfrac{1}{b - a}\)\(a < t < b\)

    \(M_X (s) = \int e^{st} f_X (t)\ dt = \dfrac{1}{b-a} \int_{a}^{b} e^{st}\ dt = \dfrac{e^{sb} - e^{sa}}{s(b - a)}\)

    Triangular simétrico\((-c, c)\)

    \(f_X(t) = I_{[-c, 0)} (t) \dfrac{c + t}{c^2} + I_{[0, c]} (t) \dfrac{c - t}{c^2}\)

    \(M_X (s) = \dfrac{1}{c^2} \int_{-c}^{0} (c + t) e^{st} \ dt + \dfrac{1}{c^2} \int_{0}^{c} (c - t) e^{st}\ dt = \dfrac{e^{cs} + e^{-cs} - 2}{c^2s^2}\)

    \(= \dfrac{e^{cs} - 1}{cs} \cdot \dfrac{1 - e^{-cs}}{cs} = M_Y (s) M_Z (-s) = M_Y (s) M_{-Z} (s)\)

    donde\(M_Y\) esta la función generadora de momento para\(Y\) ~ uniforme\((0, c)\) y de manera similar para\(M_Z\). Así,\(X\) tiene la misma distribución que la diferencia de dos variables aleatorias independientes, cada una uniforme en\((0, c)\).

    Exponencial (\(\lambda\))\(f_X (t) = \lambda e^{-\lambda t}\),\(t \ge 0\)

    En el ejemplo 1, anterior, lo demostramos\(M_X (s) = \dfrac{\lambda}{\lambda - s}\).

    Gamma (\(\alpha, \lambda\))\(f_X (t) = \dfrac{1}{\Gamma(\alpha)} \lambda^{\alpha} t^{\alpha - 1} e^{-\lambda t}\)\(t \ge 0\)

    \(M_X (s) = \dfrac{\lambda^{\alpha}}{\Gamma (\alpha)} \int_{0}^{\infty} t^{\alpha - 1} e^{-(\lambda - s)t} \ dt = [\dfrac{\lambda}{\lambda - s}]^{\alpha}\)

    Para\(\alpha = n\), un entero positivo,

    \(M_X (s) = [\dfrac{\lambda}{\lambda - s}]^n\)

    lo que demuestra que en este caso\(X\) tiene la distribución de la suma de variables aleatorias\(n\) independientes cada exponencial\((\lambda)\).

    Normal (\(\mu, \sigma^2\)).

    • La norma estandarizada,\(Z\) ~\(N(0, 1)\)

    \(M_Z (s) = \dfrac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{st} e^{-t^2/2}\ dt\)

    Ahora\(st - \dfrac{t^2}{2} = \dfrac{s^2}{2} - \dfrac{1}{2} (t - s)^2\) para que

    \(M_Z (s) = e^{s^2/2} \dfrac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{-(t - s)^2/2} \ dt = e^{s^2/2}\)

    ya que el integrando (incluyendo la constante\((1/\sqrt{2\pi})\) es la densidad para\(N(s, 1)\).

    • \(X = \sigma Z + \mu\)implica por propiedad (T1)

    \(M_X (s) = e^{s\mu} e^{\sigma^2 s^2/2} = \text{exp} (\dfrac{\sigma^2 s^2}{2} + s\mu)\)

    Ejemplo\(\PageIndex{3}\) Affine combination of independent normal random variables

    Supongamos que\(\{X, Y\}\) es un par independiente con\(X\) ~\(N(\mu_X, \sigma_X^2)\) y\(Y\) ~\(N(\mu_Y, \sigma_Y^2)\). Vamos\(Z = aX + bY + c\). El\(Z\) es normal, para por propiedades de expectativa y varianza

    \(\mu_Z = a \mu_X + b \mu_Y + c\)y\(\sigma_Z^2 = a^2 \sigma_X^2 + b^2 \sigma_Y^2\)

    y por las propiedades operativas para la función de generación de momento

    \(M_Z (s) = e^{sc} M_X (as) M_Y (bs) = \text{exp} (\dfrac{(a^2 \sigma_X^2 + b^2 \sigma_Y^2) s^2}{2} + s(a\mu_X + b\mu_Y + c))\)

    \(= \text{exp} (\dfrac{\sigma_Z^2 s^2}{2} + s \mu_Z)\)

    Esta forma de\(M_Z\) espectáculos que normalmente\(Z\) se distribuye.

    Función de generación de momentos y variables aleatorias simples

    Supongamos\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) en forma canónica. Es decir,\(A_i\) es el evento\(\{X = t_i\}\) para cada uno de los distintos valores en el rango de\(X_i\) con\(p_i = P(A_i) = P(X = t_i)\). Entonces la función de generación de momento para\(X\) es

    \(M_X (s) = \sum_{i = 1}^{n} p_i e^{st_i}\)

    La función de generación de momento\(M_X\) se relaciona así directa y simplemente con la distribución para la variable aleatoria\(X\).

    Considerar el problema de determinar la suma de un par independiente\(\{X, Y\}\) de variables aleatorias simples. El momento que genera

    función para la suma es el producto de las funciones de generación de momento. Ahora si\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\), con\(P(Y = u_j) = \pi_j\), tenemos

    \(M_X (s) M_Y(s) = (\sum_{i = 1}^{n} p_i e^{st_i})(\sum_{j = 1}^{m} \pi_j e^{su_j}) = \sum_{i,j} p_i \pi_j e^{s(t_i + u_j)}\)

    Los diversos valores son sumas\(t_i + u_j\) de pares\((t_i, u_j)\) de valores. Cada una de estas sumas tiene probabilidad\(p_i \pi_j\) para los valores correspondientes a\(t_i, u_j\). Dado que la suma de más de un par puede tener el mismo valor, necesitamos ordenar los valores, consolidar valores similares y agregar las probabilidades de valores similares para lograr la distribución de la suma. Tenemos un mgsum de función m para lograr esto directamente. Produce los par-productos para las probabilidades y las sumas de pares para los valores, luego realiza una operación csort. Aunque no depende directamente del análisis de función generadora de momento, produce el mismo resultado que el producido multiplicando funciones generadoras de momento.

    Ejemplo\(\PageIndex{4}\) Distribution for a sum of independent simple random variables

    Supongamos que el par\(\{X, Y\}\) es independiente con distribuciones

    \(X =\)[1 3 5 7]\(Y =\) [2 3 4]\(PX =\) [0.2 0.4 0.3 0.1]\(PY =\) [0.3 0.5 0.2]

    Determinar la distribución para\(Z = X + Y\).

    X = [1 3 5 7];
    Y = 2:4;
    PX = 0.1*[2 4 3 1];
    PY = 0.1*[3 5 2];
    [Z,PZ] = mgsum(X,Y,PX,PY);
    disp([Z;PZ]')
        3.0000    0.0600
        4.0000    0.1000
        5.0000    0.1600
        6.0000    0.2000
        7.0000    0.1700
        8.0000    0.1500
        9.0000    0.0900
       10.0000    0.0500
       11.0000    0.0200

    Esto podría, por supuesto, haberse logrado mediante el uso de icalc y csort, lo que tiene la ventaja de que otras funciones de\(X\) y\(Y\) pueden ser manejadas. Además, dado que las variables aleatorias son no negativas, de valor entero, se puede utilizar la función de convolución MATLAB (ver Ejemplo 13.1.7). Mediante el uso repetido de la función mgsum, podemos obtener la distribución para la suma de más de dos variables aleatorias simples. Las funciones m-mgsum3 y mgsum4 utilizan esta estrategia.

    Las técnicas para variables aleatorias simples se pueden utilizar con las aproximaciones simples a variables aleatorias absolutamente continuas.

    Ejemplo\(\PageIndex{5}\) Difference of uniform distribution

    Las funciones generadoras de momento para el uniforme y el triangular simétrico muestran que esta última aparece naturalmente como la diferencia de dos variables aleatorias distribuidas uniformemente. Consideramos\(X\) e\(Y\) iid, uniforme en [0,1].

    tappr
    Enter matrix [a b] of x-range endpoints  [0 1]
    Enter number of x approximation points  200
    Enter density as a function of t  t<=1
    Use row matrices X and PX as in the simple case
    [Z,PZ] = mgsum(X,-X,PX,PX);
    plot(Z,PZ/d)               % Divide by d to recover f(t)
    %  plotting details   ---  see Figure 13.1.1

    La figura uno es una gráfica de densidad. Se titula, Densidad para diferencia dos variables, cada una uniforme (0, 1). El eje horizontal de la gráfica está etiquetado, t, y el gráfico vertical se etiqueta fZ (t). La gráfica de la densidad es triangular, comenzando en (-1, 0), y aumentando a una pendiente constante a punto (0, 1). La gráfica continúa después de este punto hacia abajo con una pendiente negativa constante a punto (1, 0).
    Figura 13.1.1. Densidad para la diferencia de un par independiente, uniforme (0,1).

    La función generadora

    La forma de la función generadora para una variable aleatoria no negativa, de valor entero, exhibe una serie de propiedades importantes.

    \(X = \sum_{k = 0}^{\infty} kI_{A_i}\)(forma canónica)\(p_k = P(A_k) = P(X = k)\)\(g_X (s) = \sum_{k = 0}^{\infty} s^k p_k\)

    Como una serie de potencias\(s\) con coeficientes no egativos cuyas sumas parciales convergen a uno, la serie converge al menos para\(|s| \le 1\).

    Los coeficientes de la serie de potencia muestran la distribución: para\(k\) el valor la probabilidad\(p_k = P(X = k)\) es el coeficiente de\(s^k\).

    La expansión de la serie de potencia sobre el origen de una función analítica es única. Si la función generadora se conoce en forma cerrada, la expansión única de la serie de potencia sobre el origen determina la distribución. Si la serie de potencia converge a una forma cerrada conocida, esa forma caracteriza la distribución.

    Para una variable aleatoria simple (es decir,\(p_k = 0\) for\(k > n\)),\(g_X\) es un polinomio.

    Ejemplo\(\PageIndex{6}\) The Poisson distribution

    En el Ejemplo 13.1.2, anterior, establecemos la función generadora para\(X\) ~ Poisson\((\mu)\) a partir de la distribución. Supongamos, sin embargo, simplemente nos encontramos con la función generadora

    \(g_X (s) = e^{m(s - 1)} = e^{-m} e^{ms}\)

    De la conocida serie de potencia por lo exponencial, obtenemos

    \(g_X (s) = e^{-m} \sum_{k = 0}^{\infty} \dfrac{(ms)^k}{k!} = e^{-m} \sum_{k = 0}^{\infty} s^k \dfrac{m^k}{k!}\)

    Concluimos que

    \(P(X = k) = e^{-m} \dfrac{m^k}{k!}\),\(0 \le k\)

    que es la distribución de Poisson con parámetro\(\mu = m\).

    Para variables aleatorias simples, no negativas, de valor entero, las funciones generadoras son polinomios. Debido a la regla de producto (T2), el problema de determinar la distribución para la suma de variables aleatorias independientes puede ser manejado por el proceso de multiplicar polinomios. Esto se puede hacer rápida y fácilmente con la función de convolución MATLAB.

    Ejemplo\(\PageIndex{7}\) Sum of independent simple random variables

    Supongamos que el par\(\{X, Y\}\) es independiente, con

    \(g_X (s) = \dfrac{1}{10} (2 + 3s + 3s^2 + 2s^5)\)\(g_Y (s) = \dfrac{1}{10} (2s + 4s^2 + 4s^3)\)

    En la convolución de la función MATLAB, todas las potencias de s deben contabilizarse incluyendo ceros para las potencias faltantes.

    gx = 0.1*[2 3 3 0 0 2];      % Zeros for missing powers 3, 4
    gy = 0.1*[0 2 4 4];          % Zero  for missing power 0
    gz = conv(gx,gy);
    a = ['       Z         PZ'];
    b = [0:8;gz]';
    disp(a)
           Z         PZ          % Distribution for Z = X + Y
    disp(b)
             0         0
        1.0000    0.0400
        2.0000    0.1400
        3.0000    0.2600
        4.0000    0.2400
        5.0000    0.1200
        6.0000    0.0400
        7.0000    0.0800
        8.0000    0.0800
    

    Si se utilizara mgsum, no sería necesario preocuparse por las potencias faltantes y los coeficientes cero correspondientes.

    Transforma integral

    Consideramos brevemente la relación de la función generadora de momento y la función característica con transformaciones integrales bien conocidas (de ahí el nombre de este capítulo).

    Función de generación de momentos y la transformación de Laplace

    Cuando examinamos las formas integrales de la función generadora de momento, vemos que representan formas de la transformación de Laplace, ampliamente utilizadas en ingeniería y matemáticas aplicadas. Supongamos que\(F_X\) es una función de distribución de probabilidad con\(F_X (-\infty) = 0\). La transformación bilateral de Laplace\(F_X\) está dada por

    \(\int_{-\infty}^{\infty} e^{-st} F_X (t) \ dt\)

    Los Laplace-Stieltjes transforman para\(F_X\)

    \(\int_{-\infty}^{\infty} e^{-st} F_X (dt)\)

    Así, si\(M_X\) es el momento que genera la función para\(X\), entonces\(M_X (-s)\) es la transformada de Laplace-Stieltjes para\(X\) (o, equivalentemente, para\(F_X\)).

    La teoría de Laplace-Stieltjes transforma muestra que bajo condiciones suficientemente generales para incluir todas las funciones prácticas de distribución

    \(M_X (-s) = \int_{-\infty}^{\infty} e^{-st} F_X (dt) = s \int_{-\infty}^{\infty} e^{-st} F_X (t)\ dt\)

    De ahí

    \(\dfrac{1}{s} M_X (-s) = \int_{-\infty}^{\infty} e^{-st} F_X (t)\ dt\)

    La expresión de la mano derecha es la transformación bilateral de Laplace\(F_X\). Podemos usar tablas de transformaciones de Laplace para recuperarnos\(F_X\) cuando\(M_X\) se sabe. Esto es particularmente útil cuando la variable aleatoria no\(X\) es negativa, de modo que\(F_X (t) = 0\) para\(t < 0\).

    Si\(X\) es absolutamente continuo, entonces

    \(M_X (-s) = \int_{-\infty}^{\infty} e^{-st} f_X (t) \ dt\)

    En este caso,\(M_X (-s)\) es la transformación bilateral de Laplace de\(f_X\). Para la variable aleatoria no negativa\(X\), podemos usar tablas ordinarias de la transformada de Laplace para recuperar\(f_X\).

    Ejemplo\(\PageIndex{8}\) Use of Laplace transform

    Supongamos que no negativo\(X\) tiene una función de generación

    \(M_X (s) = \dfrac{1}{(1 - s)}\)

    Sabemos que esta es la función generadora de momento para la distribución exponencial (1). Ahora,

    \(\dfrac{1}{s} M_X (-s) = \dfrac{1}{s(1 + s)} = \dfrac{1}{s} - \dfrac{1}{1 + s}\)

    A partir de una tabla de transformaciones de Laplace, encontramos que\(1/s\) es la transformación para la constante 1 (para\(t \ge 0\)) y\(1/(1 + s)\) es la transformación para\(e^{-t}\),\(t \ge 0\), así que\(F_X (t) = 1 - e^{-t} t \ge 0\), como se esperaba.

    Ejemplo\(\PageIndex{9}\) Laplace transform and the density

    Supongamos que la función de generación de momento para una variable aleatoria no negativa es

    \(M_X (s) = [\dfrac{\lambda}{\lambda - s}]^{\alpha}\)

    De una mesa de Laplace transforma, nos encontramos con eso para\(\alpha >0\).

    \(\dfrac{\Gamma (\alpha)}{(s - a)^{\alpha}}\)es la transformación de Laplace de\(t^{\alpha - 1} e^{at}\)\(t \ge 0\)

    Si ponemos\(a = -\lambda\), nos encontramos después de algunas manipulaciones algebraicas

    \(f_X (t) = \dfrac{\lambda^{\alpha} t^{\alpha - 1} e^{-\lambda t}}{\Gamma (\alpha)}\),\(t \ge 0\)

    Así,\(X\) ~ gamma\((\alpha, \lambda)\), de acuerdo con la determinación, arriba, de la función generadora de momento para esa distribución.

    La función característica

    Dado que esta función difiere de la función de generación de momento por el intercambio de parámetro\(s\) y\(iu\), donde\(i\) está la unidad imaginaria\(i^2 = -1\),, las expresiones integrales hacen ese cambio de parámetro. El resultado es que las transformaciones de Laplace se convierten en transformadas de Fourier. La literatura teórica y aplicada es aún más extensa para la función característica.

    No sólo tenemos las propiedades operativas (T1) y (T2) y el resultado en momentos como derivadas en el origen, sino que hay una expansión importante para la función característica.

    Un teorema de expansión

    Si\(E[[X]^n] < \infty\), entonces

    \(\varphi^{(k)} (0) = i^k E[X^k]\), para\(0 \le k \le n\) y\(\varphi (u) = \sum_{k = 0}^{n} \dfrac{(iu)^k}{k!} E[X^k] + o (u^n)\) como\(u \to 0\)

    Observamos un teorema de límite que tiene consecuencias muy importantes.

    Un teorema de límite fundamental

    Supongamos que\(\{F_n: 1 \le n\}\) es una secuencia de funciones de distribución de probabilidad y\(\{\varphi_n: 1 \le n\}\) es la secuencia correspondiente de funciones características.

    Si\(F\) es una función de distribución tal que\(F_n (t) \to F(t)\) en cada punto la continuidad para\(F\), y\(\phi\) es la función característica para\(F\), entonces

    \(\varphi_n (u) \to \varphi (u)\)\(\forall u\)

    Si\(\varphi_n (u) \to \varphi (u)\) para todos\(u\) y\(\phi\) es continuo en 0, entonces\(\phi\) es la función característica para la función de distribución\(F\) tal que

    \(F_n (t) \to F(t)\)en cada punto de continuidad de\(F\)

    — □


    This page titled 13.1: Métodos de transformación is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.