Saltar al contenido principal
LibreTexts Español

10.3: Funciones generadoras para densidades continuas

  • Page ID
    150251
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En la sección anterior, se introdujeron los conceptos de momentos y funciones de generación de momentos para variables aleatorias discretas. Estos conceptos tienen análogos naturales para variables aleatorias continuas, siempre que se tenga cierto cuidado en los argumentos que involucran convergencia.

    Momentos

    Si\(X\) es una variable aleatoria continua definida en el espacio de probabilidad\(\Omega\), con función de densidad\(f_X\), entonces definimos el momento\(n\) th de\(X\) por la fórmula\[\mu_n = E(X^n) = \int_{-\infty}^{+\infty} x^n f_X(x)\, dx\ ,\] siempre que la integral\[\mu_n = E(X^n) = \int_{-\infty}^{+\infty} |x|^n f_X(x)\, dx\ ,\] sea finita. Entonces, así como en el caso discreto, vemos eso\(\mu_0 = 1\),\(\mu_1 = \mu\), y\(\mu_2 - \mu_1^2 = \sigma^2\).

    Funciones de generación de momentos

    Ahora definimos el\(g(t)\) for\(X\) por la fórmula\[\begin{aligned} g(t) &=& \sum_{k = 0}^\infty \frac{\mu_k t^k}{k!} = \sum_{k = 0}^\infty \frac{E(X^k) t^k}{k!} \\ &=& E(e^{tX}) = \int_{-\infty}^{+\infty} e^{tx} f_X(x)\, dx\ ,\end{aligned}\] siempre que esta serie converja. Entonces, como antes, tenemos\[\mu_n = g^{(n)}(0)\ .\]

    Ejemplos

    [examen 10.3.1] Dejar\(X\) ser una variable aleatoria continua con función de rango\([0,1]\) y densidad\(f_X(x) = 1\) para\(0 \leq x \leq 1\) (densidad uniforme). Entonces\[\mu_n = \int_0^1 x^n\, dx = \frac1{n + 1}\ ,\] y\[\begin{aligned} g(t) &=& \sum_{k = 0}^\infty \frac{t^k}{(k+1)!}\\ &=& \frac{e^t - 1}t\ .\end{aligned}\] Aquí la serie converge para todos\(t\). Alternativamente, tenemos\[\begin{aligned} g(t) &=& \int_{-\infty}^{+\infty} e^{tx} f_X(x)\, dx \\ &=& \int_0^1 e^{tx}\, dx = \frac{e^t - 1}t\ .\end{aligned}\] Entonces (por regla de L'Hôpital)\[\begin{aligned} \mu_0 &=& g(0) = \lim_{t \to 0} \frac{e^t - 1}t = 1\ , \\ \mu_1 &=& g'(0) = \lim_{t \to 0} \frac{te^t - e^t + 1}{t^2} = \frac12\ , \\ \mu_2 &=& g''(0) = \lim_{t \to 0} \frac{t^3e^t - 2t^2e^t + 2te^t - 2t}{t^4} = \frac13\ .\end{aligned}\] En particular, verificamos eso\(\mu = g'(0) = 1/2\) y\[\sigma^2 = g''(0) - (g'(0))^2 = \frac13 - \frac14 = \frac1{12}\] como antes (ver Ejemplo [examen 6.18.5]).

    [examen 10.3.2] Dejar\(X\) tener función de rango\([\,0,\infty)\) y densidad\(f_X(x) = \lambda e^{-\lambda x}\) (densidad exponencial con parámetro\(\lambda\)). En este caso\[\begin{aligned} \mu_n &=& \int_0^\infty x^n \lambda e^{-\lambda x}\, dx = \lambda(-1)^n \frac{d^n}{d\lambda^n} \int_0^\infty e^{-\lambda x}\, dx \\ &=& \lambda(-1)^n \frac{d^n}{d\lambda^n} [\frac1\lambda] = \frac{n!} {\lambda^n}\ ,\end{aligned}\] y\[\begin{aligned} g(t) &=& \sum_{k = 0}^\infty \frac{\mu_k t^k}{k!} \\ &=& \sum_{k = 0}^\infty [\frac t\lambda]^k = \frac\lambda{\lambda - t}\ .\end{aligned}\] Aquí la serie converge sólo para\(|t| < \lambda\). Alternativamente, tenemos\[\begin{aligned} g(t) &=& \int_0^\infty e^{tx} \lambda e^{-\lambda x}\, dx \\ &=& \left.\frac{\lambda e^{(t - \lambda)x}}{t - \lambda}\right|_0^\infty = \frac\lambda{\lambda - t}\ .\end{aligned}\]

    Ahora podemos verificar directamente que\[\mu_n = g^{(n)}(0) = \left.\frac{\lambda n!}{(\lambda - t)^{n + 1}}\right|_{t = 0} = \frac{n!}{\lambda^n}\ .\]

    [examen 10.3.3] Dejar\(X\) tener función de rango\((-\infty,+\infty)\) y densidad\[f_X(x) = \frac1{\sqrt{2\pi}} e^{-x^2/2}\] (densidad normal). En este caso tenemos\[\begin{aligned} \mu_n &=& \frac1{\sqrt{2\pi}} \int_{-\infty}^{+\infty} x^n e^{-x^2/2}\, dx \\ &=& \left \{ \begin{array}{ll} \frac{(2m)!}{2^{m} m!}, & \mbox{if $ n = 2m$,}\cr 0, & \mbox{if $ n = 2m+1$.}\end{array}\right.\end{aligned}\] (Estos momentos se calculan integrando una vez por partes para mostrar eso\(\mu_n = (n - 1)\mu_{n - 2}\), y observando eso\(\mu_0 = 1\) y\(\mu_1 = 0\).) De ahí,\[\begin{aligned} g(t) &=& \sum_{n = 0}^\infty \frac{\mu_n t^n}{n!} \\ &=& \sum_{m = 0}^\infty \frac{t^{2m}}{2^{m} m!} = e^{t^2/2}\ .\end{aligned}\] Esta serie converge para todos los valores de\(t\). De nuevo podemos verificar eso\(g^{(n)}(0) = \mu_n\).

    Dejar\(X\) ser una variable aleatoria normal con parámetros\(\mu\) y\(\sigma\). Es fácil demostrar que la función de generación de momento de\(X\) viene dada por\[e^{t\mu + (\sigma^2/2)t^2}\ .\] Ahora supongamos que\(X\) y\(Y\) son dos variables aleatorias normales independientes con parámetros\(\mu_1\)\(\sigma_1\),\(\mu_2\), y\(\sigma_2\), respectivamente. Entonces, el producto del momento generando funciones de\(X\) y\(Y\) es\[e^{t(\mu_1 + \mu_2) + ((\sigma_1^2 + \sigma_2^2)/2)t^2}\ .\] Esta es la función generadora de momento para una variable aleatoria normal con media\(\mu_1 + \mu_2\) y varianza\(\sigma_1^2 + \sigma_2^2\). Así, la suma de dos variables aleatorias normales independientes vuelve a ser normal. (Esto se comprobó para el caso especial que ambas summands son normales estándar en el Ejemplo [examen 7.8].)

    En general, la definición de series no\(g(t)\) convergerá para todos\(t\). Pero en el importante caso especial donde\(X\) está acotado (es decir, donde el rango de\(X\) está contenido en un intervalo finito), podemos demostrar que la serie sí converge para todos\(t\).

    [thm 10.4] Supongamos que\(X\) es una variable aleatoria continua con rango contenido en el intervalo\([-M,M]\). Entonces la serie\[g(t) = \sum_{k = 0}^\infty \frac{\mu_k t^k}{k!}\] converge para todos\(t\) a una función infinitamente diferenciable\(g(t)\), y\(g^{(n)}(0) = \mu_n\). Tenemos\[\mu_k = \int_{-M}^{+M} x^k f_X(x)\, dx\ ,\] así\[\begin{aligned} |\mu_k| &\leq& \int_{-M}^{+M} |x|^k f_X(x)\, dx \\ &\leq& M^k \int_{-M}^{+M} f_X(x)\, dx = M^k\ .\end{aligned}\] De ahí, por todos\(N\) tenemos\[\sum_{k = 0}^N \left|\frac{\mu_k t^k}{k!}\right| \leq \sum_{k = 0}^N \frac{(M|t|)^k}{k!} \leq e^{M|t|}\ ,\] lo que demuestra que la serie power converge para todos\(t\). Sabemos que la suma de una serie de potencias convergentes siempre es diferenciable.

    Problema de Momento

    [thm 10.5] Si\(X\) es una variable aleatoria acotada, entonces la función de generación de momento\(x\) determina la función\(g_X(t)\) de densidad de\(f_X(x)\) manera única.

    Sabemos que\[\begin{aligned} g_X(t) &=& \sum_{k = 0}^\infty \frac{\mu_k t^k}{k!} \\ &=& \int_{-\infty}^{+\infty} e^{tx} f(x)\, dx\ .\end{aligned}\]

    Si reemplazamos\(t\) por\(i\tau\), donde\(\tau\) es real y\(i = \sqrt{-1}\), entonces la serie converge para todos\(\tau\), y podemos definir la función\[k_X(\tau) = g_X(i\tau) = \int_{-\infty}^{+\infty} e^{i\tau x} f_X(x)\, dx\ .\]

    La función\(k_X(\tau)\) se llama of\(X\), y se define por la ecuación anterior incluso cuando la serie for\(g_X\) no converge. Esta ecuación dice que\(k_X\) es la de\(f_X\). Se sabe que la transformada de Fourier tiene una inversa, dada por la fórmula\[f_X(x) = \frac1{2\pi} \int_{-\infty}^{+\infty} e^{-i\tau x} k_X(\tau)\, d\tau\ ,\] adecuadamente interpretada. 9 Aquí vemos que la función característica\(k_X\), y de ahí la función generadora de momentos\(g_X\), determina la función de densidad de\(f_X\) manera única bajo nuestras hipótesis.

    Croquis de la Prueba del Teorema del Límite Central

    Con el resultado anterior en mente, ahora podemos esbozar una prueba del Teorema de Límite Central para variables aleatorias continuas delimitadas (ver Teorema [thm 9.4.7]). Para ello, deja\(X\) ser una variable aleatoria continua con función de densidad\(f_X\), media\(\mu = 0\) y varianza\(\sigma^2 = 1\), y función generadora de momento\(g(t)\) definida por su serie para todos\(t\). Dejar\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de pruebas independientes con cada uno\(X_i\) teniendo densidad\(f_X\), y dejar\(S_n = X_1 + X_2 +\cdots+ X_n\), y\(S_n^* = (S_n - n\mu)/\sqrt{n\sigma^2} = S_n/\sqrt n\). Entonces cada uno\(X_i\) tiene función de generación de momento\(g(t)\), y como los\(X_i\) son independientes, la suma\(S_n\), al igual que en el caso discreto (ver Sección [sec 10.1]), tiene función de generación de momento\[g_n(t) = (g(t))^n\ ,\] y la suma estandarizada\(S_n^*\) tiene función de generación de momento\[g_n^*(t) = \left(g\left(\frac t{\sqrt n}\right)\right)^n\ .\]

    Ahora demostramos que, como\(n \to \infty\),\(g_n^*(t) \to e^{t^2/2}\), dónde\(e^{t^2/2}\) está el momento que genera la función de la densidad normal\(n(x) = (1/\sqrt{2\pi}) e^{-x^2/2}\) (ver Ejemplo [examen 10.3.3]).

    Para mostrar esto, nos fijamos\(u(t) = \log g(t)\), y\[\begin{aligned} u_n^*(t) &=& \log g_n^*(t) \\ &=& n\log g\left(\frac t{\sqrt n}\right) = nu\left(\frac t{\sqrt n}\right)\ ,\end{aligned}\] y\(u_n^*(t) \to t^2/2\) lo demostramos como\(n \to \infty\). Primero notamos que\[\begin{aligned} u(0) &=& \log g_n(0) = 0\ , \\ u'(0) &=& \frac{g'(0)}{g(0)} = \frac{\mu_1}1 = 0\ , \\ u''(0) &=& \frac{g''(0)g(0) - (g'(0))^2}{(g(0))^2} \\ &=& \frac{\mu_2 - \mu_1^2}1 = \sigma^2 = 1\ .\end{aligned}\] Ahora al usar la regla de L'Hôpital dos veces, obtenemos\[\begin{aligned} \lim_{n \to \infty} u_n^*(t) &=& \lim_{s \to \infty} \frac{u(t/\sqrt s)}{s^{-1}}\\ &=& \lim_{s \to \infty} \frac{u'(t/\sqrt s) t}{2s^{-1/2}} \\ &=& \lim_{s \to \infty} u''\left(\frac t{\sqrt s}\right) \frac{t^2}2 = \sigma^2 \frac{t^2}2 = \frac{t^2}2\ .\end{aligned}\] De ahí,\(g_n^*(t) \to e^{t^2/2}\) como\(n \to \infty\). Ahora para completar la prueba del Teorema del Límite Central, debemos demostrar que si\(g_n^*(t) \to e^{t^2/2}\), entonces bajo nuestras hipótesis las funciones\(F_n^*(x)\) de distribución del\(S_n^*\) deben converger a la función\(F_N^*(x)\) de distribución de la variable normal\(N\); es decir, eso\[F_n^*(a) = P(S_n^* \leq a) \to \frac1{\sqrt{2\pi}} \int_{-\infty}^a e^{-x^2/2}\, dx\ ,\] y además, que las funciones\(f_n^*(x)\) de densidad del\(S_n^*\) deben converger a la función de densidad para\(N\); es decir, que\[f_n^*(x) \to \frac1{\sqrt{2\pi}} e^{-x^2/2}\ ,\] como\(n \rightarrow \infty\).

    Dado que las densidades, y por ende las distribuciones, del\(S_n^*\) están determinadas de manera única por sus funciones generadoras de momento bajo nuestras hipótesis, estas conclusiones son ciertamente plausibles, pero sus pruebas implican un examen detallado de las funciones características y las transformadas de Fourier, y no intentarlos aquí.

    De la misma manera, podemos probar el Teorema de Límite Central para variables aleatorias discretas acotadas con valores enteros (ver Teorema [thm 9.3.6]). Dejar\(X\) ser una variable aleatoria discreta con función de densidad\(p(j)\), media\(\mu = 0\)\(\sigma^2 = 1\), varianza y función generadora de momento\(g(t)\), y dejar\(X_1\),\(X_2\),...,\(X_n\) formar un proceso de ensayos independientes con densidad común\(p\). Dejar\(S_n = X_1 + X_2 +\cdots+ X_n\) y\(S_n^* = S_n/\sqrt n\), con densidades\(p_n\) y\(p_n^*\), y momento generando funciones\(g_n(t)\) y\(g_n^*(t) = \left(g(\frac t{\sqrt n})\right)^n.\) Entonces tenemos\[g_n^*(t) \to e^{t^2/2}\ ,\] justo como en el caso continuo, y esto implica de la misma manera que las funciones de distribución\(F_n^*(x)\) convergen a la distribución normal ; es decir, que\[F_n^*(a) = P(S_n^* \leq a) \to \frac1{\sqrt{2\pi}} \int_{-\infty}^a e^{-x^2/2}\, dx\ ,\] como\(n \rightarrow \infty\).

    La declaración correspondiente sobre las funciones de distribución\(p_n^*\), sin embargo, requiere un poco de cuidado extra (ver Teorema [thm 9.3.5]). El problema surge porque la distribución no\(p(x)\) está definida para todos\(x\), sino solo para enteros\(x\). De ello se deduce que la distribución\(p_n^*(x)\) se define sólo para\(x\) de la forma\(j/\sqrt n\), y estos valores cambian a medida que\(n\) cambian.

    Podemos arreglar esto, sin embargo, introduciendo la función\(\bar p(x)\), definida por la fórmula

    \[\bar p(x) = \left \{ \begin{array}{ll} p(j), & \mbox{if $j - 1/2 \leq x < j + 1/2$,} \cr 0\ , & \mbox{otherwise}.\end{array}\right.\]Después\(\bar p(x)\) se define para todos\(x\),\(\bar p(j) = p(j)\), y la gráfica de\(\bar p(x)\) es la función de paso para la distribución\(p(j)\) (ver Figura 3 de la Sección [sec 9.1]).

    De la misma manera introducimos la función de paso\(\bar p_n(x)\) y\(\bar p_n^*(x)\) asociada con las distribuciones\(p_n\) y\(p_n^*\), y su momento generando funciones\(\bar g_n(t)\) y\(\bar g_n^*(t)\). Si podemos demostrar eso\(\bar g_n^*(t) \to e^{t^2/2}\), entonces podemos concluir que\[\bar p_n^*(x) \to \frac1{\sqrt{2\pi}} e^{t^2/2}\ ,\] como\(n \rightarrow \infty\), para todos\(x\), una conclusión fuertemente sugerida por la Figura [fig 9.2].

    Ahora\(\bar g(t)\) está dado por\[\begin{aligned} \bar g(t) &=& \int_{-\infty}^{+\infty} e^{tx} \bar p(x)\, dx \\ &=& \sum_{j = -N}^{+N} \int_{j - 1/2}^{j + 1/2} e^{tx} p(j)\, dx\\ &=& \sum_{j = -N}^{+N} p(j) e^{tj} \frac{e^{t/2} - e^{-t/2}} {2t/2} \\ &=& g(t) \frac{\sinh(t/2)}{t/2}\ ,\end{aligned}\] donde hemos puesto\[\sinh(t/2) = \frac{e^{t/2} - e^{-t/2}}2\ .\]

    De la misma manera, encontramos que\[\begin{aligned} \bar g_n(t) &=& g_n(t) \frac{\sinh(t/2)}{t/2}\ , \\ \bar g_n^*(t) &=& g_n^*(t) \frac{\sinh(t/2\sqrt n)}{t/2\sqrt n}\ .\end{aligned}\] Ahora, como\(n \to \infty\), lo sabemos\(g_n^*(t) \to e^{t^2/2}\), y, por regla de L'Hôpital,\[\lim_{n \to \infty} \frac{\sinh(t/2\sqrt n)}{t/2\sqrt n} = 1\ .\] Se deduce eso\[\bar g_n^*(t) \to e^{t^2/2}\ ,\] y de ahí que\[\bar p_n^*(x) \to \frac1{\sqrt{2\pi}} e^{-x^2/2}\ ,\] como\(n \rightarrow \infty\). El lector astuto notará que en este boceto de la prueba del Teorema [thm 9.3.5], nunca hicimos uso de la hipótesis de que el mayor divisor común de las diferencias de todos los valores que el\(X_i\) puede asumir es 1. Este es un punto técnico que elegimos ignorar. Se puede encontrar una prueba completa en Gnedenko y Kolmogorov. 10

    Densidad Cauchy

    La función característica de una densidad continua es una herramienta útil incluso en los casos en que la serie de momentos no converge, o incluso en los casos en que los momentos en sí no son finitos. A modo de ejemplo, considere la densidad de Cauchy con parámetro\(a = 1\) (ver Ejemplo [examen 5.20])\[f(x) = \frac1{\pi(1 + x^2)}\ .\] Si\(X\) y\(Y\) son variables aleatorias independientes con densidad Cauchy\(f(x)\), entonces el promedio\(Z = (X + Y)/2\) también tiene densidad Cauchy\(f(x)\), es decir,\[f_Z(x) = f(x)\ .\] Esto es difícil de verificar directamente, pero fácil de verificar mediante el uso de funciones características. Obsérvese primero que\[\mu_2 = E(X^2) = \int_{-\infty}^{+\infty} \frac{x^2}{\pi(1 + x^2)}\, dx = \infty\] así\(\mu_2\) es infinito. Sin embargo, podemos definir la función característica\(k_X(\tau)\) de\(x\) por la fórmula\[k_X(\tau) = \int_{-\infty}^{+\infty} e^{i\tau x}\frac1{\pi(1 + x^2)}\, dx\ .\] Esta integral es fácil de hacer por métodos de contorno, y nos da\[k_X(\tau) = k_Y(\tau) = e^{-|\tau|}\ .\] De ahí,\[k_{X + Y}(\tau) = (e^{-|\tau|})^2 = e^{-2|\tau|}\ ,\] y ya que\[k_Z(\tau) = k_{X + Y}(\tau/2)\ ,\] tenemos\[k_Z(\tau) = e^{-2|\tau/2|} = e^{-|\tau|}\ .\] Esto demuestra que\(k_Z = k_X = k_Y\), y lleva a las conclusiones de que \(f_Z = f_X = f_Y\).

    De esto se deduce que si\(X_1\),\(X_2\),...,\(X_n\) es un proceso de ensayos independientes con densidad común de Cauchy, y si\[A_n = \frac{X_1 + X_2 + \cdots+ X_n}n\] es el promedio de la\(X_i\), entonces\(A_n\) tiene la misma densidad que lo hacen los\(X_i\). Esto significa que la Ley de Grandes Números falla para este proceso; la distribución del promedio\(A_n\) es exactamente la misma que para los términos individuales. Nuestra prueba de la Ley de Grandes Números falla en este caso porque la varianza de no\(X_i\) es finita.

    i [exer 10.3.1] Let\(X\) Ser una variable aleatoria continua con valores en\([\,0,2]\) y densidad\(f_X\). Encuentra la función de generación de momento\(g(t)\) para\(X\) if

    1. \(f_X(x) = 1/2\).
    2. \(f_X(x) = (1/2)x\).
    3. \(f_X(x) = 1 - (1/2)x\).
    4. \(f_X(x) = |1 - x|\).
    5. \(f_X(x) = (3/8)x^2\).

    : Utilizar la definición integral, como en Ejemplos [examen 10.3.1] y [examen 10.3.2].

    i [exer 10.3.2] Para cada una de las densidades en Ejercicio [exer 10.3.1] calcular el primer y segundo momentos,\(\mu_1\) y\(\mu_2\), directamente a partir de su definición y verificar que\(g(0) = 1\),\(g'(0) = \mu_1\), y\(g''(0) = \mu_2\).

    i [exer 10.3.3] Let\(X\) Ser una variable aleatoria continua con valores en\([\,0,\infty)\) y densidad\(f_X\). Encuentra el momento generando funciones para\(X\) if

    1. \(f_X(x) = 2e^{-2x}\).
    2. \(f_X(x) = e^{-2x} + (1/2)e^{-x}\).
    3. \(f_X(x) = 4xe^{-2x}\).
    4. \(f_X(x) = \lambda(\lambda x)^{n - 1} e^{-\lambda x}/(n - 1)!\).

    i [exer 10.3.4] Para cada una de las densidades en Ejercicio [exer 10.3.3], calcular el primer y segundo momentos,\(\mu_1\) y\(\mu_2\), directamente a partir de su definición y verificar que\(g(0) = 1\),\(g'(0) = \mu_1\), y\(g''(0) = \mu_2\).

    i [exer 10.3.5] Encuentra la función característica\(k_X(\tau)\) para cada una de las variables aleatorias\(X\) de Ejercicio [exer 10.3.1].

    i [exer 10.3.6] Dejar\(X\) ser una variable aleatoria continua cuya función característica\(k_X(\tau)\) es\[k_X(\tau) = e^{-|\tau|}, \qquad -\infty < \tau < +\infty\ .\] Mostrar directamente que la densidad\(f_X\) de\(X\) es\[f_X(x) = \frac1{\pi(1 + x^2)}\ .\]

    i [exer 10.3.7] Let\(X\) Ser una variable aleatoria continua con valores en\([\,0,1]\), función de densidad uniforme\(f_X(x) \equiv 1\) y función generadora de momento\(g(t) = (e^t - 1)/t\). Encuentra en términos de\(g(t)\) la función de generación de momento para

    1. \(-X\).
    2. \(1 + X\).
    3. \(3X\).
    4. \(aX + b\).

    i [exer 10.3.8] Dejar\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de ensayos independientes con densidad uniforme. Encuentra la función de generación de momento para

    1. \(X_1\).
    2. \(S_2 = X_1 + X_2\).
    3. \(S_n = X_1 + X_2 +\cdots+ X_n\).
    4. \(A_n = S_n/n\).
    5. \(S_n^* = (S_n - n\mu)/\sqrt{n\sigma^2}\).

    i [exer 10.3.9] Dejar\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de ensayos independientes con densidad normal de media 1 y varianza 2. Encuentra la función de generación de momento para

    1. \(X_1\).
    2. \(S_2 = X_1 + X_2\).
    3. \(S_n = X_1 + X_2 +\cdots+ X_n\).
    4. \(A_n = S_n/n\).
    5. \(S_n^* = (S_n - n\mu)/\sqrt{n\sigma^2}\).

    i [exer 10.3.10] Dejar\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de ensayos independientes con densidad\[f(x) = \frac12 e^{-|x|}, \qquad -\infty < x < +\infty\ .\]

    1. Encuentra la media y varianza de\(f(x)\).
    2. Encuentra la función de generación de momento para\(X_1\)\(S_n\),,\(A_n\), y\(S_n^*\).
    3. ¿Qué se puede decir sobre el momento que genera función de\(S_n^*\) as\(n \to \infty\)?
    4. ¿Qué se puede decir sobre el momento que genera función de\(A_n\) as\(n \to \infty\)?

    This page titled 10.3: Funciones generadoras para densidades continuas is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.