Saltar al contenido principal
LibreTexts Español

10.1: Generación de funciones para distribuciones discretas

  • Page ID
    150250
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Hasta el momento hemos considerado en detalle sólo los dos atributos más importantes de una variable aleatoria, a saber, la media y la varianza. Hemos visto cómo estos atributos entran en los teoremas de límite fundamental de probabilidad, así como en todo tipo de cálculos prácticos. Hemos visto que la media y varianza de una variable aleatoria contienen información importante sobre la variable aleatoria, o, más precisamente, sobre la función de distribución de esa variable. Ahora veremos que la media y varianza sí contienen la información disponible sobre la función de densidad de una variable aleatoria. Para empezar, es fácil dar ejemplos de diferentes funciones de distribución que tienen la misma media y la misma varianza. Por ejemplo, supongamos\(X\) y\(Y\) son variables aleatorias, con distribuciones

    \[p_X = \pmatrix{ 1 & 2 & 3 & 4 & 5 & 6\cr 0 & 1/4 & 1/2 & 0 & 0 & 1/4\cr},\]\[p_Y = \pmatrix{ 1 & 2 & 3 & 4 & 5 & 6\cr 1/4 & 0 & 0 & 1/2 & 1/4 & 0\cr}.\]

    Entonces con estas elecciones, tenemos\(E(X) = E(Y) = 7/2\) y\(V(X) = V(Y) = 9/4\), y sin embargo ciertamente\(p_X\) y\(p_Y\) son funciones de densidad bastante diferentes.

    Esto plantea una pregunta: Si\(X\) es una variable aleatoria con rango\(\{x_1, x_2, \ldots\}\) de como máximo tamaño contable, y función de distribución\(p = p_X\), y si conocemos su media\(\mu = E(X)\) y su varianza\(\sigma^2 = V(X)\), entonces ¿qué más necesitamos saber para determinar\(p\) completamente?

    Momentos

    Una buena respuesta a esta pregunta, al menos en el caso de que\(X\) tenga rango finito, se puede dar en términos de la de\(X\), que son números definidos de la siguiente manera:\[\begin{aligned} \mu_k &=& k \mbox{th}\,\,\mbox{moment~of}\,\, X\\ &=& E(X^k) \\ &=& \sum_{j = 1}^\infty (x_j)^k p(x_j)\ ,\end{aligned}\] siempre que la suma converja. Aquí\(p(x_j) = P(X = x_j)\).

    En términos de estos momentos, la media\(\mu\) y varianza\(\sigma^2\) de\(X\) están dadas simplemente por

    \[\begin{aligned} \mu &=& \mu_1, \\ \sigma^2 &=& \mu_2 - \mu_1^2\ ,\end{aligned}\]de manera que un conocimiento de los dos primeros momentos de nos\(X\) da su media y varianza. Pero un conocimiento de los momentos de\(X\) determina su función de distribución\(p\) por completo.

    Funciones de generación de momentos

    Para ver cómo se produce esto, introducimos una nueva variable\(t\), y definimos una función de la\(g(t)\) siguiente manera:

    \[\begin{aligned} g(t) &=& E(e^{tX}) \\ &=& \sum_{k = 0}^\infty \frac {\mu_k t^k}{k!} \\ &=& E\left(\sum_{k = 0}^\infty \frac {X^k t^k}{k!} \right) \\ &=& \sum_{j = 1}^\infty e^{tx_j} p(x_j)\ .\end{aligned}\]Llamamos\(g(t)\) al for\(X\), y lo pensamos como un conveniente dispositivo de contabilidad para describir los momentos de\(X\). En efecto, si diferenciamos\(g(t)\)\(n\) tiempos y luego establecemos\(t = 0\), obtenemos\(\mu_n\):

    \[\begin{aligned} \left. \frac {d^n}{dt^n} g(t) \right|_{t = 0} &=& g^{(n)}(0) \\ &=& \left. \sum_{k = n}^\infty \frac {k!\, \mu_k t^{k - n}} {(k - n)!\, k!} \right|_{t = 0} \\ &=& \mu_n\ .\end{aligned}\]Es fácil calcular la función de generación de momento para ejemplos simples.

    Ejemplos

    Ejemplo\(\PageIndex{1}\):

    Supongamos que\(X\) tiene rango\(\{1,2,3,\ldots,n\}\) y\(p_X(j) = 1/n\) para\(1 \leq j \leq n\) (distribución uniforme). Entonces

    \[\begin{aligned} g(t) &=& \sum_{j = 1}^n \frac 1n e^{tj} \\ &=& \frac 1n (e^t + e^{2t} +\cdots+ e^{nt}) \\ &=& \frac {e^t (e^{nt} - 1)} {n (e^t - 1)}\ .\end{aligned}\]Si usamos la expresión en el lado derecho de la segunda línea de arriba, entonces es fácil ver que

    \[\begin{aligned} \mu_1 &=& g'(0) = \frac 1n (1 + 2 + 3 + \cdots + n) = \frac {n + 1}2, \\ \mu_2 &=& g''(0) = \frac 1n (1 + 4 + 9+ \cdots + n^2) = \frac {(n + 1)(2n + 1)}6\ ,\end{aligned}\]y eso\(\mu = \mu_1 = (n + 1)/2\) y\(\sigma^2 = \mu_2 - \mu_1^2 = (n^2 - 1)/12\).

    Ejemplo\(\PageIndex{2}\):

    Supongamos ahora que\(X\) tiene rango\(\{0,1,2,3,\ldots,n\}\) y\(p_X(j) = {n \choose j} p^j q^{n - j}\) para\(0 \leq j \leq n\) (distribución binomial). Entonces\[\begin{aligned} g(t) &=& \sum_{j = 0}^n e^{tj} {n \choose j} p^j q^{n - j} \\ &=& \sum_{j = 0}^n {n \choose j} (pe^t)^j q^{n - j} \\ &=& (pe^t + q)^n\ .\end{aligned}\] Tenga en cuenta que\[\begin{aligned} \mu_1 = g'(0) &=& \left. n(pe^t + q)^{n - 1}pe^t \right|_{t = 0} = np\ , \\ \mu_2 = g''(0) &=& n(n - 1)p^2 + np\ ,\end{aligned}\] para eso\(\mu = \mu_1 = np\), y\(\sigma^2 = \mu_2 - \mu_1^2 = np(1 - p)\), como se esperaba.

    Ejemplo\(\PageIndex{3}\):

    Supongamos que\(X\) tiene rango\(\{1,2,3,\ldots\}\) y\(p_X(j) = q^{j - 1}p\) para todos\(j\) (distribución geométrica). Entonces\[\begin{aligned} g(t) &=& \sum_{j = 1}^\infty e^{tj} q^{j - 1}p \\ &=& \frac {pe^t}{1 - qe^t}\ .\end{aligned}\] Aquí\[\begin{aligned} \mu_1 &=& g'(0) = \left. \frac {pe^t}{(1 - qe^t)^2} \right|_{t = 0} = \frac 1p\ , \\ \mu_2 &=& g''(0) = \left. \frac {pe^t + pqe^{2t}}{(1 - qe^t)^3} \right|_{t = 0} = \frac {1 + q}{p^2}\ ,\end{aligned}\]\(\mu = \mu_1 = 1/p\), y\(\sigma^2 = \mu_2 - \mu_1^2 = q/p^2\), como se computa en Ejemplo [examen 6.21].

    Ejemplo\(\PageIndex{4}\):

    Let\(X\) have range\(\{0,1,2,3,\ldots\}\) y let\(p_X(j) = e^{-\lambda}\lambda^j/j!\) for all\(j\) (distribución de Poisson con media\(\lambda\)). Entonces\[\begin{aligned} g(t) &=& \sum_{j = 0}^\infty e^{tj} \frac {e^{-\lambda}\lambda^j}{j!} \\ &=& e^{-\lambda} \sum_{j = 0}^\infty \frac {(\lambda e^t)^j}{j!} \\ &=& e^{-\lambda} e^{\lambda e^t} = e^{\lambda(e^t - 1)}\ .\end{aligned}\] Entonces\[\begin{aligned} \mu_1 &=& g'(0) = \left. e^{\lambda(e^t - 1)}\lambda e^t \right|_{t = 0} = \lambda\ ,\\ \mu_2 &=& g''(0) = \left. e^{\lambda(e^t - 1)} (\lambda^2 e^{2t} + \lambda e^t) \right|_{t = 0} = \lambda^2 + \lambda\ ,\end{aligned}\]\(\mu = \mu_1 = \lambda\), y\(\sigma^2 = \mu_2 - \mu_1^2 = \lambda\).

    La varianza de la distribución de Poisson es más fácil de obtener de esta manera que directamente a partir de la definición (como se hizo en Ejercicio [sec 6.2]. [exer 6.2.100]).

    Problema de Momento

    Usando la función de generación de momentos, ahora podemos mostrar, al menos en el caso de una variable aleatoria discreta con rango finito, que su función de distribución está completamente determinada por sus momentos.

    Teorema\(\PageIndex{1}\)

    Agrega texto de ejercicios aquí. Para que el número automático funcione, es necesario Let\(X\) be una variable aleatoria discreta con rango finito\(\{x_1,x_2,\ldots,\linebreak x_n\}\), función de distribución y función\(p\) de generación de momento\(g\). Entonces\(g\) está determinado de manera única por\(p\), y a la inversa.

    Prueba

    Sabemos que eso\(p\) determina\(g\), ya que a\[g(t) = \sum_{j = 1}^n e^{tx_j} p(x_j)\ .\] la inversa, supongamos que\(g(t)\) se sabe. Deseamos determinar los valores de\(x_j\) y\(p(x_j)\), para\(1 \le j \le n\). Asumimos, sin pérdida de generalidad, que\(p(x_j) > 0\) para\(1 \le j \le n\), y que\[x_1 < x_2 < \ldots < x_n\ .\] Observamos que\(g(t)\) es diferenciable para todos\(t\), ya que se trata de una combinación lineal finita de funciones exponenciales. Si calculamos\(g'(t)/g(t)\), obtenemos\[

    ParseError: EOF expected (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/10:_Generando_funciones/10.01:_Generación_de_funciones_para_distribuciones_discretas), /content/body/div[4]/div/dl/dd/p/span[14]/span, line 1, column 5
    
    \ .\] Dividiendo tanto arriba como abajo por\(e^{tx_n}\), obtenemos la expresión\[
    ParseError: EOF expected (click for details)
    Callstack:
        at (Estadisticas/Teoria_de_Probabilidad/Libro:_Probabilidad_Introductoria_(Grinstead_y_Snell)/10:_Generando_funciones/10.01:_Generación_de_funciones_para_distribuciones_discretas), /content/body/div[4]/div/dl/dd/p/span[16]/span, line 1, column 5
    
    \ .\]
    Since\(x_n\) es la mayor de las\(x_j\)'s, esta expresión se acerca\(x_n\) como\(t\) va a\(\infty\). Entonces hemos demostrado que\[x_n = \lim_{t \rightarrow \infty} {{g'(t)}\over{g(t)}}\ .\] Para encontrar\(p(x_n)\), simplemente dividimos\(g(t)\) por\(e^{tx_n}\) y\(t\) soltamos a\(\infty\). Una vez\(x_n\) y se\(p(x_n)\) hayan determinado, podemos restar\(p(x_n) e^{tx_n}\) de\(g(t)\), y repetir el procedimiento anterior con la función resultante, obteniendo, a su vez,\(x_{n-1}, \ldots, x_1\) y\(p(x_{n-1}), \ldots, p(x_1)\).

    Si eliminamos la hipótesis que\(X\) tienen rango finito en el teorema anterior, entonces la conclusión ya no es necesariamente cierta.

    Funciones Generadoras Ordinarias

    En el caso especial pero importante donde los\(x_j\) son todos enteros no negativos,\(x_j = j\), podemos probar este teorema de una manera más sencilla.

    En este caso, tenemos\[g(t) = \sum_{j = 0}^n e^{tj} p(j)\ ,\] y vemos que\(g(t)\) es un in\(e^t\). Si escribimos\(z = e^t\), y definimos la función\(h\) para\[h(z) = \sum_{j = 0}^n z^j p(j)\ ,\] entonces\(h(z)\) es un polinomio en\(z\) contener la misma información que\(g(t)\), y de hecho\[\begin{aligned} h(z) &=& g(\log z)\ , \\ g(t) &=& h(e^t)\ .\end{aligned}\] La función a menudo\(h(z)\) se llama para\(X\). Tenga en cuenta que\(h(1) = g(0) = 1\)\(h'(1) = g'(0) = \mu_1\),, y\(h''(1) = g''(0) - g'(0) = \mu_2 - \mu_1\). De todo esto se deduce que si sabemos\(g(t)\), entonces sabemos\(h(z)\), y si sabemos\(h(z)\), entonces podemos encontrar la fórmula de\(p(j)\) by Taylor:\[\begin{aligned} p(j) &=& \mbox{coefficient~of}\,\, z^j \,\, \mbox{in}\,\, h(z) \\ &=& \frac{h^{(j)}(0)}{j!}\ .\end{aligned}\]

    Por ejemplo, supongamos que sabemos que los momentos de una determinada variable aleatoria discreta\(X\) están dados por\[\begin{aligned} \mu_0 &=& 1\ , \\ \mu_k &=& \frac12 + \frac{2^k}4\ , \qquad \mbox{for}\,\, k \geq 1\ .\end{aligned}\] Entonces el momento que genera la función\(g\) de\(X\) es\[\begin{aligned} g(t) &=& \sum_{k = 0}^\infty \frac{\mu_k t^k}{k!} \\ &=& 1 + \frac12 \sum_{k = 1}^\infty \frac{t^k}{k!} + \frac14 \sum_{k = 1}^\infty \frac{(2t)^k}{k!} \\ &=& \frac14 + \frac12 e^t + \frac14 e^{2t}\ .\end{aligned}\] Este es un polinomio en\(z = e^t\), y\[h(z) = \frac14 + \frac12 z + \frac14 z^2\ .\] Por lo tanto,\(X\) debe tener rango\(\{0,1,2\}\), y \(p\)debe tener valores\(\{1/4,1/2,1/4\}\).

    Propiedades

    Tanto la función\(g\) generadora de momento como la función generadora ordinaria\(h\) tienen muchas propiedades útiles en el estudio de variables aleatorias, de las cuales podemos considerar solo algunas aquí. En particular, si\(X\) es alguna variable aleatoria discreta y\(Y = X + a\), entonces\[\begin{aligned} g_Y(t) &=& E(e^{tY}) \\ &=& E(e^{t(X + a)}) \\ &=& e^{ta} E(e^{tX}) \\ &=& e^{ta} g_X(t)\ ,\end{aligned}\] mientras si\(Y = bX\), entonces\[\begin{aligned} g_Y(t) &=& E(e^{tY}) \\ &=& E(e^{tbX}) \\ &=& g_X(bt)\ .\end{aligned}\] En particular, si\[X^* = \frac{X - \mu}\sigma\ ,\] entonces (ver Ejercicio [exer 10.1.14])\[g_{x^*}(t) = e^{-\mu t/\sigma} g_X\left( \frac t\sigma \right)\ .\]

    Si\(X\) y\(Y\) son variables aleatorias y\(Z = X + Y\) es su suma, con\(p_X\)\(p_Y\), y\(p_Z\) las funciones de distribución asociadas, entonces hemos visto en Capítulo [chp 7] que\(p_Z\) es el de\(p_X\) y\(p_Y\), y sabemos que la convolución implica un más bien cálculo complicado. Pero para las funciones generadoras tenemos en cambio las relaciones simples es\[\begin{aligned} g_Z(t) &=& g_X(t) g_Y(t)\ , \\ h_Z(z) &=& h_X(z) h_Y(z)\ ,\end{aligned}\] decir,\(g_Z\) es simplemente el de\(g_X\) y\(g_Y\), y de manera similar para\(h_Z\).

    Para ver esto, primero tenga en cuenta que si\(X\) y\(Y\) son independientes, entonces\(e^{tX}\) y\(e^{tY}\) son independientes (ver Ejercicio [sec 5.2]. [exer 5.2.38]), y de ahí\[E(e^{tX} e^{tY}) = E(e^{tX}) E(e^{tY})\ .\] se deduce que\[\begin{aligned} g_Z(t) &=& E(e^{tZ}) = E(e^{t(X + Y)}) \\ &=& E(e^{tX}) E(e^{tY}) \\ &=& g_X(t) g_Y(t)\ ,\end{aligned}\] y, sustituyendo\(t\) por\(\log z\), también obtenemos\[h_Z(z) = h_X(z) h_Y(z)\ .\]

    Ejemplo\(\PageIndex{5}\):

    Si\(X\) y\(Y\) son variables aleatorias discretas independientes con rango\(\{0,1,2,\ldots,n\}\) y distribución binomial\[p_X(j) = p_Y(j) = {n \choose j} p^j q^{n - j}\ ,\] y si\(Z = X + Y\), entonces sabemos (ver Sección [sec 7.1]) que el rango de\(X\) es\[\{0,1,2,\ldots,2n\}\] y\(X\) tiene distribución binomial\[p_Z(j) = (p_X * p_Y)(j) = {2n \choose j} p^j q^{2n - j}\ .\] Aquí podemos fácilmente verificar este resultado mediante el uso de funciones de generación. Eso lo sabemos\[\begin{aligned} g_X(t) = g_Y(t) &=& \sum_{j = 0}^n e^{tj} {n \choose j} p^j q^{n - j} \\ &=& (pe^t + q)^n\ ,\end{aligned}\] y\[h_X(z) = h_Y(z) = (pz + q)^n\ .\] por lo tanto, tenemos\[g_Z(t) = g_X(t) g_Y(t) = (pe^t + q)^{2n}\ ,\] o, lo que es lo mismo,\[\begin{aligned} h_Z(z) &=& h_X(z) h_Y(z) = (pz + q)^{2n} \\ &=& \sum_{j = 0}^{2n} {2n \choose j} (pz)^j q^{2n - j}\ ,\end{aligned}\] a partir de lo cual podemos ver que el coeficiente de\(z^j\) es justo\(p_Z(j) = {2n \choose j} p^j q^{2n - j}\).

    Ejemplo\(\PageIndex{6}\):

    Si\(X\) y\(Y\) son variables aleatorias discretas independientes con los enteros no negativos\(\{0,1,2,3,\ldots\}\) como rango, y con la función de distribución geométrica\[p_X(j) = p_Y(j) = q^j p\ ,\] entonces\[g_X(t) = g_Y(t) = \frac p{1 - qe^t}\ ,\] y\[\begin{aligned} g_Z(t) &=& g_X(t) g_Y(t) \\ &=& \frac{p^2}{1 - 2qe^t + q^2 e^{2t}}\ .\end{aligned}\] si\(Z = X + Y\), entonces Si reemplazamos\(e^t\) por\(z\), obtenemos\[\begin{aligned} h_Z(z) &=& \frac{p^2}{(1 - qz)^2} \\ &=& p^2 \sum_{k = 0}^\infty (k + 1) q^k z^k\ ,\end{aligned}\] y podemos leer los valores de\(p_Z(j)\) como el coeficiente de\(z^j\) en esta expansión para\(h(z)\), aunque no\(h(z)\) sea un polinomio en este caso. La distribución\(p_Z\) es una distribución binomial negativa (ver Sección [sec 5.1]).

    Aquí hay un ejemplo más interesante del poder y alcance del método de generación de funciones.

    Cabezas o Colas

    Ejercicio\(\PageIndex{1}\)

    En el juego de lanzamiento de monedas discutido en Ejemplo [examen 1.3], ahora consideramos la pregunta “¿Cuándo Peter está primero a la cabeza?”

    Contestar

    Vamos a\(X_k\) describir el resultado de la prueba\(k\) th en el juego\[X_k = \left \{ \matrix{ +1, &\mbox{if}\,\, k{\rm th}\,\, \mbox{toss~is~heads}, \cr -1, &\mbox{if}\,\, k{\rm th}\,\, \mbox{toss~is~tails.}\cr}\right.\] Entonces las\(X_k\) son variables aleatorias independientes que describen un proceso de Bernoulli. Dejar\(S_0 = 0\), y, para\(n \geq 1\), dejar\[S_n = X_1 + X_2 + \cdots + X_n\ .\] Entonces\(S_n\) describe la fortuna de Pedro después de las\(n\) pruebas, y Peter es el primero en la cabeza después de las\(n\) pruebas si es\(S_k \leq 0\) por\(1 \leq k < n\) y\(S_n = 1\).

    Ahora bien, esto puede suceder cuándo\(n = 1\), en qué caso\(S_1 = X_1 = 1\), o cuándo\(n > 1\), en qué caso\(S_1 = X_1 = -1\). En este último caso,\(S_k = 0\) para\(k = n - 1\), y quizás para otros\(k\) entre 1 y\(n\). \(m\)Sea el tal valor de\(k\); entonces\(S_m = 0\) y\(S_k < 0\) para\(1 \leq k < m\). En este caso Peter pierde en el primer juicio, recupera su posición inicial en los próximos\(m - 1\) juicios, y gana la ventaja en los próximos\(n - m\) juicios.

    Que\(p\) sea la probabilidad de que la moneda venga a la cabeza, y deje\(q = 1-p\). \(r_n\)Sea la probabilidad de que Peter esté primero a la cabeza después de\(n\) los juicios. Entonces de la discusión anterior, vemos que\[\begin{aligned} r_n &=& 0\ , \qquad \mbox{if}\,\, n\,\, \mbox{even}, \\ r_1 &=& p \qquad (= \mbox{probability~of~heads~in~a~single~toss)}, \\ r_n &=& q(r_1r_{n-2} + r_3r_{n-4} +\cdots+ r_{n-2}r_1)\ , \qquad \mbox{if} \ n > 1,\ n\ \mbox{odd}.\end{aligned}\] Ahora vamos a\(T\) describir el tiempo (es decir, el número de juicios) requerido para que Pedro tome la iniciativa. Entonces\(T\) es una variable aleatoria, y ya que\(P(T = n) = r_n\),\(r\) es la función de distribución para\(T\).

    Introducimos la función generadora\(h_T(z)\) para\(T\):

    \[h_T(z) = \sum_{n = 0}^\infty r_n z^n\ .\]

    Luego, mediante el uso de las relaciones anteriores, podemos verificar la relación

    \[h_T(z) = pz + qz(h_T(z))^2\ .\]

    Si resolvemos esta ecuación cuadrática para\(h_T(z)\), obtenemos\[h_T(z) = \frac{1 \pm \sqrt{1 - 4pqz^2}}{2qz} = \frac{2pz}{1 \mp \sqrt{1 - 4pqz^2}}\ .\] De estas dos soluciones, queremos la que tenga una serie de potencia convergente en\(z\) (es decir, que es finita para\(z = 0\)). De ahí que elegimos\[h_T(z) = \frac{1 - \sqrt{1 - 4pqz^2}}{2qz} = \frac{2pz}{1 + \sqrt{1 - 4pqz^2}}\ .\] Ahora podemos preguntar: ¿Cuál es la probabilidad de que Pedro esté a la cabeza? Esta probabilidad viene dada por (ver Ejercicio\(\PageIndex{10}\))

    \[\begin{aligned} \sum_{n = 0}^\infty r_n &=& h_T(1) = \frac{1 - \sqrt{\mathstrut1 - 4pq}}{2q} \\ &=& \frac{1 - |p - q|}{2q} \\ &=& \left \{ \begin{array}{ll} p/q, & \mbox{if $p < q$}, \\ 1, & \mbox{if $p \geq q$}, \end{array}\right. \end{aligned}\]para que Peter esté seguro de estar a la cabeza eventualmente si\(p \geq q\).

    ¿Cuánto tiempo tardará? Es decir, ¿cuál es el valor esperado\(T\)? Este valor lo da\[E(T) = h_T'(1) = \left \{ \matrix { 1/(p - q), & \mbox{if}\,\, p > q, \cr \infty, & \mbox{if}\,\, p = q.\cr}\right.\] Esto dice que si\(p > q\), entonces Peter puede esperar estar a la cabeza por sobre\(1/(p - q)\) los juicios\(p = q\), pero si, puede esperar esperar mucho tiempo.

    Un problema relacionado, conocido como el problema de la ruina del jugador, se estudia en Ejercicio [exer 11.2.22] y en la Sección 12.2.

    Ejercicios

    Ejercicio\(\PageIndex{1}\)

    Encuentre las funciones generadoras, tanto ordinarias\(h(z)\) como de momento\(g(t)\), para las siguientes distribuciones de probabilidad discretas.

    1. La distribución que describe una moneda justa.
    2. La distribución que describe un dado justo.
    3. La distribución describiendo un dado que siempre surge 3.
    4. La distribución uniforme en el set\(\{n,n+1,n+2,\ldots,n+k\}\).
    5. La distribución binomial en\(\{n,n+1,n+2,\ldots,n+k\}\).
    6. La distribución geométrica en\(\{0,1,2,\ldots,\}\) con\(p(j) = 2/3^{j + 1}\).

    Ejercicio\(\PageIndex{2}\)

    Para cada una de las distribuciones (a) a (d) de Ejercicio\(\PageIndex{1}\) calcular el primer y segundo momentos,\(\mu_1\) y\(\mu_2\), directamente a partir de su definición, y verificar que\(h(1) = 1\),\(h'(1) = \mu_1\), y\(h''(1) = \mu_2 - \mu_1\).

    Ejercicio\(\PageIndex{3}\)

    Dejar\(p\) ser una distribución de probabilidad encendido\(\{0,1,2\}\) con momentos\(\mu_1 = 1\),\(\mu_2 = 3/2\).

    1. Encuentra su función generadora ordinaria\(h(z)\).
    2. Usando (a), encuentra su función generadora de momento.
    3. Utilizando (b), encuentra sus primeros seis momentos.
    4. Usando (a), encontrar\(p_0\),\(p_1\), y\(p_2\).

    Ejercicio\(\PageIndex{4}\)

    En Ejercicio\(\PageIndex{3}\) la distribución de probabilidad está completamente determinada por sus dos primeros momentos. Demostrar que esto siempre es cierto para cualquier distribución de probabilidad en\(\{0,1,2\}\).: Dado\(\mu_1\) y\(\mu_2\), encontrar\(h(z)\) como en Ejercicio\(\PageIndex{3}\) y utilizar\(h(z)\) para determinar\(p\).

    Ejercicio\(\PageIndex{5}\)

    Dejar\(p\) y\(p'\) ser las dos distribuciones

    \[p = \pmatrix{ 1 & 2 & 3 & 4 & 5 \cr 1/3 & 0 & 0 & 2/3 & 0 \cr}\ ,\]

    \[p' = \pmatrix{ 1 & 2 & 3 & 4 & 5 \cr 0 & 2/3 & 0 & 0 & 1/3 \cr}\ .\]

    1. Demuestre eso\(p\) y\(p'\) tenga el mismo primer y segundo momento, pero no el mismo tercer y cuarto momento.
    2. Encuentra las funciones ordinarias y generadoras de momento para\(p\) y\(p'\).

    Ejercicio\(\PageIndex{6}\)

    Dejar\(p\) ser la distribución de probabilidad

    \[p = \pmatrix{ 0 & 1 & 2 \cr 0 & 1/3 & 2/3 \cr}\ ,\]y dejar\(p_n = p * p * \cdots * p\) ser la convolución\(n\) -fold de\(p\) consigo mismo.

    1. Encuentra\(p_2\) por cálculo directo (ver Definición 7.1.1).
    2. Encuentre las funciones generadoras ordinarias\(h(z)\) y\(h_2(z)\) para\(p\) y\(p_2\), y verifíquelo\(h_2(z) = (h(z))^2\).
    3. Encuentra\(h_n(z)\) de\(h(z)\).
    4. Encuentra los dos primeros momentos, y de ahí la media y varianza, de\(p_n\) de\(h_n(z)\). Verificar que la media de\(p_n\) es\(n\) veces la media de\(p\).
    5. Encuentra esos enteros\(j\) para los cuales\(p_n(j) > 0\) de\(h_n(z)\).

    Ejercicio\(\PageIndex{7}\)

    Let\(X\) Ser una variable aleatoria discreta con valores en\(\{0,1,2,\ldots,n\}\) y función de generación de momento\(g(t)\). Encuentra, en términos de\(g(t)\), las funciones generadoras para

    1. \(-X\).
    2. \(X + 1\).
    3. \(3X\).
    4. \(aX + b\).

    Ejercicio\(\PageIndex{8}\)

    Que\(X_1\),\(X_2\),...,\(X_n\) sea un proceso de ensayos independientes, con valores en\(\{0,1\}\) y media\(\mu = 1/3\). Encuentre las funciones ordinarias y generadoras de momento para la distribución de

    1. \(S_1 = X_1\).: Primero encuentra\(X_1\) explícitamente.
    2. \(S_2 = X_1 + X_2\).
    3. \(S_n = X_1 + X_2 +\cdots+ X_n\).

    Ejercicio\(\PageIndex{9}\)

    Dejar\(X\) y\(Y\) ser variables aleatorias con valores en\(\{1,2,3,4,5,6\}\) con funciones de distribución\(p_X\) y\(p_Y\) dadas por\[\begin{aligned} p_X(j) &=& a_j\ , \\ p_Y(j) &=& b_j\ .\end{aligned}\]

    1. Encuentra las funciones generadoras ordinarias\(h_X(z)\) y\(h_Y(z)\) para estas distribuciones.
    2. Encuentra la función generadora ordinaria\(h_Z(z)\) para la distribución\(Z = X + Y\).
    3. \(h_Z(z)\)Demostrar que nunca puede tener la forma\[h_Z(z) = \frac{z^2 + z^3 +\cdots+ z^{12}}{11}\ .\]

    :\(h_X\) y\(h_Y\) debe tener al menos una raíz distinta de cero, pero\(h_Z(z)\) en la forma dada no tiene raíces reales distintas de cero.

    De esta observación se deduce que no hay forma de cargar dos dados de manera que la probabilidad de que una suma dada aparezca cuando se lancen es la misma para todas las sumas (es decir, que todos los resultados sean igualmente probables).

    Ejercicio\(\PageIndex{10}\)

    Demostrar que si\[h(z) = \frac{1 - \sqrt{1 - 4pqz^2}}{2qz}\ ,\] entonces\[h(1) = \left \{ \begin{array}{ll} p/q, & \mbox{if $p \leq q,$} \\ 1, & \mbox{if $p \geq q,$} \end{array}\right.\] y\[h'(1) = \left \{ \begin{array}{ll} 1/(p - q), & \mbox{if $p > q,$}\\ \infty, & \mbox{if $p = q.$} \end{array}\right.\]

    Ejercicio\(\PageIndex{11}\)

    Mostrar que si\(X\) es una variable aleatoria con media\(\mu\) y varianza\(\sigma^2\), y si\(X^* = (X - \mu)/\sigma\) es la versión estandarizada de\(X\), entonces\[g_{X^*}(t) = e^{-\mu t/\sigma} g_X\left( \frac t\sigma \right)\ .\]


    This page titled 10.1: Generación de funciones para distribuciones discretas is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.