Saltar al contenido principal
LibreTexts Español

6.2: Varianza de variables aleatorias discretas

  • Page ID
    150274
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    La utilidad del valor esperado como predicción para el resultado de un experimento se incrementa cuando no es probable que el resultado se desvíe demasiado del valor esperado. En esta sección introduciremos una medida de esta desviación, denominada varianza.

    Varianza

    Definición

    Dejar\(X\) ser una variable aleatoria valorada numéricamente con valor esperado\(\mu = E(X)\). Entonces la varianza de\(X\), denotada por\(V(X)\), es\[V(X) = E((X - \mu)^2)\ .\]

    Obsérvese que, por el Teorema 6.1.1,\(V(X)\) viene dado por

    \[V(X) = \sum_x (x - \mu)^2 m(x)\ , \label{eq 6.1}\]donde\(m\) está la función de distribución de\(X\).

    Desviación estándar

    La desviación estándar de\(X\), denotada por\(D(X)\), es\(D(X) = \sqrt {V(X)}\). A menudo escribimos\(\sigma\) para\(D(X)\) y\(\sigma^2\) para\(V(X)\).

    Ejemplo\(\PageIndex{1}\)

    Considera un rollo de dado. Deja\(X\) ser el número que aparece. Para encontrar\(V(X)\), primero debemos encontrar el valor esperado de\(X\). Esto es

    \[\begin{align} \mu & = & E(X) = 1\Bigl(\frac 16\Bigr) + 2\Bigl(\frac 16\Bigr) + 3\Bigl(\frac{1}{6}\Bigr) + 4\Bigl(\frac{1}{6}\Bigr) + 5\Bigl(\frac{1}{6}\Bigr) + 6\Bigl(\frac{1}{6}\Bigr) \\ & = & \frac{7}{2} .\end{align}\]

    Para encontrar la varianza de\(X\), formamos la nueva variable aleatoria\((X - \mu)^2\) y calculamos su expectativa. Podemos hacer esto fácilmente usando la siguiente tabla.

    \[\begin{array}{ccc} & & \\ \hline x & m(x)& (x - 7/2)^2 \\ \hline 1 & 1/6 & 25/4 \\ 2 & 1/6 & 9/4 \\ 3 & 1/6 & 1/4 \\ 4 & 1/6 &1/4 \\ 5 & 1/6 & 9/4 \\ 6 & 1/6 & 25/4 \hline \end{array}\]

    De esta tabla encontramos\(E((X - \mu)^2)\) es\[\begin{align} V(X) & = & \frac{1}{6} \left( \frac{25}{4} + \frac{9}{4} + \frac{1}{4} + \frac{1}{4} + \frac{9}{4} + \frac {25}{4} \right) \\ & = &\frac{35}{12} \end{align}\]

    y la desviación estándar\(D(X) = \sqrt{35/12} \approx 1.707\).

    Cálculo de varianza

    A continuación probamos un teorema que nos da una forma alternativa útil para calcular la varianza.

    Teorema\(\PageIndex{1}\)

    Si\(X\) hay alguna variable aleatoria con\(E(X) = \mu\), entonces\[V(X) = E(X^2) - \mu^2\ .\]

    Prueba

    Tenemos\[\begin{aligned} V(X) & = & E((X - \mu)^2) = E(X^2 - 2\mu X + \mu^2) \\ & = & E(X^2) - 2\mu E(X) + \mu^2 = E(X^2) - \mu^2\ .\end{aligned}\]

    Usando el Teorema\(\PageIndex{1\), podemos calcular la varianza del resultado de un rollo de un dado por primera computación\[\begin{align} E(X^2) & = & 1\Bigl(\frac 16\Bigr) + 4\Bigl(\frac 16\Bigr) + 9\Bigl(\frac 16\Bigr) + 16\Bigl(\frac 16\Bigr) + 25\Bigl(\frac 16\Bigr) + 36\Bigl(\frac 16\Bigr) \\ & = &\frac {91}6\ ,\end{align}\] y,\[V(X) = E(X^2) - \mu^2 = \frac {91}{6} - \Bigl(\frac 72\Bigr)^2 = \frac {35}{12}\ ,\] de acuerdo con el valor obtenido directamente de la definición de\(V(X)\).

    Propiedades de Varianza

    La varianza tiene propiedades muy diferentes a las de la expectativa. Si\(c\) es alguna constante,\(E(cX) = cE(X)\) y\(E(X + c) = E(X) + c\). Estas dos afirmaciones implican que la expectativa es una función lineal. Sin embargo, la varianza no es lineal, como se ve en el siguiente teorema.

    Teorema\(\PageIndex{2}\)

    Si\(X\) es alguna variable aleatoria y\(c\) es cualquier constante, entonces\[V(cX) = c^2 V(X)\] y\[V(X + c) = V(X)\ .\]

    Prueba

    Vamos\(\mu = E(X)\). Entonces\(E(cX) = c\mu\), y\[\begin{aligned} V(cX) &=& E((cX - c\mu)^2) = E(c^2(X - \mu)^2) \\ &=& c^2 E((X - \mu)^2) = c^2 V(X)\ .\end{aligned}\]

    Para probar la segunda aserción, observamos que, para calcular\(V(X + c)\), reemplazaríamos\(x\) por\(x + c\) y\(\mu\) por\(\mu + c\) en la Ecuación [eq 6.1]. Entonces los\(c\)'s cancelarían, saliendo\(V(X)\).

    Pasamos ahora a algunas propiedades generales de la varianza. Recordemos que si\(X\) y\(Y\) son cualesquiera dos variables aleatorias,\(E(X + Y) = E(X) + E(Y)\). Esto no siempre es cierto para el caso de la varianza. Por ejemplo, let\(X\) be a random variable with\(V(X) \ne 0\), and define\(Y = -X\). Entonces\(V(X) = V(Y)\), para eso\(V(X) + V(Y) = 2V(X)\). Pero siempre\(X + Y\) es 0 y de ahí tiene varianza 0. Así\(V(X + Y) \ne V(X) + V(Y)\).

    En el caso importante de variables aleatorias mutuamente independientes, sin embargo, la varianza de la suma es la suma de las varianzas.

    Teorema\(\PageIndex{3}\)

    Dejar\(X\) y\(Y\) ser dos variables aleatorias. Entonces\[V(X + Y) = V(X) + V(Y)\ .\]

    Prueba

    Dejar\(E(X) = a\) y\(E(Y) = b\). Entonces\[\begin{aligned} V(X + Y) & = & E((X + Y)^2) - (a + b)^2 \\ & = & E(X^2) + 2E(XY) + E(Y^2) - a^2 - 2ab - b^2\ .\end{aligned}\] Desde\(X\) y\(Y\) son independientes,\(E(XY) = E(X)E(Y) = ab\). Por lo tanto,\[V(X + Y) = E(X^2) - a^2 + E(Y^2) - b^2 = V(X) + V(Y)\ .\]

    Es fácil extender esta prueba, por inducción matemática, para mostrar que la varianza de la suma de cualquier número de variables aleatorias mutuamente independientes es la suma de las varianzas individuales. Así tenemos el siguiente teorema.

    Teorema\(\PageIndex{4}\)

    Que\(X_1\),\(X_2\),...,\(X_n\) ser un proceso de juicios independientes con\(E(X_j) = \mu\) y\(V(X_j) = \sigma^2\). \[S_n = X_1 + X_2 +\cdots+ X_n\]Sea la suma, y\[A_n = \frac {S_n}n\] sea la media. Entonces\[\begin{aligned} E(S_n) &=& n\mu\ , \\ V(S_n) &=& n\sigma^2\ , \\ \sigma(S_n) &=& \sigma \sqrt{n}\ , \\ E(A_n) &=& \mu\ , \\ V(A_n) &=& \frac {\sigma^2}\ , \\ \sigma(A_n) &=& \frac{\sigma}{\sqrt n}\ .\end{aligned}\]

    Prueba

    Como todas las variables aleatorias\(X_j\) tienen el mismo valor esperado, tenemos\[E(S_n) = E(X_1) +\cdots+ E(X_n) = n\mu\ ,\]\[V(S_n) = V(X_1) +\cdots+ V(X_n) = n\sigma^2\ ,\] y\[\sigma(S_n) = \sigma \sqrt{n}\ .\]

    Hemos visto que, si multiplicamos una variable aleatoria\(X\) con media\(\mu\) y varianza\(\sigma^2\) por una constante\(c\), la nueva variable aleatoria tiene valor esperado\(c\mu\) y varianza\(c^2\sigma^2\). Por lo tanto,

    \[E(A_n) = E\left(\frac {S_n}n \right) = \frac {n\mu}n = \mu\ ,\]

    y

    \[V(A_n) = V\left( \frac {S_n}n \right) = \frac {V(S_n)}{n^2} = \frac {n\sigma^2}{n^2} = \frac {\sigma^2}n\ .\]

    Finalmente, la desviación estándar de\(A_n\) viene dada por

    \[\sigma(A_n) = \frac {\sigma}{\sqrt n}\ .\]

    La última ecuación en el teorema anterior implica que en un proceso de ensayos independientes, si las summandas individuales tienen varianza finita, entonces la desviación estándar del promedio va a 0 as\(n \rightarrow \infty\). Dado que la desviación estándar nos dice algo sobre la propagación de la distribución alrededor de la media, vemos que para valores grandes de\(n\), el valor de\(A_n\) suele estar muy cerca de la media de\(A_n\), que es igual\(\mu\), como se muestra arriba. Esta afirmación se hace precisa en el Capítulo 8 donde se llama la Ley de Números Grandes. Por ejemplo, vamos a\(X\) representar el rollo de un dado justo. En la Figura [fig 6.4.5], se muestra la distribución de una variable aleatoria\(A_n\) correspondiente a\(X\), para\(n = 10\) y\(n = 100\).

    Ejemplo\(\PageIndex{2}\)

    Considera\(n\) rollos de un dado. Hemos visto que, si\(X_j\) es el resultado si el rollo\(j\) th, entonces\(E(X_j) = 7/2\) y\(V(X_j) = 35/12\). Así, si\(S_n\) es la suma de los resultados, y\(A_n = S_n/n\) es el promedio de los resultados, tenemos\(E(A_n) = 7/2\) y\(V(A_n) = (35/12)/n\). Por lo tanto, a medida que\(n\) aumenta, el valor esperado del promedio se mantiene constante, pero la varianza tiende a 0. Si la varianza es una medida de la desviación esperada de la media esto indicaría que, para grandes\(n\), podemos esperar que el promedio esté muy cerca del valor esperado. Esto es en realidad el caso, y lo justificaremos en el Capítulo 8.

    Juicios de Bernoulli

    Consideremos a continuación el proceso general de juicios de Bernoulli. Como de costumbre, dejamos\(X_j = 1\) si el resultado\(j\) th es un éxito y 0 si es un fracaso. Si\(p\) es la probabilidad de éxito, y\(q = 1 - p\), entonces\[\begin{aligned} E(X_j) & = & 0q + 1p = p\ , \\ E(X_j^2) & = & 0^2q + 1^2p = p\ ,\end{aligned}\] y\[V(X_j) = E(X_j^2) - (E(X_j))^2 = p - p^2 = pq\ .\]

    Así, para los ensayos de Bernoulli, si\(S_n = X_1 + X_2 +\cdots+ X_n\) es el número de éxitos, entonces\(E(S_n) = np\)\(V(S_n) = npq\),, y\(D(S_n) = \sqrt{npq}.\) Si\(A_n = S_n/n\) es el número promedio de éxitos, entonces\(E(A_n) = p\),\(V(A_n) = pq/n\), y\(D(A_n) = \sqrt{pq/n}\). Vemos que la proporción esperada de éxitos se mantiene\(p\) y la varianza tiende a 0. Esto sugiere que la interpretación de frecuencia de la probabilidad es correcta. Esto lo haremos más preciso en el Capítulo 8.

    Ejemplo\(\PageIndex{3}\)

    Vamos a\(T\) denotar el número de juicios hasta el primer éxito en un proceso de juicios de Bernoulli. Entonces\(T\) se distribuye geométricamente. ¿Cuál es la varianza de\(T\)?

    Contestar

    En Ejemplo [examen 5.7], vimos que\[m_T = \pmatrix{1 & 2 & 3 & \cdots \cr p & qp & q^2p & \cdots \cr}.\] En Ejemplo [examen 6.8], demostramos que\[E(T) = 1/p\ .\]\[V(T) = E(T^2) - 1/p^2\ ,\] Así, así solo necesitamos encontrar\[\begin{aligned} E(T^2) & = & 1p + 4qp + 9q^2p + \cdots \\ & = & p(1 + 4q + 9q^2 + \cdots )\ .\end{aligned}\] Para evaluar esta suma, empezamos de nuevo con\[1 + x + x^2 +\cdots= \frac 1{1 - x}\ .\] Diferenciar, obtenemos\[1 + 2x + 3x^2 +\cdots= \frac 1{(1 - x)^2}\ .\] Multiplicando por\(x\),\[x + 2x^2 + 3x^3 +\cdots= \frac x{(1 - x)^2}\ .\] Diferenciando de nuevo da \[1 + 4x + 9x^2 +\cdots= \frac {1 + x}{(1 - x)^3}\ .\]Así,\[E(T^2) = p\frac {1 + q}{(1 - q)^3} = \frac {1 + q}{p^2}\] y\[\begin{aligned} V(T) & = & E(T^2) - (E(T))^2 \\ & = & \frac {1 + q}{p^2} - \frac 1{p^2} = \frac q{p^2}\ .\end{aligned}\]

    Por ejemplo, la varianza para el número de tiradas de una moneda hasta que aparezca la primera cabeza es\((1/2)/(1/2)^2 = 2\). La varianza para el número de rollos de un dado hasta que los seis primeros aparecen es\((5/6)/(1/6)^2 = 30\). Tenga en cuenta que, a medida que\(p\) disminuye, la varianza aumenta rápidamente. Esto corresponde al aumento de la dispersión de la distribución geométrica a medida que\(p\) disminuye (anotado en la Figura [fig 5.4]).

    Distribución de Poisson

    Al igual que en el caso de los valores esperados, es fácil adivinar la varianza de la distribución de Poisson con parámetro\(\lambda\). Recordamos que la varianza de una distribución binomial con parámetros\(n\) e\(p\) iguales\(npq\). También recordamos que la distribución de Poisson podría obtenerse como límite de distribuciones binomiales, si\(n\) va a\(\infty\) y\(p\) va a 0 de tal manera que su producto se mantenga fijo al valor\(\lambda\). En este caso,\(npq = \lambda q\) se acerca\(\lambda\), ya que\(q\) va a 1. Entonces, dada una distribución de Poisson con parámetro\(\lambda\), debemos adivinar que su varianza es\(\lambda\). Se pide al lector que muestre esto en Ejercicio\(\PageIndex{29}\)

    Ejercicio\(\PageIndex{1}\)

    Se elige un número al azar del conjunto\(S = \{-1,0,1\}\). \(X\)Sea el número elegido. Encuentra el valor esperado, varianza, y desviación estándar de\(X\).

    Ejercicio\(\PageIndex{2}\)

    Una variable aleatoria\(X\) tiene la distribución\[p_X = \pmatrix{ 0 & 1 & 2 & 4 \cr 1/3 & 1/3 & 1/6 & 1/6 \cr}\ .\] Encuentra el valor esperado, varianza, y desviación estándar de\(X\).

    Ejercicio\(\PageIndex{3}\)

    Haces una apuesta de 1 dólar al número 17 en Las Vegas, y tu amigo hace una apuesta de 1 dólar al negro (ver Ejercicios 1.1.6 y 1.1.7). Deja\(X\) que sean tus ganancias y\(Y\) sean sus ganancias. Comparar\(E(X)\),\(E(Y)\), y\(V(X)\),\(V(Y)\). ¿Qué te dicen estos cálculos sobre la naturaleza de tus ganancias si tú y tu amigo hacen una secuencia de apuestas, contigo apostando cada vez por un número y tu amigo apostando por un color?

    Ejercicio\(\PageIndex{4}\)

    \(X\)es una variable aleatoria con\(E(X) = 100\) y\(V(X) = 15\). Encuentra

    1. \(E(X^2)\).
    2. \(E(3X + 10)\).
    3. \(E(-X)\).
    4. \(V(-X)\).
    5. \(D(-X)\).

    Ejercicio\(\PageIndex{5}\)

    En cierto proceso de fabricación, la temperatura (Fahrenheit) nunca varía en más que\(2^\circ\) de\(62^\circ\). La temperatura es, de hecho, una variable aleatoria\(F\) con distribución\[P_F = \pmatrix{ 60 & 61 & 62 & 63 & 64 \cr 1/10 & 2/10 & 4/10 & 2/10 & 1/10 \cr}\ .\]

    1. Encontrar\(E(F)\) y\(V(F)\).
    2. Definir\(T = F - 62\). Encontrar\(E(T)\) y\(V(T)\) comparar estas respuestas con las de la parte (a).
    3. Se decide reportar las lecturas de temperatura en una escala Celsius, es decir,\(C = (5/9)(F - 32)\). ¿Cuál es el valor esperado y la varianza para las lecturas ahora?

    Ejercicio\(\PageIndex{6}\)

    Escriba un programa de computadora para calcular la media y varianza de una distribución que especifique como datos. Utilice el programa para comparar las varianzas para las siguientes densidades, teniendo ambas el valor esperado 0:\[p_X = \pmatrix{ -2 & -1 & 0 & 1 & 2 \cr 3/11 & 2/11 & 1/11 & 2/11 & 3/11 \cr}\ ;\]\[p_Y = \pmatrix{ -2 & -1 & 0 & 1 & 2 \cr 1/11 & 2/11 & 5/11 & 2/11 & 1/11 \cr}\ .\]

    Ejercicio\(\PageIndex{7}\)

    Una moneda es arrojada tres veces. \(X\)Sea el número de cabezas que aparecen. Encontrar\(V(X)\) y\(D(X)\).

    Ejercicio\(\PageIndex{8}\)

    Se pregunta a una muestra aleatoria de 2400 personas si favorecen una propuesta de gobierno para desarrollar nuevas centrales nucleares. Si 40 por ciento de la gente en el país está a favor de esta propuesta, encuentre el valor esperado y la desviación estándar para el número\(S_{2400}\) de personas en la muestra que favorecieron la propuesta.

    Ejercicio\(\PageIndex{9}\)

    Se carga un dado para que la probabilidad de que una cara suba sea proporcional al número en esa cara. El dado se enrolla con resultado\(X\). Encontrar\(V(X)\) y\(D(X)\).

    Ejercicio\(\PageIndex{10}\)

    Demostrar los siguientes hechos sobre la desviación estándar.

    1. \(D(X + c) = D(X)\).
    2. \(D(cX) = |c|D(X)\).

    Ejercicio\(\PageIndex{11}\)

    Se elige un número al azar de los números enteros 1, 2, 3,...,\(n\). \(X\)Sea el número elegido. Demostrar eso\(E(X) = (n + 1)/2\) y\(V(X) = (n - 1)(n + 1)/12\).: La siguiente identidad puede ser útil:\[1^2 + 2^2 + \cdots + n^2 = \frac{(n)(n+1)(2n+1)}{6}\ .\]

    Ejercicio\(\PageIndex{12}\)

    Dejar\(X\) ser una variable aleatoria con\(\mu = E(X)\) y\(\sigma^2 = V(X)\). Definir\(X^* = (X - \mu)/\sigma\). La variable aleatoria\(X^*\) se llama asociada con\(X\). Mostrar que esta variable aleatoria estandarizada tiene valor esperado 0 y varianza 1.

    Ejercicio\(\PageIndex{13}\)

    Peter y Paul juegan Heads or Tails (ver Ejemplo [examen 1.3]). \(W_n\)Dejen ser las ganancias de Peter después de\(n\) los partidos. Demuestre eso\(E(W_n) = 0\) y\(V(W_n) = n\).

    Ejercicio\(\PageIndex{14}\)

    Encuentra el valor esperado y la varianza para el número de niños y el número de niñas en una familia real que tiene hijos hasta que haya un niño o hasta que haya tres hijos, lo que ocurra primero.

    Ejercicio\(\PageIndex{15}\)

    Supongamos que\(n\) a la gente le devuelven sus sombreros al azar. Que\(X_i = 1\) si la persona\(i\) th obtiene su propio sombrero de vuelta y 0 de lo contrario. Vamos\(S_n = \sum_{i = 1}^n X_i\). Entonces\(S_n\) es el número total de personas que recuperan sus propios sombreros. Demostrar que

    1. \(E(X_i^2) = 1/n\).
    2. \(E(X_i \cdot X_j) = 1/n(n - 1)\)para\(i \ne j\).
    3. \(E(S_n^2) = 2\)(utilizando los apartados a) y b)).
    4. \(V(S_n) = 1\).

    Ejercicio\(\PageIndex{16}\)

    \(S_n\)Sea el número de éxitos en los ensayos\(n\) independientes. Utilice el programa BinomialProbabilities (Sección [sec 3.2]) para calcular, para dado\(n\)\(p\), y\(j\), la probabilidad\[P(-j\sqrt{npq} < S_n - np < j\sqrt{npq})\ .\]

    1. Dejar\(p = .5\), y calcular esta probabilidad para\(j = 1\), 2, 3 y\(n = 10\), 30, 50. Haz lo mismo para\(p = .2\).
    2. Mostrar que la variable aleatoria estandarizada\(S_n^* = (S_n - np)/\sqrt{npq}\) tiene valor esperado 0 y varianza 1. ¿Qué te dicen tus resultados de (a) sobre esta cantidad estandarizada\(S_n^*\)?

    Ejercicio\(\PageIndex{17}\)

    \(X\)Sea el resultado de un experimento casual con\(E(X) = \mu\) y\(V(X) = \sigma^2\). Cuando\(\mu\) y\(\sigma^2\) son desconocidos, el estadístico suele estimarlos repitiendo los\(n\) tiempos del experimento con los resultados\(x_1\),\(x_2\),...\(x_n\), estimando\(\mu\) por la media muestral

    \[\bar{x} = \frac 1n \sum_{i = 1}^n x_i\ ,\]a

    nd\(\sigma^2\) por la varianza de la muestra

    \[s^2 = \frac 1n \sum_{i = 1}^n (x_i - \bar x)^2\ .\]

    Entonces\(s\) es la desviación estándar de la muestra. Estas fórmulas deben recordar al lector las definiciones de la media teórica y varianza. (Muchos estadísticos definen la varianza de la muestra con el coeficiente\(1/n\) reemplazado por\(1/(n-1)\). Si se utiliza esta definición alternativa, el valor esperado de\(s^2\) es igual a\(\sigma^2\). Ver Ejercicio [exer 6.2.19], parte (d).)

    Escriba un programa de computadora que rolle un dado\(n\) veces y calcule la media de la muestra y la varianza de la muestra. Repita este experimento varias veces para\(n = 10\) y\(n = 1000\). ¿Qué tan bien estiman la media muestral y la varianza muestral la verdadera media 7/2 y varianza 35/12?

    Ejercicio\(\PageIndex{18}\)

    Demostrar que, para la media muestral\(\bar x\) y varianza muestral\(s^2\) como se define en Ejercicio [exer 6.2.18],

    1. \(E(\bar x) = \mu\).
    2. \(E\bigl((\bar x - \mu)^2\bigr) = \sigma^2/n\).
    3. \(E(s^2) = \frac {n-1}n\sigma^2\).: Para (c) escribir\[\begin{aligned} \sum_{i = 1}^n (x_i - \bar x)^2 & = & \sum_{i = 1}^n \bigl((x_i - \mu) - (\bar x - \mu)\bigr)^2 \\ & = & \sum_{i = 1}^n (x_i - \mu)^2 - 2(\bar x - \mu) \sum_{i = 1}^n (x_i - \mu) + n(\bar x - \mu)^2 \\ & = & \sum_{i = 1}^n (x_i - \mu)^2 - n(\bar x - \mu)^2,\end{aligned}\] y tomar expectativas de ambas partes, utilizando la parte (b) cuando sea necesario.
    4. Demostrar que si, en la definición de\(s^2\) en Ejercicio [exer 6.2.18], sustituimos el coeficiente\(1/n\) por el coeficiente\(1/(n-1)\), entonces\(E(s^2) = \sigma^2\). (Esto demuestra por qué muchos estadísticos utilizan el coeficiente\(1/(n-1)\). El número\(s^2\) se utiliza para estimar la cantidad desconocida\(\sigma^2\). Si un estimador tiene un valor promedio que es igual a la cantidad que se estima, entonces se dice que el estimador es imparcial. Así, el comunicado\(E(s^2) = \sigma^2\) dice que\(s^2\) es un estimador imparcial de\(\sigma^2\).)

    Ejercicio\(\PageIndex{19}\)

    \(X\)Sea una variable aleatoria tomando valores\(a_1\),\(a_2\),...,\(a_r\) con probabilidades\(p_1\),\(p_2\),...,\(p_r\) y con\(E(X) = \mu\). Defina el spread de la\(X\) siguiente manera:\[\bar\sigma = \sum_{i = 1}^r |a_i - \mu|p_i\ .\] Esto, al igual que la desviación estándar, es una forma de cuantificar la cantidad que una variable aleatoria se extiende alrededor de su media. Recordemos que la varianza de una suma de variables aleatorias mutuamente independientes es la suma de las varianzas individuales. El cuadrado del spread corresponde a la varianza de manera similar a la correspondencia entre el spread y la desviación estándar. Mostrar con un ejemplo que no es necesariamente cierto que el cuadrado del spread de la suma de dos variables aleatorias independientes sea la suma de los cuadrados de los spreads individuales.

    Ejercicio\(\PageIndex{20}\)

    Tenemos dos instrumentos que miden la distancia entre dos puntos. Las medidas dadas por los dos instrumentos son variables aleatorias\(X_1\) y\(X_2\) que son independientes con\(E(X_1) = E(X_2) = \mu\), donde\(\mu\) está la distancia verdadera. A partir de la experiencia con estos instrumentos, conocemos los valores de las varianzas\(\sigma_1^2\) y\(\sigma_2^2\). Estas varianzas no son necesariamente las mismas. A partir de dos mediciones, estimamos\(\mu\) por el promedio ponderado\(\bar \mu = wX_1 + (1 - w)X_2\). Aquí\(w\) se elige\([0,1]\) para minimizar la varianza de\(\bar \mu\).

    1. ¿Qué es\(E(\bar \mu)\)?
    2. ¿Cómo\(w\) se debe elegir\([0,1]\) para minimizar la varianza de\(\bar \mu\)?

    Ejercicio\(\PageIndex{21}\)

    Dejar\(X\) ser una variable aleatoria con\(E(X) = \mu\) y\(V(X) = \sigma^2\). Mostrar que la función\(f(x)\) definida por\[f(x) = \sum_\omega (X(\omega) - x)^2 p(\omega)\] tiene su valor mínimo cuando\(x = \mu\).

    Ejercicio\(\PageIndex{22}\)

    Dejar\(X\) y\(Y\) ser dos variables aleatorias definidas en el espacio muestral finito\(\Omega\). Supongamos que\(X\)\(Y\)\(X + Y\),, y\(X - Y\) todos tienen la misma distribución. \(P(X = Y = 0) = 1\)Demuéstralo.

    Ejercicio\(\PageIndex{23}\)

    Si\(X\) y\(Y\) son cualesquiera dos variables aleatorias, entonces la covarianza de\(X\) y\(Y\) es definida por Cov\((X,Y) = E((X - E(X))(Y - E(Y)))\). Tenga en cuenta que Cov\((X,X) = V(X)\). Demostrar que, si\(X\) y\(Y\) son independientes, entonces Cov\((X,Y) = 0\); y mostrar, con un ejemplo, que podemos tener Cov\((X,Y) = 0\) y\(X\) y\(Y\) no independientes.

    Ejercicio\(\PageIndex{24}\)

    Un profesor desea hacer un examen verdadero-falso con\(n\) preguntas. Ella asume que puede diseñar los problemas de tal manera que un estudiante responda correctamente\(j\) al problema con probabilidad\(p_j\), y que las respuestas a los diversos problemas puedan considerarse experimentos independientes. Dejar\(S_n\) ser el número de problemas que un estudiante va a conseguir corregir. El profesor desea elegir para\(p_j\) que\(E(S_n) = .7n\) y para que la varianza de\(S_n\) sea lo más grande posible. Demostrar que, para lograrlo, debe elegir\(p_j = .7\) para todos\(j\); es decir, debe hacer que todos los problemas tengan la misma dificultad.

    Ejercicio\(\PageIndex{25}\)

    (Lamperti 20) Una urna contiene exactamente 5000 bolas, de las cuales un número desconocido\(X\) son blancas y el resto rojas, donde\(X\) es una variable aleatoria con una distribución de probabilidad en los enteros 0, 1, 2,..., 5000.

    1. Supongamos que sabemos eso\(E(X) = \mu\). Demostrar que esto es suficiente para permitirnos calcular la probabilidad de que una bola extraída al azar de la urna sea blanca. ¿Cuál es esta probabilidad?
    2. Dibujamos una bola de la urna, examinamos su color, la reemplazamos y luego dibujamos otra. En qué condiciones, en su caso, son independientes los resultados de los dos dibujos; es decir, hace\[P(white,white) = P(white)^2 ?\]
    3. Supongamos que la varianza de\(X\) es\(\sigma^2\). ¿Cuál es la probabilidad de dibujar dos bolas blancas en la parte (b)?

    Ejercicio\(\PageIndex{26}\)

    Para una secuencia de ensayos de Bernoulli, dejó\(X_1\) ser el número de ensayos hasta el primer éxito. Para\(j \geq 2\), deja\(X_j\) ser el número de ensayos después del\((j - 1)\) st éxito hasta el\(j\) th éxito. Se puede demostrar que\(X_1\),\(X_2\),... es un proceso de juicios independientes.

    1. ¿Para qué sirve la distribución común, el valor esperado y la varianza\(X_j\)?
    2. Vamos\(T_n = X_1 + X_2 + \cdots + X_n\). Entonces\(T_n\) es el momento hasta el éxito\(n\) th. Encontrar\(E(T_n)\) y\(V(T_n)\).
    3. Utilice los resultados de (b) para encontrar el valor esperado y la varianza para el número de tiradas de una moneda hasta\(n\) la aparición de una cabeza.

    Ejercicio\(\PageIndex{27}\)

    Refiriéndose al Ejercicio 6.1.30, encuentra la varianza para el número de cajas de Wheaties compradas antes de obtener la mitad de las imágenes de los jugadores y la varianza para el número de cajas adicionales necesarias para obtener la segunda mitad de las imágenes de los jugadores.

    Ejercicio\(\PageIndex{28}\)

    En el Ejemplo 5.1.3, supongamos que el libro en cuestión tiene 1000 páginas. \(X\)Sea el número de páginas sin errores. Demuestre eso\(E(X) = 905\) y\(V(X) = 86\). Utilizando estos resultados, muestran que la probabilidad es\({} \leq .05\) que haya más de 924 páginas sin errores o menos de 866 páginas sin errores.

    Ejercicio\(\PageIndex{29}\)

    Let\(X\) Be Poisson distribuido con parámetro\(\lambda\). Demostrar que\(V(X) = \lambda\) .'6.2'});


    This page titled 6.2: Varianza de variables aleatorias discretas is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.