Saltar al contenido principal
LibreTexts Español

10.5: Tendencia Central

  • Page ID
    118483
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Considere las siguientes dos situaciones:

    • Situación 1. Un pequeño pueblo decide celebrar una lotería para recaudar fondos con fines caritativos. Se venden un total de 10,001 boletos, y los boletos están etiquetados con números del conjunto {0,1,2,... ,10,000}. En una ceremonia pública, los boletos duplicados se colocan en una caja grande, y el alcalde saca el boleto ganador de fuera de la caja. Sólo para acrecentar el suspenso en cuanto a quién realmente ha ganado el premio, el alcalde informa que el número ganador es de al menos 7,500. Los ciudadanos ooh y aah y no pueden esperar a ver quién de ellos será el ganador final.
    • Situación 2. Detrás de una cortina, una moneda justa es arrojada 10 mil veces, y el número de cabezas es registrado por un observador, que tiene fama de ser honesto e imparcial. Nuevamente, el resultado es un entero en el conjunto {0,1,2,... ,10,000}. El observador luego emerge de detrás del telón y anuncia que el número de cabezas es de al menos 7 mil 500. Hay una pausa y luego alguien dice “¿Qué? ¿Estás fuera de tu mente?”

    Entonces tenemos dos espacios de probabilidad, ambos con espacio muestral\(S=\{0,1,2,…,10,000\}\). Para cada uno, tenemos una variable aleatoria\(X\), el número de boleto ganador en la primera situación, y el número de cabezas en la segunda. En cada caso, el valor esperado,\(E(X)\), de la variable aleatoria\(X\) es 5,000. En el primer caso, no nos sorprende tanto un desenlace lejos del valor esperado, mientras que en el segundo, parece intuitivamente claro que se trata de una ocurrencia extraordinaria. El concepto matemático aquí se conoce como tendencia central, y nos ayuda a comprender cuán probable es que una variable aleatoria se desvíe de su valor esperado.

    Para empezar, tenemos el siguiente resultado elemental.

    Teorema 10.20. Desigualdad de Markov

    Dejar\(X\) ser una variable aleatoria en un espacio de probabilidad\((S,P)\). Entonces para cada\(k>0\),

    \(P(|X| \geq k) \leq E(|X|)/k\).

    Prueba

    Por supuesto, la desigualdad se sostiene trivialmente a menos que\(k>E(|X|)\). Para\(k\) en este rango, establecemos la desigualdad equivalente:\(kP(|X| \geq k) \leq E(|X|)\).

    \(kP(|X| \geq k) = \displaystyle \sum_{r \geq k} kP(|X| = r)\)

    \( \leq \displaystyle \sum_{r \geq k} rP(|X| = r)\)

    \( \leq \displaystyle \sum_{r>0} rP(|X| = r)\)

    \(= E(|X|)\).

    Para concretar más la desigualdad de Markov, vemos que sobre la base de este resultado trivial, la probabilidad de que el boleto de lotería ganador o el número de cabezas sea de al menos 7.500 es como máximo 5000/7500=2/3. Entonces nada alarmante aquí en ninguno de los dos casos. Dado que seguimos sintiendo que los dos casos son bastante diferentes, se requerirá una medida más sutil.

    10.5.1 Varianza y Desviación Estándar

    Nuevamente, let\((S,P)\) be a probability space and let\(X\) be a random variable. La cantidad\(E((X−E(X))^2)\) se llama varianza de\(X\) y se denota\(var⁡(X)\). Evidentemente, la varianza de\(X\) es un número no negativo. La desviación estándar de\(X\), denotada\( \sigma_X\) se define entonces como la cantidad\(\sqrt{var⁡(x)}\), es decir,\(\sigma_X^2 = var(X)\).

    Ejemplo 10.21

    Para el spinner que se muestra al principio del capítulo, deja\(X(i)=i^2\) cuando el puntero se detiene en la región\(i\). Entonces ya hemos señalado que la expectativa\(E(X)\) de la variable aleatoria\(X\) es 109/8. De ello se deduce que la varianza var (\(X\)) es:

    \(var(X) = (1^2 - \dfrac{109}{8})^2 \dfrac{1}{8} + (2^2 - \dfrac{109}{8})^2 \dfrac{1}{4} + (3^2 - \dfrac{109}{8})^2 \dfrac{1}{8} + (4^2 - \dfrac{109}{8})^2 \dfrac{1}{8} + (5^2 - \dfrac{109}{8})^2 \dfrac{3}{8}\)

    \( = (108^2 + 105^2 + 100^2 + 93^2 + 84^2)/512\)

    \(= 48394/512\)

    De ello se deduce que la desviación estándar\(\sigma_X\) de\(X\) es entonces\(\sqrt{48394/512} \approx 9.722\).

    Ejemplo 10.22

    Supongamos eso\(0<p<1\) y consideremos una serie de ensayos de\(n\) Bernoulli con la probabilidad de éxito siendo\(p\), y vamos a\(X\) contar el número de éxitos. Eso ya lo hemos señalado\(E(X)=np\). Ahora afirmamos que la varianza de\(X\) viene dada por:

    \(var(X) = \displaystyle \sum_{i=0}^n (i -np)^2 \dbinom{n}{i}p^i (1-p)^{n-i} = np(1-p)\)

    Existen varias formas de establecer esta afirmación. Una forma es proceder directamente de la definición, utilizando el mismo método que empleamos anteriormente para obtener la expectativa. Pero ahora también se necesita calcular la segunda derivada. Aquí hay un segundo enfoque, uno que capitaliza el hecho de que los juicios separados en una serie de Bernoulli son independientes.

    Dejar\(\mathcal{F}=\{X_1,X_2,…,X_n\}\) ser una familia de variables aleatorias en un espacio de probabilidad\((S,P)\). Decimos que la familia\(\mathcal{F}\) es independiente si por cada uno\(i\) y\(j\) con\(1 \leq i<j \leq n\), y por cada par\(a,b\) de números reales con\(0 \leq a,b \leq 1\), los dos eventos siguientes son independientes:\(\{x \in S:X_i(x) \leq a\}\) y\(\{x \in S:X_j(x) \leq b\}\). Cuando la familia es independiente, es sencillo verificar que

    \(var⁡(X_1+X_2+ \cdot \cdot \cdot +X_n)=var⁡(X_1)+var⁡(X_2)+ \cdot \cdot \cdot +var⁡(X_n)\).

    Con la ayuda de esta observación, el cálculo de la varianza de la variable aleatoria\(X\) que cuenta el número de éxitos se convierte en un cálculo trivial. Pero, de hecho, todo el tratamiento que hemos descrito aquí es solo una pequeña parte de un tema más complejo que puede tratarse de manera más elegante y, en última instancia, mucho más compacto, siempre que primero desarrolle material de fondo adicional sobre familias de variables aleatorias. Para ello te referiremos a textos adecuados de probabilidad y estadística, como los que se dan en nuestras referencias.

    Proposición 10.23

    Dejar\(X\) ser una variable aleatoria en un espacio de probabilidad\((S,P)\). Entonces\(var(X) = E(X^2) - E^2(X)\).

    Prueba

    Vamos\(E(X)=μ\). De su definición, observamos que

    \(var(X) = \displaystyle \sum_{r} (r - μ)^2 prob (X = r)\)

    \( = \displaystyle \sum_{r} (r^2 - 2rμ + μ^2)prob(X = r)\)

    \( = \displaystyle \sum_{r} r^2 prob(X=r) - 2μ \sum_{r} prob(X = r) + μ^2 \sum_{r} prob(X=r)\)

    \( = E(X^2) - 2μ^2 + μ^2\)

    \( = E(X^2) - μ^2\)

    \( = E(X^2) - E^2(X)\).

    La varianza (y desviación estándar) son herramientas muy útiles en las discusiones sobre la probabilidad de que una variable aleatoria esté cerca de su valor esperado. Esto se refleja en el siguiente teorema.

    Teorema 10.24. Desigualdad de Chebyshev

    Dejar\(X\) ser una variable aleatoria en un espacio de probabilidad\((S,P)\), y dejar\(k>0\) ser un número real positivo. Si la expectativa\(E(X)\) de\(X\) es\(μ\) y la desviación estándar es\(σ_X\), entonces

    prob (\(|X - E(X)| \leq k \sigma_X) \geq 1 - \dfrac{1}{k^2}\).

    Prueba

    Vamos\(A=\{r \in \mathbb{R}:|r−μ|>kσ_X\}\).

    Entonces tenemos:

    var (\(X\)) =\(E((X−μ)^2)\)

    \(= \sum_{r \in \mathbb{R}} (r−μ)^2\)prob (\(X=r\))

    \(≥\sum_{r \in A}(r−μ)^2\)prob (\(X=r\))

    \(≥k^2σ_X^2 \sum_{r \in A}\)prob (\(X=r\))

    \(≥k^2σ_X^2\)prob (\(|X−μ|>kσX\)).

    Desde var (\(X\)) =\(σ_X^2\), ahora podemos deducir ese\(1/k^2 \geq \) prob (\(|X−μ|)>kσ_X\)). Por lo tanto, desde prob (\(|X−μ|≤kσ_X)=1\)−prob (\(|X−μ|>kσ_X\)), concluimos que

    prob (\(|X - μ| \leq k \sigma_X) \geq 1 - \dfrac{1}{k^2}\).

    Ejemplo 10.25

    Aquí hay un ejemplo de cómo se puede aplicar la Desigualdad de Chebyshev. Considera\(n\) tiradas de una moneda justa con\(X\) contar el número de cabezas. Como se señaló antes,\(μ=E(X)=n/2\) y\(var⁡(X)=n/4\), así\(σ_X=\sqrt{n}/2\). Cuándo\(n=10,000\) y\(μ=5,000\) y\(σ_X=50\). Estableciendo de\(k=50\) manera que\(kσ_X=2500\), vemos que la probabilidad que\(X\) está dentro de 2500 del valor esperado de 5000 es de al menos 0.9996. Por lo que parece muy improbable efectivamente que el número de cabezas sea de al menos 7 mil 500.

    Volviendo a los boletos de lotería, si hacemos la suposición racional de que todos los números de boletos son igualmente probables, entonces la probabilidad de que el número ganador sea de al menos 7.500 es exactamente 2501/100001, que está muy cerca de 1/4.

    Ejemplo 10.26

    En el caso de los ensayos de Bernoulli, podemos utilizar las propiedades básicas de los coeficientes binomiales para hacer estimaciones aún más precisas. Claramente, en el caso del lanzamiento de monedas, la probabilidad de que el número de cabezas en 10,000 tiradas sea de al menos 7,500 viene dada por

    \(\displaystyle \sum_{i = 7,500}^{10,000} \dbinom{10,000}{i}/2^{10,000}\)

    Ahora un sistema de álgebra por computadora puede hacer este cálculo exactamente, y se le anima a verificarlo solo para ver cuán realmente pequeña es esta cantidad en realidad.


    This page titled 10.5: Tendencia Central is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Mitchel T. Keller & William T. Trotter via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.