5.6: La distribución normal
- Page ID
- 151721
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)La distribución normal tiene un papel honrado en la probabilidad y la estadística, principalmente por el teorema del límite central, uno de los teoremas fundamentales que forma un puente entre los dos sujetos. Además, como veremos, la distribución normal tiene muchas propiedades matemáticas agradables. A la distribución normal también se le llama distribución gaussiana, en honor a Carl Friedrich Gauss, quien estuvo entre los primeros en utilizar la distribución.
La distribución normal estándar
Funciones de distribución
La distribución normal estándar es una distribución continua\( \R \) con función de densidad de probabilidad\(\phi\) dada por\[ \phi(z) = \frac{1}{\sqrt{2 \pi}} e^{-z^2 / 2}, \quad z \in \R \]
Prueba de que\( \phi \) es una función de densidad de probabilidad
Vamos\(c = \int_{-\infty}^{\infty} e^{-z^2 / 2} dz\). Tenemos que demostrarlo\( c = \sqrt{2 \pi} \). Es decir,\(\sqrt{2 \pi}\) es la constante normalizadora para la función\(z \mapsto e^{-z^2 / 2}\). La prueba usa un buen truco: Ahora\[ c^2 = \int_{-\infty}^\infty e^{-x^2 / 2} \, dx \int_{-\infty}^\infty e^{-y^2 / 2} \, dy = \int_{\R^2} e^{-(x^2 + y^2) / 2} \, d(x, y)\] convertimos la doble integral a coordenadas polares:\( x = r \cos \theta \),\( y = r \sin \theta \) dónde\( r \in [0, \infty) \) y\( \theta \in [0, 2 \pi) \). Entonces,\( x^2 + y^2 = r^2 \) y\( d(x, y) = r \, d(r, \theta) \). Así, convirtiendo de nuevo a integrales iteradas,\[ c^2 = \int_0^{2 \pi} \int_0^\infty r e^{-r^2 / 2} \, dr \, d\theta \] Sustituyendo\( u = r^2 / 2 \) en la integral interna da\( \int_0^\infty e^{-u} \, du = 1 \) y luego la integral externa es\( \int_0^{2 \pi} 1 \, d\theta = 2 \pi \). Así,\( c^2 = 2 \pi \) y así\( c = \sqrt{2 \pi} \).
La función de densidad de probabilidad normal estándar tiene la famosa forma de campana
que es conocida por casi todos.
La función de densidad normal estándar\(\phi\) satisface las siguientes propiedades:
- \(\phi\)es simétrico sobre\(z = 0\).
- \(\phi\)aumenta y luego disminuye, con modo\( z = 0 \).
- \(\phi\)es cóncava hacia arriba y luego hacia abajo y luego hacia arriba nuevamente, con puntos de inflexión en\(z = \pm 1\).
- \(\phi(z) \to 0\)como\(z \to \infty\) y como\(z \to -\infty\).
Prueba
Estos resultados se derivan del cálculo estándar. Tenga en cuenta que\(\phi^\prime(z) = - z \phi(z)\) (que da (b)) y por lo tanto también\( \phi^{\prime \prime}(z) = (z^2 - 1) \phi(z) \) (que da (c)).
En el Simulador de Distribución Especial, seleccione la distribución normal y mantenga los ajustes predeterminados. Tenga en cuenta la forma y ubicación de la función de densidad normal estándar. Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.
La función de distribución normal estándar\(\Phi\), dada por\[ \Phi(z) = \int_{-\infty}^z \phi(t) \, dt = \int_{-\infty}^z \frac{1}{\sqrt{2 \pi}} e^{-t^2 / 2} \, dt \] y su inversa, la función cuantil\(\Phi^{-1}\), no puede expresarse en forma cerrada en términos de funciones elementales. Sin embargo, los valores aproximados de estas funciones se pueden obtener de la calculadora de distribución especial, y de la mayoría de los programas de matemáticas y estadísticas. En efecto, estas funciones son tan importantes que se consideran funciones especiales de las matemáticas.
La función de distribución normal estándar\(\Phi\) satisface las siguientes propiedades:
- \(\Phi(-z) = 1 - \Phi(z)\)para\(z \in \R\)
- \(\Phi^{-1}(p) = -\Phi^{-1}(1 - p)\)para\(p \in (0, 1)\)
- \(\Phi(0) = \frac{1}{2}\), por lo que la mediana es 0.
Prueba
La parte (a) se desprende de la simetría de\( \phi \). La parte b) se desprende de la parte a). La parte (c) se desprende de la parte (a) con\( z = 0 \).
En la calculadora de distribución especial, seleccione la distribución normal y mantenga los ajustes predeterminados.
- Anote la forma de la función de densidad y la función de distribución.
- Encuentra el primer y tercer cuartiles.
- Calcular el rango intercuartílico.
En la calculadora de distribución especial, seleccione la distribución normal y mantenga los ajustes predeterminados. Encuentra los cuantiles de los siguientes pedidos para la distribución normal estándar:
- \(p = 0.001\),\(p = 0.999\)
- \(p = 0.05\),\(p = 0.95\)
- \(p = 0.1\),\(p = 0.9\)
Momentos
Supongamos que la variable aleatoria\( Z \) tiene la distribución normal estándar.
La media y varianza\( Z \) de
- \( \E(Z) = 0 \)
- \( \var(Z) = 1 \)
Prueba
- Por supuesto, por simetría, si\( Z \) tiene una media, la media debe ser 0, pero hay que argumentar que la media existe. En realidad no es difícil calcular la media directamente. Tenga en cuenta que\[ \E(Z) = \int_{-\infty}^\infty z \frac{1}{\sqrt{2 \pi}} e^{-z^2 / 2} \, dz = \int_{-\infty}^0 z \frac{1}{\sqrt{2 \pi}} e^{-z^2 / 2} \, dz + \int_0^\infty z \frac{1}{\sqrt{2 \pi}} e^{-z^2 / 2} \, dz \] Las integrales de la derecha pueden ser evaluadas explícitamente usando la sustitución simple\( u = z^2 / 2 \). El resultado es\( \E(Z) = -1/\sqrt{2 \pi} + 1/\sqrt{2 \pi} = 0 \).
- Tenga en cuenta que\[ \var(Z) = \E(Z^2) = \int_{-\infty}^\infty z^2 \phi(z) \, dz \] Integrar por partes, utilizando las partes\( u = z \) y\( dv = z \phi(z) \, dz \). Así\( du = dz \) y\( v = -\phi(z) \). Tenga en cuenta que\( z \phi(z) \to 0 \) como\( z \to \infty \) y como\( z \to -\infty \). Así, la fórmula de integración por partes da\( \var(Z) = \int_{-\infty}^\infty \phi(z) \, dz = 1 \).
En el Simulador de Distribución Especial, seleccione la distribución normal y mantenga los ajustes predeterminados. Tenga en cuenta la forma y el tamaño de la barra de desviación\( \pm \) estándar media.. Ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media verdadera y la desviación estándar.
De manera más general, podemos calcular todos los momentos. La clave es la siguiente fórmula de recursividad.
Para\( n \in \N_+ \),\( \E\left(Z^{n+1}\right) = n \E\left(Z^{n-1}\right) \)
Prueba
Primero usamos la ecuación diferencial en la prueba de las propiedades PDF anteriores, a saber\( \phi^\prime(z) = - z \phi(z) \). \[ \E\left(Z^{n+1}\right) = \int_{-\infty}^\infty z^{n+1} \phi(z) \, dz = \int_{-\infty}^\infty z^n z \phi(z) \, dz = - \int_{-\infty}^\infty z^n \phi^\prime(z) \, dz \]Ahora integramos por partes, con\( u = z^n \) y\( dv = \phi^\prime(z) \, dz \) para obtener\[ \E\left(Z^{n+1}\right) = -z^n \phi(z) \bigg|_{-\infty}^\infty + \int_{-\infty}^\infty n z^{n-1} \phi(z) \, dz = 0 + n \E\left(Z^{n-1}\right) \]
Los momentos de la distribución normal estándar ahora son fáciles de calcular.
Para\(n \in \N\),
- \(\E \left( Z^{2 n} \right) = 1 \cdot 3 \cdots (2n - 1) = (2 n)! \big/ (n! 2^n) \)
- \(\E \left( Z^{2 n + 1} \right) = 0\)
Prueba
El resultado se desprende de la relación media y varianza y recursión anterior.
- Ya que\( \E(Z) = 0 \) se deduce que\( \E\left(Z^n\right) = 0 \) por cada impar\( n \in \N \).
- Ya que\( \E\left(Z^2\right) = 1 \), se deduce eso\( \E\left(Z^4\right) = 1 \cdot 3 \) y entonces\( \E\left(Z^6\right) = 1 \cdot 3 \cdot 5 \), y así sucesivamente. Puedes usar inducción, si quieres, para una prueba más formal.
Por supuesto, el hecho de que los momentos de orden impar sean 0 también se desprende de la simetría de la distribución. El siguiente teorema da la asimetría y curtosis de la distribución normal estándar.
La asimetría y curtosis de\( Z \) son
- \(\skw(Z) = 0\)
- \(\kur(Z) = 3\)
Prueba
- Esto se desprende inmediatamente de la simetría de la distribución. Directamente, ya que\( Z \) tiene media 0 y varianza 1,\( \skw(Z) = \E\left(Z^3\right) = 0 \).
- Desde\( \E(Z) = 0 \) y\( \var(Z) = 1 \),\( \kur(Z) = \E\left(Z^4\right) = 3\).
Debido al último resultado, (y al uso de la distribución normal estándar literalmente como estándar), el exceso de curtosis de una variable aleatoria se define como la curtosis ordinaria menos 3. Así, el exceso de curtosis de la distribución normal es 0.
Muchas otras propiedades importantes de la distribución normal se obtienen más fácilmente usando la función generadora de momento o la función característica.
La función generadora de momento\( m \) y la función característica\( \chi \) de\( Z \) están dadas por
- \(m(t) = e^{t^2 / 2}\)para\( t \in \R\).
- \(\chi(t) = e^{-t^2 / 2}\)para\( t \in \R \).
Prueba
- Tenga en cuenta que\[ m(t) = \E(e^{t Z}) = \int_{-\infty}^\infty e^{t z} \frac{1}{\sqrt{2 \pi}} e^{-z^2 / 2} \, dz = \int_{-\infty}^\infty \frac{1}{2 \pi} \exp\left(-\frac{1}{2} z^2 + t z\right) \, dz \] Completamos la plaza en\( z \) para conseguir\( -\frac{1}{2} z^2 + t z = -\frac{1}{2}(z - t)^2 + \frac{1}{2} \). Así tenemos\[ \E(e^{t Z}) = e^{\frac{1}{2} t^2} \int_{-\infty}^\infty \frac{1}{\sqrt{2 \pi}} \exp\left[-\frac{1}{2}(z - t)^2\right] \, dz \] En la integral, si utilizamos la sustitución simple\(u = z - t\) entonces la integral se vuelve\(\int_{-\infty}^\infty \phi(u) \, du = 1\). Por lo tanto\( \E\left(e^{t Z}\right) = e^{\frac{1}{2} t^2} \),
- Esto se desprende de (a) desde\(\chi(t) = m(i t)\).
Así, la distribución normal estándar tiene la curiosa propiedad de que la función característica es un múltiplo de la función de densidad de probabilidad:\[ \chi = \sqrt{2 \pi} \phi \] La función generadora de momentos puede ser utilizada para dar otra derivación de los momentos de\( Z \), ya que sabemos que\( \E\left(Z^n\right) = m^{(n)}(0) \).
La distribución normal general
La distribución normal general es la familia de escala de ubicación asociada con la distribución normal estándar.
Supongamos que\(\mu \in \R\)\( \sigma \in (0, \infty) \) y y que\(Z\) tiene la distribución normal estándar. Después\(X = \mu + \sigma Z\) tiene la distribución normal con parámetro de ubicación\(\mu\) y parámetro de escala\(\sigma\).
Funciones de distribución
Supongamos que\( X \) tiene la distribución normal con parámetro de ubicación\( \mu \in \R \) y parámetro de escala\( \sigma \in (0, \infty) \). Las propiedades básicas de la función de densidad y la función de distribución de\( X \) siguen los resultados generales para familias de escala de ubicación.
La función de densidad de probabilidad\(f\) de\( X \) viene dada por\[ f(x) = \frac{1}{\sigma} \phi\left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sqrt{2 \, \pi} \, \sigma} \exp \left[ -\frac{1}{2} \left( \frac{x - \mu}{\sigma} \right)^2 \right], \quad x \in \R \]
Prueba
Esto se desprende de la fórmula de cambio de variables correspondiente a la transformación\( x = \mu + \sigma z \).
La función de densidad de probabilidad\(f\) satisface las siguientes propiedades:
- \(f\)es simétrico sobre\(x = \mu\).
- \(f\)aumenta y luego disminuye con el modo\( x = \mu \).
- \(f\)es cóncavo hacia arriba luego hacia abajo luego hacia arriba nuevamente, con puntos de inflexión en\( x = \mu \pm \sigma \).
- \(f(x) \to 0\)como\(x \to \infty\) y como\(x \to -\infty\).
Prueba
Estas propiedades se derivan de las propiedades correspondientes de\( \phi \).
En el simulador de distribución especial, seleccione la distribución normal. Varíe los parámetros y anote la forma y ubicación de la función de densidad de probabilidad. Con su elección de parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad verdadera.
Dejar\(F\) denotar la función de distribución de\( X \), y como anteriormente, vamos\(\Phi\) denotar la función de distribución normal estándar.
La función de distribución\(F\) y la función cuantil\( F^{-1} \) satsifican las siguientes propiedades:
- \(F(x) = \Phi \left( \frac{x - \mu}{\sigma} \right)\)para\(x \in \R\).
- \(F^{-1}(p) = \mu + \sigma \, \Phi^{-1}(p)\)para\(p \in (0, 1)\).
- \(F(\mu) = \frac{1}{2}\)por lo que la mediana se produce en\(x = \mu\).
Prueba
La parte (a) sigue desde entonces\( X = \mu + \sigma Z \). Las partes (b) y (c) siguen de (a).
En la calculadora de distribución especial, seleccione la distribución normal. Varíe los parámetros y anote la forma de la función de densidad y la función de distribución.
Momentos
Supongamos nuevamente que\( X \) tiene la distribución normal con parámetro de ubicación\( \mu \in \R \) y parámetro de escala\( \sigma \in (0, \infty) \). Como sugiere la notación, los parámetros de ubicación y escala son también la media y la desviación estándar, respectivamente.
La media y varianza\( X \) de
- \(\E(X) = \mu\)
- \(\var(X) = \sigma^2\)
Prueba
Esto se desprende de la representación\( X = \mu + \sigma Z \) y propiedades básicas del valor esperado y varianza.
Por lo que los parámetros de la distribución normal suelen ser referidos como la media y la desviación estándar en lugar de ubicación y escala. Los momentos centrales de se\(X\) pueden calcular fácilmente a partir de los momentos de la distribución normal estándar. Los momentos ordinarios (crudos) de se\(X\) pueden calcular a partir de los momentos centrales, pero las fórmulas son un poco desordenadas.
Para\(n \in \N\),
- \(\E \left[ (X - \mu)^{2 n} \right] = 1 \cdot 3 \cdots (2n - 1) \sigma^{2n} = (2 n)! \sigma^{2n} \big/ (n! 2^n)\)
- \(\E \left[ (X - \mu)^{2 \, n + 1} \right] = 0\)
Todos los momentos centrales impares de\(X\) son 0, hecho que también se desprende de la simetría de la función de densidad de probabilidad.
En el simulador de distribución especial seleccione la distribución normal. Varíe la media y la desviación estándar y anote el tamaño y ubicación de la barra de media/desviación estándar. Con su elección de parámetros, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media verdadera y la desviación estándar.
El siguiente ejercicio da la asimetría y curtosis.
La asimetría y curtosis de\( X \) son
- \(\skw(X) = 0\)
- \(\kur(X) = 3\)
Prueba
La asimetría y curtosis de una variable se definen en términos de la puntuación estándar, por lo que estos resultados se derivan del resultado correspondiente para\( Z \).
La función generadora de momento\( M \) y la función característica\( \chi \) de\( X \) están dadas por
- \(M(t) = \exp \left( \mu t + \frac{1}{2} \sigma^2 t^2 \right)\)para\(t \in \R \).
- \( \chi(t) =\exp \left( i \mu t - \frac{1}{2} \sigma^2 t^2 \right)\)para\(t \in \R \)
Prueba
- Esto se desprende de la representación\( X = \mu + \sigma Z \), propiedades básicas de valor esperado, y el MGF de\( Z \) en (12):\[ \E\left(e^{t X}\right) = \E\left(e^{t \mu + t \sigma Z}\right) = e^{t \mu} \E\left(e^{t \sigma Z}\right) = e^{t \mu} e^{\frac{1}{2} t^2 \sigma^2} = e^{t \mu + \frac{1}{2} \sigma^2 t^2} \]
- Esto se desprende de (a) desde\( \chi(t) = M(i t) \).
Relaciones
La familia normal de distribuciones satisface dos propiedades muy importantes: invarianza bajo transformaciones lineales de la variable e invarianza con respecto a sumas de variables independientes. La primera propiedad es esencialmente una reformulación del hecho de que la distribución normal es una familia a escala de ubicación.
Supongamos que normalmente\(X\) se distribuye con media\(\mu\) y varianza\(\sigma^2\). Si\(a \in \R\) y\(b \in \R \setminus \{0\}\), entonces normalmente\(a + b X\) se distribuye con media\(a + b \mu\) y varianza\(b^2 \sigma^2\).
Prueba
El MGF de\(a + b X\) es el\[ \E\left[e^{t (a + b X)}\right] = e^{ta} \E\left[e^{(t b) X}\right] = e^{ta} e^{\mu (t b) + \sigma^2 (t b)^2 / 2} = e^{(a + b \mu)t + b^2 \sigma^2 t^2 / 2} \] que reconocemos como el MGF de la distribución normal con media\(a + b \mu\) y varianza\(b^2 \sigma^2\).
Recordemos que en general, si\(X\) es una variable aleatoria con media\(\mu\) y desviación estándar\(\sigma \gt 0\), entonces\(Z = (X - \mu) / \sigma\) es la puntuación estándar de\(X\). Un corolario del último resultado es que si\(X\) tiene una distribución normal entonces la puntuación estándar\(Z\) tiene una distribución normal estándar. Por el contrario, cualquier variable normalmente distribuida puede construirse a partir de una variable normal estándar.
Puntaje estándar.
- Si\(X\) tiene la distribución normal con media\(\mu\) y desviación estándar\(\sigma\) entonces\(Z = \frac{X - \mu}{\sigma}\) tiene la distribución normal estándar.
- Si\(Z\) tiene la distribución normal estándar y si\(\mu \in \R\) y\(\sigma \in (0, \infty)\), entonces\(X = \mu + \sigma Z\) tiene la distribución normal con media\(\mu\) y desviación estándar\(\sigma\).
Supongamos que\(X_1\) y\(X_2\) son variables aleatorias independientes, y que normalmente\(X_i\) se distribuyen con media\(\mu_i\) y varianza\(\sigma_i^2\) para\(i \in \{1, 2\}\). Luego\(X_1 + X_2\) se distribuye normalmente con
- \(\E(X_1 + X_2) = \mu_1 + \mu_2\)
- \(\var(X_1 + X_2) = \sigma_1^2 + \sigma_2^2\)
Prueba
El MGF de\(X_1 + X_2\) es el producto de los MGF, por lo\[ \E\left(\exp\left[t (X_1 + X_2)\right]\right) = \exp\left(\mu_1 t + \sigma_1^2 t^2 / 2\right) \exp\left(\mu_2 t + \sigma_2^2 t^2 / 2\right) = \exp\left[\left(\mu_1 + \mu_2\right)t + \left(\sigma_1^2 + \sigma_2^2\right) t^2 / 2\right] \] que reconocemos como el MGF de la distribución normal con media\(\mu_1 + \mu_2\) y varianza\(\sigma_1^2 + \sigma_2^2\).
Este teorema generaliza a una suma de variables\(n\) independientes, normales. La parte importante es que la suma sigue siendo normal; las expresiones para la media y varianza son resultados estándar que se mantienen para la suma de variables independientes en general. Como consecuencia de este resultado y el de las transformaciones lineales, se deduce que la distribución normal es estable.
La distribución normal es estable. Específicamente, supongamos que\( X \) tiene la distribución normal con media\( \mu \in \R \) y varianza\( \sigma^2 \in (0, \infty)\). Si\( (X_1, X_2, \ldots, X_n) \) son copias independientes de\( X \), entonces\( X_1 + X_2 + \cdots + X_n \) tiene la misma distribución que\( \left(n - \sqrt{n}\right) \mu + \sqrt{n} X \), es decir, normal con media\( n \mu \) y varianza\( n \sigma^2 \).
Prueba
Como consecuencia del resultado para las sumas\( X_1 + X_2 + \cdots + X_n \) tiene la distribución normal con media\( n \mu \) y varianza\( n \sigma^2 \). Como consecuencia del resultado para transforamciones lineales,\( \left(n - \sqrt{n}\right) \mu + \sqrt{n} X \) tiene la distribución normal con media\( \left(n - \sqrt{n}\right) \mu + \sqrt{n} \mu = n \mu \) y varianza\( \left(\sqrt{n}\right)^2 \sigma^2 = n \sigma^2 \).
Todas las distribuciones estables son infinitamente divisibles, por lo que la distribución normal también pertenece a esta familia. Para ser completo, aquí está la declaración explícita:
La distribución normal es infinitamente divisible. Específicamente, si\( X \) tiene la distribución normal con media\( \mu \in \R \) y varianza\( \sigma^2 \in (0, \infty) \), entonces for\( n \in \N_+ \),\( X \) tiene la misma distribución que\( X_1 + X_2 + \cdots + X_n\) donde\( (X_1, X_2, \ldots, X_n) \) son independientes, y cada uno tiene la distribución normal con media\( \mu / n \) y varianza\( \sigma^2 / n \).
Finalmente, la distribución normal pertenece a la familia de distribuciones exponenciales generales.
Supongamos que\(X\) tiene la distribución normal con media\(\mu\) y varianza\(\sigma^2\). La distribución es una familia exponencial de dos parámetros con parámetros\(\left( \frac{\mu}{\sigma^2}, -\frac{1}{2 \, \sigma^2} \right)\) naturales y estadísticas naturales\(\left(X, X^2\right)\).
Prueba
Ampliando el cuadrado, el PDF normal se puede escribir en la forma de\[ f(x) = \frac{1}{\sqrt{2 \pi} \sigma} \exp\left(-\frac{\mu^2}{2 \sigma^2}\right) \exp\left(\frac{\mu}{\sigma^2} x - \frac{1}{2 \sigma^2} x^2 \right), \quad x \in \R\] manera que el resultado se deduce de la definición de la familia exponencial general.
Otras distribuciones especiales estudiadas en este capítulo se construyen a partir de variables normalmente distribuidas. Estos incluyen
- La distribución logarítmica
- La distribución normal plegada, que incluye la distribución media normal como caso especial
- La distribución de Rayleigh
- La distribución Maxwell
- La distribución de Lévy
También, como se mencionó al inicio de esta sección, la importancia de la distribución normal deriva en gran parte del teorema del límite central, uno de los teoremas fundamentales de la probabilidad. En virtud de este teorema, la distribución normal está conectada a muchas otras distribuciones, por medio de límites y aproximaciones, incluyendo las distribuciones especiales en la siguiente lista. Los detalles se dan en las secciones individuales.
- La distribución binomial
- La distribución binomial negativa
- La distribución de Poisson
- La distribución gamma
- La distribución chi-cuadrada
- La\( t \) distribución de los estudiantes
- La distribución Irwin-Hall
Ejercicios Computacionales
Supongamos que el volumen de cerveza en una botella de cierta marca se distribuye normalmente con media 0.5 litros y desviación estándar 0.01 litros.
- Encuentra la probabilidad de que una botella contenga al menos 0.48 litros.
- Encuentra el volumen que corresponde al percentil 95
Contestar
Dejar\(X\) denotar el volumen de cerveza en litros
- \(\P(X \gt 0.48) = 0.9772\)
- \(x_{0.95} = 0.51645\)
Una varilla de metal está diseñada para encajar en un orificio circular en un conjunto determinado. El radio de la varilla se distribuye normalmente con media de 1 cm y desviación estándar de 0.002 cm. El radio del agujero se distribuye normalmente con una media de 1.01 cm y una desviación estándar de 0.003 cm. Los procesos de mecanizado que producen la varilla y el orificio son independientes. Encuentra la probabilidad de que la varilla sea muy grande para el hoyo.
Contestar
Dejar\(X\) denotar el radio de la varilla y\(Y\) el radio del agujero. \(\P(Y - X \lt 0) = 0.0028\)
El peso de un durazno de cierto huerto se distribuye normalmente con media de 8 onzas y desviación estándar de 1 onza. Encuentra la probabilidad de que el peso combinado de 5 melocotones supere las 45 onzas.
Contestar
Dejar\(X\) denotar el peso combinado de los 5 melocotones, en onzas. \(\P(X \gt 45) = 0.0127\)
Una Generalización Adicional
En algunos escenarios, es conveniente considerar que una constante tiene una distribución normal (siendo la media la constante y la varianza 0, por supuesto). Esta convención simplifica los enunciados de teoremas y definiciones en estos escenarios. Por supuesto, las fórmulas para la función de densidad de probabilidad y la función de distribución no se mantienen para una constante, pero los otros resultados que involucran la función generadora de momentos, transformaciones lineales y sumas siguen siendo válidos. Además, el resultado de las transformaciones lineales se mantendría para todos\(a\) y\(b\).