Saltar al contenido principal
LibreTexts Español

5.2: Densidades importantes

  • Page ID
    150111
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta sección, presentaremos algunas funciones importantes de densidad de probabilidad y daremos algunos ejemplos de su uso. También consideraremos la cuestión de cómo se simula una densidad dada usando una computadora.

    Densidad uniforme continua

    La función de densidad más simple corresponde a la variable aleatoria\(U\) cuyo valor representa el resultado del experimento consistente en elegir un número real al azar del intervalo\([a, b]\). \[f(\omega) = \left \{ \matrix{ 1/(b - a), &\,\,\, \mbox{if}\,\,\, a \leq \omega \leq b, \cr 0, &\,\,\, \mbox{otherwise.}\cr}\right.\]

    Es fácil simular esta densidad en una computadora. Simplemente calculamos la expresión\[(b - a) rnd + a\ .\]

    Densidades Exponenciales y Gamma

    La función de densidad exponencial se define por

    \[f(x) = \left \{ \matrix{ \lambda e^{-\lambda x}, &\,\,\, \mbox{if}\,\,\, 0 \leq x < \infty, \cr 0, &\,\,\, \mbox{otherwise}. \cr} \right.\]

    Aquí\(\lambda\) hay cualquier constante positiva, dependiendo del experimento. El lector ha visto esta densidad en el Ejemplo 2.2.11. En la Figura 5.6 mostramos gráficas de varias densidades exponenciales para diferentes elecciones de\(\lambda\). La densidad exponencial se utiliza a menudo para describir experimentos que involucran una pregunta de la forma: ¿Cuánto tiempo hasta que algo suceda? Por ejemplo, la densidad exponencial se utiliza a menudo para estudiar el tiempo entre las emisiones de partículas de una fuente radiactiva.

    La función de distribución acumulativa de la densidad exponencial es fácil de calcular. Let\(T\) Ser una variable aleatoria distribuida exponencialmente con parámetro\(\lambda\). Si\(x \ge 0\), entonces tenemos

    \[\begin{aligned} F(x) & = & P(T \le x) \\ & = & \int_0^x \lambda e^{-\lambda t}\,dt \\ & = & 1 - e^{-\lambda x}\ .\\\end{aligned}\]

    Tanto la densidad exponencial como la distribución geométrica comparten una propiedad conocida como la propiedad “sin memoria”. Esta propiedad se introdujo en el Ejemplo 5.1.1; dice que\[P(T > r + s\,|\,T > r) = P(T > s)\ .\] Esto se puede demostrar que se mantiene para la densidad exponencial calculando ambos lados de esta ecuación. El lado derecho está justo\[1 - F(s) = e^{-\lambda s}\ ,\] mientras que el lado izquierdo está

    \[\begin{align} {\frac{P(T > r + s)}{P(T > r)}} & = & {\frac{1 - F(r + s)}{1 - F(r)}} & = & {\frac{e^{-\lambda (r+s)}}{e^{-\lambda r}}} \\ & = & e^{-\lambda s}\end{align}\]

    Existe una relación muy importante entre la densidad exponencial y la distribución de Poisson. Comenzamos definiendo como\(X_1,\ X_2,\ \ldots\) una secuencia de variables aleatorias independientes distribuidas exponencialmente con parámetro\(\lambda\). Podríamos pensar\(X_i\) que denota la cantidad de tiempo entre las emisiones\(i\) th y\((i+1)\) st de una partícula por una fuente radiactiva. (Como veremos en el Capítulo 6, podemos pensar que el parámetro\(\lambda\) representa el recíproco del tiempo promedio entre emisiones. Este parámetro es una cantidad que podría medirse en un experimento real de este tipo).

    Ahora consideramos un intervalo de tiempo de longitud\(t\), y dejamos\(Y\) denotar la variable aleatoria que cuenta el número de emisiones que ocurren en el intervalo de tiempo. Nos gustaría calcular la función de distribución de\(Y\) (claramente,\(Y\) es una variable aleatoria discreta). Si dejamos\(S_n\) denotar la suma\(X_1 + X_2 + \cdots + X_n\), entonces es fácil ver que\[P(Y = n) = P(S_n \le t\ \mbox{and}\ S_{n+1} > t)\ .\] Dado que el evento\(S_{n+1} \le t\) es un subconjunto del evento\(S_n \le t\), se ve que la probabilidad anterior es igual a

    \[P(S_n \le t) - P(S_{n+1} \le t)\ .\label{eq 5.8}\]

    Mostraremos en el Capítulo 7 que la densidad de\(S_n\) viene dada por la siguiente fórmula:\[g_n(x) = \left \{ \begin{array}{ll} \lambda{ \frac{(\lambda x)^{n-1}}{(n-1)!}}e^{-\lambda x}, & \mbox{if $x > 0$,} \\ 0, & \mbox{otherwise.} \end{array} \right.\] Esta densidad es un ejemplo de una densidad gamma con parámetros\(\lambda\) y\(n\). La densidad gamma general\(n\) permite ser cualquier número real positivo. No discutiremos esta densidad general.

    Es fácil demostrar por inducción sobre\(n\) que la función de distribución acumulativa de\(S_n\) viene dada por:

    \[G_n(x) = \left \{ \begin{array}{ll} 1 - e^{-\lambda x}\bigg(1+\frac{\lambda x}{1!} + \cdots + \frac{(\lambda x)^{n-1}}{(n-1)!}\bigg), & \text{if } x > 0, \\ 0, & \mbox{otherwise.} \end{array} \right.\]

    Usando esta expresión, la cantidad en ([eq 5.8]) es fácil de calcular; obtenemos\[e^{-\lambda t}\frac{(\lambda t)^n}{n!} ,\]

    que el lector reconocerá como la probabilidad de que una variable aleatoria distribuida en Poisson, con parámetro\(\lambda t\), tome el valor\(n\).

    La relación anterior nos permitirá simular una distribución de Poisson, una vez que hayamos encontrado la manera de simular una densidad exponencial. La siguiente variable aleatoria hace el trabajo:

    \[Y = -{1\over\lambda} \log(rnd)\ .\label{eq 5.9}\]

    Usando Corolario 5.2 (abajo), se puede derivar la expresión anterior (ver Ejercicio 5.2.3). Nos contentamos por ahora con un breve cálculo que debería convencer al lector de que la variable aleatoria\(Y\) tiene la propiedad requerida. Tenemos

    \[\begin{aligned} P(Y \le y) & = & P\Bigl(-{1\over\lambda} \log(rnd) \le y\Bigr) \\ & = & P(\log(rnd) \ge -\lambda y) \\ & = & P(rnd \ge e^{-\lambda y}) \\ & = & 1 - e^{-\lambda y}\ . \\\end{aligned}\]

    Esta última expresión se ve como la función de distribución acumulativa de una variable aleatoria distribuida exponencialmente con parámetro\(\lambda\).

    Para simular una variable aleatoria de Poisson\(W\) con parámetro\(\lambda\), simplemente generamos una secuencia de valores de una variable aleatoria distribuida exponencialmente con el mismo parámetro, y hacemos un seguimiento de los subtotales\(S_k\) de estos valores. Dejamos de generar la secuencia cuando el subtotal supera primero\(\lambda\). Supongamos que encontramos que\[S_n \le \lambda < S_{n+1}\ .\] Entonces el valor\(n\) se devuelve como un valor simulado para\(W\).

    Ejemplo\(\PageIndex{1}\)

    Supongamos que los clientes llegan en horarios aleatorios a una estación de servicio con un solo servidor, y supongamos que cada cliente es atendido inmediatamente si no hay nadie delante de él, pero debe esperar su turno en línea de lo contrario. ¿Cuánto tiempo debe esperar cada cliente? (Definimos el tiempo de espera de un cliente como el tiempo que transcurre entre el tiempo que llega y el tiempo que comienza a ser atendido).

    Contestar

    Supongamos que los tiempos de interllegada entre clientes sucesivos están dados por variables aleatorias\(X_1\)\(X_2\),,...,\(X_n\) que son mutuamente independientes e idénticamente distribuidas con una función de distribución acumulativa exponencial dada por\[F_X(t) = 1 - e^{-\lambda t}.\] Supongamos, también, que el servicio los tiempos para los clientes sucesivos están dados por variables aleatorias\(Y_1\)\(Y_2\),,...,\(Y_n\) que de nuevo son mutuamente independientes y se distribuyen idénticamente con otra función de distribución acumulativa exponencial dada por\[F_Y(t) = 1 - e^{-\mu t}.\]

    Los parámetros\(\lambda\) y\(\mu\) representan, respectivamente, los recíprocos del tiempo promedio entre llegadas de clientes y el tiempo promedio de servicio de los clientes. Así, por ejemplo, cuanto mayor sea el valor de\(\lambda\), menor será el tiempo promedio entre llegadas de clientes. Podemos adivinar que el tiempo que un cliente pasará en la cola depende de los tamaños relativos del tiempo promedio entre llegadas y del tiempo promedio de servicio.

    Es fácil verificar esta conjetura por simulación. El programa Queue simula este proceso de cola. Dejar\(N(t)\) ser el número de clientes en la cola en el momento\(t\). Luego trazamos\(N(t)\) como una función de\(t\) para diferentes elecciones de los parámetros\(\lambda\) y\(\mu\) (ver Figura [fig 5.17]).

    Observamos que cuando\(\lambda < \mu\), entonces\(1/\lambda > 1/\mu\), así el tiempo promedio entre llegadas es mayor que el tiempo promedio de servicio, es decir, los clientes son atendidos más rápidamente, en promedio, que llegan nuevos. Así, en este caso, es razonable esperar que\(N(t)\) siga siendo pequeño. No obstante, si\(\lambda > \mu\) entonces los clientes llegan más rápido de lo que se les atiende y, como se esperaba,\(N(t)\) parece crecer sin límite.

    Ahora podemos preguntar: ¿Cuánto tiempo tendrá que esperar un cliente en la cola para recibir el servicio? Para examinar esta pregunta, dejamos\(W_i\) ser el tiempo que el\(i\) cliente tiene que permanecer en el sistema (esperando en la fila y siendo atendido). Entonces podemos presentar estos datos en un gráfico de barras, utilizando el programa Queue, para dar una idea de cómo\(W_i\) se distribuyen los datos (ver Figura [fig 5.18]). (Aquí\(\lambda = 1\) y\(\mu = 1.1\).)

    Vemos que estos tiempos de espera parecen estar distribuidos exponencialmente. Este es siempre el caso cuando\(\lambda < \mu\). La prueba de este hecho es demasiado complicada de dar aquí, pero podemos verificarlo por simulación para diferentes opciones de\(\lambda\) y\(\mu\), como arriba.

    Funciones de una variable aleatoria

    Antes de continuar nuestra lista de densidades importantes, hacemos una pausa para considerar variables aleatorias que son funciones de otras variables aleatorias. Vamos a probar un teorema general que nos permitirá derivar expresiones como la Ecuación [eq 5.9].

    Teorema\(\PageIndex{1}\)

    Dejar\(X\) ser una variable aleatoria continua, y supongamos que\(\phi(x)\) es una función estrictamente creciente en el rango de\(X\). Definir\(Y = \phi(X)\). Supongamos que\(X\) y\(Y\) tienen funciones de distribución acumulativas\(F_X\) y\(F_Y\) respectivamente. Entonces estas funciones están relacionadas por\[F_Y(y) = F_X(\phi^{-1}(y)).\] Si\(\phi(x)\) es estrictamente decreciente en el rango de\(X\), entonces\[F_Y(y) = 1 - F_X(\phi^{-1}(y))\ .\]

    Prueba

    Ya que\(\phi\) es una función estrictamente creciente en el rango de\(X\), los eventos\((X \le \phi^{-1}(y))\) y\((\phi(X) \le y)\) son iguales. Así, tenemos\[\begin{aligned} F_Y(y) & = & P(Y \le y) \\ & = & P(\phi(X) \le y) \\ & = & P(X \le \phi^{-1}(y)) \\ & = & F_X(\phi^{-1}(y))\ . \\\end{aligned}\]

    Si\(\phi(x)\) es estrictamente decreciente en el rango de\(X\), entonces tenemos\[\begin{aligned} F_Y(y) & = & P(Y \leq y) \\ & = & P(\phi(X) \leq y) \\ & = & P(X \geq \phi^{-1}(y)) \\ & = & 1 - P(X < \phi^{-1}(y)) \\ & = & 1 - F_X(\phi^{-1}(y))\ . \\\end{aligned}\] Esto completa la prueba.

    Corolario\(\PageIndex{1}\)

    Dejar\(X\) ser una variable aleatoria continua, y supongamos que\(\phi(x)\) es una función estrictamente creciente en el rango de\(X\). Definir\(Y = \phi(X)\). Supongamos que la densidad funciona de\(X\) y\(Y\) son\(f_X\) y\(f_Y\), respectivamente. Entonces estas funciones están relacionadas por

    \[f_Y(y) = f_X ( \phi^{-1}(y)){\frac{d}{dy}}\phi^{-1}(y) \]

    Si\(\phi(x)\) es estrictamente decreciente en el rango de\(X\), entonces\[f_Y(y) = -f_X(\phi^{-1}(y)){\frac{d }{dy}}\phi^{-1}(y) \]

    Prueba

    Este resultado se desprende del Teorema 5.1.1 mediante el uso de la Regla de Cadena.

    Si la función no\(\phi\) es ni estrictamente creciente ni estrictamente decreciente, entonces la situación es algo más complicada pero puede tratarse con los mismos métodos. Por ejemplo, supongamos que\(Y = X^2\), Entonces\(\phi(x) = x^2\), y\[\begin{aligned} F_Y(y) & = & P(Y \leq y) \\ & = & P(-\sqrt y \leq X \leq +\sqrt y) \\ & = & P(X \leq +\sqrt y) - P(X \leq -\sqrt y) \\ & = & F_X(\sqrt y) - F_X(-\sqrt y)\ .\\\end{aligned}\] Por otra parte,\[\begin{aligned} f_Y(y) & = & \frac d{dy} F_Y(y) \\ & = & \frac d{dy} (F_X(\sqrt y) - F_X(-\sqrt y)) \\ & = & \Bigl(f_X(\sqrt y) + f_X(-\sqrt y)\Bigr) \frac 1{2\sqrt y}\ . \\\end{aligned}\]

    Vemos que para poder expresarnos\(F_Y\) en términos de\(F_X\) cuándo\(Y = \phi(X)\), tenemos que expresarlo\(P(Y \leq y)\) en términos de\(P(X \leq x)\), y este proceso dependerá en general de la estructura de\(\phi\).

    Simulación

    El teorema 5.1.1 nos dice, entre otras cosas, cómo simular en la computadora una variable aleatoria\(Y\) con una función de distribución acumulativa prescrita\(F\). Asumimos que\(F(y)\) es estrictamente creciente para aquellos valores de\(y\) dónde\(0 < F(y) < 1\). Para ello, deja\(U\) ser una variable aleatoria la cual se distribuye uniformemente sobre\([0, 1]\). Entonces\(U\) tiene función de distribución acumulativa\(F_U(u) = u\). Ahora bien, si\(F\) es la función de distribución acumulativa prescrita para\(Y\), entonces para escribir\(Y\) en términos de primero\(U\) resolvemos la ecuación\[F(y) = u\] para\(y\) en términos de\(u\). Obtenemos\(y = F^{-1}(u)\). Tenga en cuenta que como\(F\) es una función creciente esta ecuación siempre tiene una solución única (ver Figura 5.9). Luego establecemos\(Z = F^{-1}(U)\) y obtenemos, por Teorema 5.1.1,

    \[F_Z(y) = F_U(F(y)) = F(y)\ ,\]

    ya que\(F_U(u) = u\). Por lo tanto,\(Z\) y\(Y\) tienen la misma función de distribución acumulativa. Resumiendo, tenemos lo siguiente.

    Corolario\(\PageIndex{2}\)

    Si\(F(y)\) es una función de distribución acumulativa dada que está aumentando estrictamente cuando\(0 < F(y) < 1\) y si\(U\) es una variable aleatoria con distribución uniforme encendida\([0,1]\), entonces\[Y = F^{-1}(U)\] tiene la distribución acumulativa\(F(y)\)

    Así, para simular una variable aleatoria con una distribución acumulativa dada solo\(F\) necesitamos establecer\(Y = F^{-1}(\mbox{rnd})\).

    Densidad Normal

    Llegamos ahora a la función de densidad más importante, la función de densidad normal. Hemos visto en el Capítulo 3 que las funciones de distribución binomial tienen forma de campana, incluso para valores de tamaño moderado de\(n\). Recordamos que es una variable aleatoria distribuida binomialmente con parámetros\(n\) y\(p\) puede considerarse como la suma de variables aleatorias 0-1\(n\) mutuamente independientes. Un teorema muy importante en la teoría de la probabilidad, llamado Teorema del Límite Central, establece que bajo condiciones muy generales, si sumamos un gran número de variables aleatorias mutuamente independientes, entonces la distribución de la suma puede aproximarse estrechamente por una cierta densidad continua específica, llamada la normal densidad. Este teorema se discutirá en el Capítulo 9.

    La función de densidad normal con parámetros\(\mu\) y\(\sigma\) se define de la siguiente manera:

    \[f_X(x) = \frac 1{\sqrt{2\pi}\sigma} e^{-(x - \mu)^2/2\sigma^2}\ .\]

    El parámetro\(\mu\) representa el “centro” de la densidad (y en el Capítulo 6, mostraremos que es el valor promedio, o esperado, de la densidad). El parámetro\(\sigma\) es una medida del “spread” de la densidad, y así se asume que es positivo. (En el Capítulo 6, mostraremos que\(\sigma\) es la desviación estándar de la densidad.) Observamos que no es en absoluto obvio que la función anterior es una densidad, es decir, que su integral sobre la línea real es igual a 1. La función de distribución acumulativa viene dada por la fórmula

    \[F_X(x) = \int_{-\infty}^x \frac 1{\sqrt{2\pi}\sigma} e^{-(u - \mu)^2/2\sigma^2}\,du\ .\]

    En la Figura 5.10 hemos incluido para comparación una gráfica de la densidad normal para los casos\(\mu = 0\) y\(\sigma = 1\), y\(\mu = 0\) y\(\sigma = 2\).

    No se puede escribir\(F_X\) en términos de funciones simples. Esto lleva a varios problemas. En primer lugar, los valores de\(F_X\) deben calcularse mediante integración numérica. Existen tablas extensas que contienen valores de esta función (ver Apéndice A). En segundo lugar, no podemos escribir\(F^{-1}_X\) en forma cerrada, así que no podemos usar Corolario\(\PageIndex{2}\) para ayudarnos a simular una variable aleatoria normal. Por esta razón, se han desarrollado métodos especiales para simular una distribución normal. Uno de esos métodos se basa en el hecho de que si\(U\) y\(V\) son variables aleatorias independientes con densidades uniformes sobre\([0,1]\), entonces las variables aleatorias\[X = \sqrt{-2\log U} \cos 2\pi V\] y\[Y = \sqrt{-2\log U} \sin 2\pi V\] son independientes, y tienen funciones de densidad normal con parámetros\(\mu = 0\) y\(\sigma = 1\). (Esto no es obvio, ni lo demostraremos aquí. Ver Box y Muller. 9)

    Dejar\(Z\) ser una variable aleatoria normal con parámetros\(\mu = 0\) y\(\sigma = 1\). Se dice que una variable aleatoria normal con estos parámetros es una variable aleatoria normal. Es un hecho importante y útil que si escribimos\[X = \sigma Z + \mu\ ,\] entonces\(X\) es una variable aleatoria normal con parámetros\(\mu\) y\(\sigma\). Para mostrar esto, utilizaremos el Teorema 5.1.1. Tenemos\(\phi(z) = \sigma z + \mu\),\(\phi^{-1}(x) = (x - \mu)/\sigma\), y

    \[\begin{aligned} F_X(x) & = & F_Z\left(\frac {x - \mu}\sigma \right), \\ f_X(x) & = & f_Z\left(\frac {x - \mu}\sigma \right) \cdot \frac 1\sigma \\ & = & \frac 1{\sqrt{2\pi}\sigma} e^{-(x - \mu)^2/2\sigma^2}\ . \\\end{aligned}\]

    El lector notará que esta última expresión es la función de densidad con parámetros\(\mu\) y\(\sigma\), como se reivindica.

    Hemos visto anteriormente que es posible simular una variable aleatoria normal estándar\(Z\). Si queremos simular una variable aleatoria normal\(X\) con parámetros\(\mu\) y\(\sigma\), entonces solo necesitamos transformar los valores simulados para\(Z\) usar la ecuación\(X = \sigma Z + \mu\).

    Supongamos que deseamos calcular el valor de una función de distribución acumulativa para la variable aleatoria normal\(X\), con parámetros\(\mu\) y\(\sigma\). Podemos reducir este cálculo a uno relativo a la variable aleatoria normal estándar de la\(Z\) siguiente manera:

    \[\begin{aligned} F_X(x) & = & P(X \leq x) \\ & = & P\left(Z \leq \frac {x - \mu}\sigma \right) \\ & = & F_Z\left(\frac {x - \mu}\sigma \right)\ . \\\end{aligned}\]

    Esta última expresión se puede encontrar en una tabla de valores de la función de distribución acumulativa para una variable aleatoria normal estándar. Así, vemos que no es necesario hacer tablas de distribución normal con funciones arbitrarias\(\mu\) y\(\sigma\).

    El proceso de cambiar una variable aleatoria normal a una variable aleatoria normal estándar se conoce como estandarización. Si\(X\) tiene una distribución normal con parámetros\(\mu\) y\(\sigma\) y si\[Z = \frac{X - \mu}\sigma\ ,\] entonces\(Z\) se dice que es la versión estandarizada de\(X\).

    El siguiente ejemplo muestra cómo usamos la versión estandarizada de una variable aleatoria normal\(X\) para calcular probabilidades específicas relacionadas con\(X\).

    Ejemplo\(\PageIndex{2}\)

    Supongamos que\(X\) es una variable aleatoria normalmente distribuida con parámetros\(\mu = 10\) y\(\sigma = 3\). Encuentra la probabilidad que\(X\) está entre 4 y 16.

    Contestar

    Para resolver este problema, observamos que\(Z = (X-10)/3\) es la versión estandarizada de\(X\). Entonces, tenemos\[\begin{aligned} P(4 \le X \le 16) & = & P(X \le 16) - P(X \le 4) \\ & = & F_X(16) - F_X(4) \\ & = & F_Z\left(\frac {16 - 10}3 \right) - F_Z\left(\frac {4-10}3 \right) \\ & = & F_Z(2) - F_Z(-2)\ . \\\end{aligned}\] Esta última expresión se puede evaluar mediante el uso de valores tabulados de la función de distribución normal estándar (ver [app_a]); cuando usamos esta tabla, nos encontramos con que\(F_Z(2) = .9772\) y\(F_Z(-2) = .0228\). Así, la respuesta es .9544.

    En el Capítulo 6, veremos que el parámetro\(\mu\) es la media, o valor promedio, de la variable aleatoria\(X\). El parámetro\(\sigma\) es una medida de la propagación de la variable aleatoria, y se denomina desviación estándar. Así, la pregunta que se hace en este ejemplo es de un tipo típico, a saber, cuál es la probabilidad de que una variable aleatoria tenga un valor dentro de dos desviaciones estándar de su valor promedio.

    Densidades Maxwell y Rayleigh

    Ejercicio\(\PageIndex{1}\)

    Supongamos que dejamos caer un dardo sobre una mesa grande, que consideramos como el\(x\)\(y\) -plano, y supongamos que las\(y\) coordenadas\(x\) y del punto de dardo son independientes y tienen una distribución normal con parámetros\(\mu = 0\) y\(\sigma = 1\). ¿Cómo se distribuye la distancia del punto desde el origen?

    Contestar

    Este problema surge en la física cuando se asume que una partícula en movimiento\(R^n\) tiene componentes de la velocidad que son mutuamente independientes y normalmente distribuidos y se desea encontrar la densidad de la velocidad de la partícula. La densidad en el caso\(n = 3\) se llama densidad Maxwell.

    La densidad en el caso\(n = 2\) (es decir, el experimento de dardos descrito anteriormente) se denomina densidad Rayleigh. Podemos simular este caso escogiendo independientemente un par de coordenadas\((x,y)\), cada una de una distribución normal con\(\mu = 0\) y\(\sigma = 1\) encendido\((-\infty,\infty)\), calculando la distancia\(r = \sqrt{x^2 + y^2}\) del punto\((x,y)\) desde el origen, repitiendo este proceso un gran número de veces, y luego presentando los resultados en un gráfico de barras. Los resultados se muestran en la Figura 5.2.11

    También hemos trazado la densidad teórica\[f(r) = re^{-r^2/2}\ .\] Esto se derivará en el Capítulo 7; ver Ejemplo 7.2.5

    Densidad Chi-Cuadrada

    Volvemos al problema de la independencia de los rasgos discutidos en el Ejemplo 5.1.6. Con frecuencia ocurre que tenemos dos rasgos, cada uno de los cuales tiene varios valores diferentes. Como se vio en el ejemplo, se necesitó bastante cálculo incluso en el caso de dos valores para cada rasgo. Ahora damos otro método para probar la independencia de los rasgos, lo que implica mucho menos cálculo.

    Ejemplo\(\PageIndex{2}\):

    Supongamos que tenemos los datos que se muestran en la Tabla 5.2.8 relativos a las calificaciones y género de los estudiantes en una clase de Cálculo.

    Cuadro 5.2.8: Datos de clase de cálculo.
    Hembra

    Macho

    A

    37

    56

    93

    B

    63

    60

    123

    C

    47

    43

    90

    Debajo de C

    5

    8

    13

    152

    167

    319

    Podemos usar el mismo tipo de modelo en esta situación que se utilizó en el Ejemplo 5.1.6. Imaginamos que tenemos una urna con 319 bolas de dos colores, digamos azul y rojo, correspondientes a hembras y machos, respectivamente. Ahora sacamos 93 bolas, sin reemplazo, de la urna. Estas bolas corresponden al grado de A. Seguimos dibujando 123 bolas, que corresponden al grado de B. Cuando terminamos, tenemos cuatro juegos de bolas, con cada bola perteneciente exactamente a un conjunto. (Podríamos haber estipulado que las bolas eran de cuatro colores, correspondientes a las cuatro calificaciones posibles. En este caso, dibujaríamos un subconjunto de tamaño 152, que correspondería a las hembras. Las bolas que quedan en la urna corresponderían a los machos. La elección no afecta la determinación final de si debemos rechazar la hipótesis de independencia de rasgos.)

    El conjunto de datos esperado se puede determinar exactamente de la misma manera que en el Ejemplo 5.1.6. Si hacemos esto, obtenemos los valores esperados que se muestran en la Tabla 5.2.9.

    Cuadro 5.2.9 Datos esperados.
    Hembra

    Macho

    A

    44.3

    48.7

    93

    B

    58.6

    64.4

    123

    C

    42.9

    47.1

    90

    Debajo de C

    6.2

    6.8

    13

    152 167

    319

    Incluso si los rasgos son independientes, todavía esperaríamos ver algunas diferencias entre los números en las casillas correspondientes en las dos tablas. Sin embargo, si las diferencias son grandes, entonces podríamos sospechar que los dos rasgos no son independientes. En el Ejemplo 5.1.6, se utilizó la distribución de probabilidad de los diversos conjuntos de datos posibles para calcular la probabilidad de encontrar un conjunto de datos que difiera del conjunto de datos esperado al menos tanto como lo hace el conjunto de datos real. Podríamos hacer lo mismo en este caso, pero la cantidad de cómputos es enorme.

    En cambio, describiremos un solo número que hace un buen trabajo al medir qué tan lejos está un conjunto de datos dado del esperado. Para cuantificar qué tan separados están los dos conjuntos de números, podríamos sumar los cuadrados de las diferencias de los números correspondientes. (También podríamos sumar los valores absolutos de las diferencias, pero no quisiéramos sumar las diferencias). Supongamos que tenemos datos en los que esperamos ver 10 objetos de cierto tipo, pero en cambio vemos 18, mientras que en otro caso esperamos ver 50 objetos de cierto tipo, pero en cambio vemos 58. A pesar de que las dos diferencias son aproximadamente las mismas, la primera diferencia es más sorprendente que la segunda, ya que el número esperado de resultados en el segundo caso es bastante mayor que el número esperado en el primer caso. Una forma de corregir esto es dividir los cuadrados individuales de las diferencias por el número esperado para esa casilla. Así, si etiquetamos los valores en los ocho cuadros de la primera tabla por\(O_i\) (para los valores observados) y los valores en los ocho cuadros de la segunda tabla por\(E_i\) (para los valores esperados), entonces la siguiente expresión podría ser razonable para usar para medir qué tan lejos están los datos observados de lo que es expected:\[\sum_{i = 1}^8 \frac{(O_i - E_i)^2}{E_i}\ .\] Esta expresión es una variable aleatoria, que suele ser denotada por el símbolo\(\chi^2\), pronunciado “ki-cuadrado”. Se llama así porque, bajo el supuesto de independencia de los dos rasgos, se puede calcular la densidad de esta variable aleatoria y es aproximadamente igual a una densidad llamada densidad chi-cuadrada. Elegimos no dar la expresión explícita para esta densidad, ya que involucra la función gamma, que no hemos discutido. La densidad chi-cuadrada es, de hecho, un caso especial de la densidad gamma general.

    Al aplicar la densidad chi-cuadrado se utilizan tablas de valores de esta densidad, como en el caso de la densidad normal. La densidad chi-cuadrada tiene un parámetro\(n\), que se llama el número de grados de libertad. El número\(n\) suele ser fácil de determinar a partir del problema en cuestión. Por ejemplo, si estamos comprobando dos rasgos para la independencia, y los dos rasgos tienen\(a\) y\(b\) valores, respectivamente, entonces el número de grados de libertad de la variable aleatoria\(\chi^2\) es\((a-1)(b-1)\). Entonces, en el ejemplo que nos ocupa, el número de grados de libertad es 3.

    Recordamos que en este ejemplo, estamos tratando de probar la independencia de los dos rasgos de género y grados. Si asumimos que estos rasgos son independientes, entonces el modelo de bola y urna dado anteriormente nos da una manera de simular el experimento. Usando una computadora, hemos realizado 1000 experimentos, y para cada uno, hemos calculado un valor de la variable aleatoria\(\chi^2\). Los resultados se muestran en la Figura [fig 5.14.5], junto con la función de densidad chi-cuadrada con tres grados de libertad.

    Como dijimos anteriormente, si el valor de la variable aleatoria\(\chi^2\) es grande, entonces tenderíamos a no creer que los dos rasgos son independientes. Pero, ¿qué tan grande es grande? El valor real de esta variable aleatoria para los datos anteriores es 4.13. En la Figura [fig 5.14.5], hemos mostrado la densidad de chi-cuadrado con 3 grados de libertad. Se puede observar que el valor 4.13 es mayor que la mayoría de los valores tomados por esta variable aleatoria.

    Normalmente, un estadístico calculará el valor\(v\) de la variable aleatoria\(\chi^2\), tal como lo hemos hecho nosotros. Entonces, al mirar en una tabla de valores de la densidad chi-cuadrado,\(v_0\) se determina un valor que sólo se supera el 5% del tiempo. Si\(v \ge v_0\), el estadístico rechaza la hipótesis de que los dos rasgos son independientes. En el presente caso,\(v_0 = 7.815\), por lo que no rechazaríamos la hipótesis de que los dos rasgos son independientes.

    Densidad Cauchy

    El siguiente ejemplo es de Feller. 10

    Ejemplo\(\PageIndex{3}\):

    Supongamos que un espejo está montado en un eje vertical, y es libre de girar alrededor de ese eje. El eje del espejo está a 1 pie de una pared recta de longitud infinita. Se muestra un pulso de luz sobre el espejo, y el rayo reflejado golpea la pared. Dejar\(\phi\) ser el ángulo entre el rayo reflejado y la línea que es perpendicular a la pared y que recorre el eje del espejo. Suponemos que\(\phi\) se distribuye uniformemente entre\(-\pi/2\) y\(\pi/2\). Dejar\(X\) representar la distancia entre el punto en la pared que es golpeado por el rayo reflejado y el punto en la pared que está más cerca del eje del espejo. Ahora determinamos la densidad de\(X\).

    Dejar\(B\) ser una cantidad fija positiva. Entonces\(X \ge B\) si y solo si\(\tan(\phi) \ge B\), que pasa si y solo si\(\phi \ge \arctan(B)\). Esto sucede con probabilidad\[\frac{\pi/2 - \arctan(B)}{\pi}\ .\] Así, para positivo\(B\), la función de distribución acumulativa de\(X\) es\[F(B) = 1 - \frac{\pi/2 - \arctan(B)}{\pi}\ .\] Por lo tanto, la función de densidad para positivo\(B\) es\[f(B) = \frac{1}{\pi (1 + B^2)}\ .\] Dado que la situación física es simétrica con respecto a\(\phi = 0\), es fácil ver que la por encima de la expresión para la densidad es correcta para los valores negativos de,\(B\) así.

    La Ley de Números Grandes, que discutiremos en el Capítulo 8, establece que en muchos casos, si tomamos el promedio de valores independientes de una variable aleatoria, entonces el promedio se acerca a un número específico a medida que aumenta el número de valores. Resulta que si uno hace esto con una variable aleatoria distribuida por Cauchy, el promedio no se acerca a ningún número específico.

    Ejercicio\(\PageIndex{1}\)

    Elija un número\(U\) del intervalo de unidad\([0,1]\) con distribución uniforme. Encuentra la distribución y densidad acumulativas para las variables aleatorias

    1. \(Y = U + 2\).

    2. \(Y = U^3\).

    Ejercicio\(\PageIndex{2}\)

    Elija un número\(U\) del intervalo\([0,1]\) con distribución uniforme. Encuentra la distribución y densidad acumulativas para las variables aleatorias

    1. \(Y = 1/(U + 1)\).

    2. \(Y = \log(U + 1)\).

    Ejercicio\(\PageIndex{3}\)

    Utilice Corolario para\(\PageIndex{2}\) derivar la expresión para la variable aleatoria dada en la Ecuación [eq 5.9].: Las variables aleatorias\(1 - rnd\) y\(rnd\) están distribuidas de manera idéntica.

    Ejercicio\(\PageIndex{4}\)

    Supongamos que conocemos una variable\(Y\) aleatoria en función de la variable aleatoria uniforme\(U\):\(Y = \phi(U)\), y supongamos que hemos calculado la función de distribución acumulativa\(F_Y(y)\) y de ahí la densidad\(f_Y(y)\). ¿Cómo podemos verificar si nuestra respuesta es correcta? Una simulación fácil proporciona la respuesta: Hacer un gráfico de barras de\(Y = \phi(\mbox{\) rnd\(})\) y comparar el resultado con el gráfico de\(f_Y(y)\). Estas gráficas deben tener un aspecto similar. Consulta tus respuestas a los Ejercicios 5.2.1 y 5.2.2 por este método.

    Ejercicio\(\PageIndex{5}\)

    Elija un número\(U\) del intervalo\([0,1]\) con distribución uniforme. Encuentra la distribución y densidad acumulativas para las variables aleatorias

    1. \(Y = |U - 1/2|\).

    2. \(Y = (U - 1/2)^2\).

    Ejercicio\(\PageIndex{6}\)

    Consulta tus resultados para Ejercicio\(\PageIndex{5}\) por simulación como se describe en Ejercicio\(\PageIndex{4}\).

    Ejercicio\(\PageIndex{7}\)

    Explicar cómo puede generar una variable aleatoria cuya función de distribución acumulativa es\[F(x) = \left \{ \begin{array}{ll} 0, & \mbox{if $x < 0$}, \\ x^2, & \mbox{if $0 \leq x \leq 1$}, \\ 1, & \mbox{if $x > 1.$} \end{array} \right.\]

    Ejercicio\(\PageIndex{8}\)

    Escribe un programa para generar una muestra de 1000 resultados aleatorios cada uno de los cuales se elige de la distribución dada en\(\PageIndex{7}\) Trazar un gráfico de barras de tus resultados y compara esta densidad empírica con la densidad para la distribución acumulativa dada en Ejercicio\(\PageIndex{7}\)

    Ejercicio\(\PageIndex{9}\)

    Let\(U\),\(V\) ser números aleatorios elegidos independientemente del intervalo\([0,1]\) con distribución uniforme. Encuentra la distribución y densidad acumulativas de cada una de las variables

    1. \(Y = U + V\).

    2. \(Y = |U - V|\).

    Ejercicio\(PageIndex{10}\)

    Let\(U\),\(V\) ser números aleatorios elegidos independientemente del intervalo\([0,1]\). Encuentra la distribución y densidad acumulativas para las variables aleatorias

    1. \(Y = \max(U,V)\).

    2. \(Y = \min(U,V)\).

    Ejercicio\(\PageIndex{11}\)

    Escribe un programa para simular las variables aleatorias de Ejercicios\(\PageIndex{9}\)\(\PageIndex{10}\) y trazar un gráfico de barras de los resultados. Comparar la densidad empírica resultante con la densidad encontrada en Ejercicios\(\PageIndex{9}\) y\(\PageIndex{10}\).

    Ejercicio\(\PageIndex{12}\)

    \(U\)Se elige un número al azar en el intervalo\([0,1]\). Encuentra la probabilidad de que

    1. \(R = U^2 < 1/4\).

    2. \(S = U(1 - U) < 1/4\).

    3. \(T = U/(1 - U) < 1/4\).

    Ejercicio\(PageIndex{13}\)

    Encuentre la función de distribución acumulativa\(F\) y la función de densidad\(f\) para cada una de las variables aleatorias\(R\)\(S\), y\(T\) en Ejercicio\(\PageIndex{12}\).

    Ejercicio\(\PageIndex{14}\)

    Un punto\(P\) en el cuadrado unitario tiene coordenadas\(X\) y\(Y\) se elige al azar en el intervalo\([0,1]\). Dejar\(D\) ser la distancia desde\(P\) el borde más cercano de la plaza, y\(E\) la distancia a la esquina más cercana. ¿Cuál es la probabilidad de que

    1. \(D < 1/4\)?

    2. \(E < 1/4\)?

    Ejercicio\(\PageIndex{15}\)

    En Ejercicio se\(\PageIndex{14}\) encuentra la distribución\(F\) y densidad acumulativas\(f\) para la variable aleatoria\(D\).

    Ejercicio\(\PageIndex{16}\)

    Let\(X\) Ser una variable aleatoria con función de densidad\[f_X(x) = \left \{ \begin{array}{ll} cx(1 - x), & \mbox{if $0 < x < 1$}, \\ 0, & \mbox{otherwise.} \end{array} \right.\]

    1. ¿Cuál es el valor de\(c\)?

    2. ¿Para qué sirve la función de distribución\(F_X\) acumulativa\(X\)?

    3. ¿Cuál es la probabilidad de que\(X < 1/4\)?

    Ejercicio\(\PageIndex{17}\)

    Dejar\(X\) ser una variable aleatoria con función de distribución acumulativa\[F(x) = \left \{ \begin{array}{ll} 0, & \mbox{if $x < 0$}, \\ \sin^2(\pi x/2), & \mbox{if $0 \leq x \leq 1$}, \\ 1, & \mbox{if $1 < x$}. \end{array} \right.\]

    1. ¿Para qué sirve la función\(f_X\) de densidad\(X\)?

    2. ¿Cuál es la probabilidad de que\(X < 1/4\)?

    Ejercicio\(PageIndex{18}\)

    Dejar\(X\) ser una variable aleatoria con función de distribución acumulativa\(F_X\), y let\(Y = X + b\)\(Z = aX\),\(W = aX + b\), y, donde\(a\) y\(b\) son las constantes. Encuentre las funciones de distribución acumulativa\(F_Y\)\(F_Z\),, y\(F_W\).: Los casos\(a > 0\)\(a = 0\),, y\(a < 0\) requieren diferentes argumentos.

    Ejercicio\(\PageIndex{19}\)

    Dejar\(X\) ser una variable aleatoria con función de densidad\(f_X\), y let\(Y = X + b\),\(Z = aX\), y\(W = aX + b\), donde\(a \ne 0\). Encuentra las funciones de densidad\(f_Y\),\(f_Z\), y\(f_W\). (Ver Ejercicio\(\PageIndex{18}\).)

    Ejercicio\(\PageIndex{20}\)

    Dejar\(X\) ser una variable aleatoria distribuida uniformemente sobre\([c,d]\), y let\(Y = aX + b\). ¿Para qué elección\(a\) y\(b\) se distribuye\(Y\) uniformemente\([0,1]\)?

    Ejercicio\(PageIndex{21}\)

    Dejar\(X\) ser una variable aleatoria con función de distribución acumulativa que aumenta\(F\) estrictamente en el rango de\(X\). Vamos\(Y = F(X)\). Mostrar que\(Y\) se distribuye uniformemente en el intervalo\([0,1]\). (La fórmula nos dice\(X = F^{-1}(Y)\) entonces cómo construir a\(X\) partir de una variable aleatoria uniforme)\(Y\).

    Ejercicio\(\PageIndex{22}\)

    Let\(X\) Ser una variable aleatoria con función de distribución acumulativa\(F\). El de\(X\) es el valor\(m\) para el cual\(F(m) = 1/2\). Después\(X < m\) con probabilidad 1/2 y\(X > m\) con probabilidad 1/2. Encuentra\(m\) si\(X\) es

    1. distribuido uniformemente a lo largo del intervalo\([a,b]\).

    2. normalmente distribuido con parámetros\(\mu\) y\(\sigma\).

    3. distribuido exponencialmente con parámetro\(\lambda\).

    Ejercicio\(PageIndex{23}\)

    Let\(X\) Ser una variable aleatoria con función de densidad\(f_X\). La media de\(X\) es el valor\(\mu = \int xf_x(x)\,dx\). Luego\(\mu\) da un valor promedio para\(X\) (ver Sección 6.3). Buscar\(\mu\) si\(X\) se distribuye de manera uniforme, normal o exponencial, como en el ejercicio\(\PageIndex{22}\)

    Ejercicio\(\PageIndex{24}\)

    Let\(X\) Ser una variable aleatoria con función de densidad\(f_X\). El de\(X\) es el valor\(M\) para el cual\(f(M)\) es máximo. Entonces los valores de\(X\) cerca\(M\) son más propensos a ocurrir. Buscar\(M\) si\(X\) se distribuye de manera normal o exponencial, como en Ejercicio\(\PageIndex{22}\) ¿Qué sucede si\(X\) se distribuye de manera uniforme?

    Ejercicio\(\PageIndex{25}\)

    Dejar\(X\) ser una variable aleatoria normalmente distribuida con parámetros\(\mu = 70\),\(\sigma = 10\). Estimar

    1. \(P(X > 50)\).

    2. \(P(X < 60)\).

    3. \(P(X > 90)\).

    4. \(P(60 < X < 80)\).

    Ejercicio\(\PageIndex{26}\)

    Bridies' Bearing Works fabrica ejes de cojinetes cuyos diámetros se distribuyen normalmente con parámetros\(\mu = 1\),\(\sigma = .002\). Las especificaciones del comprador requieren que estos diámetros sean\(1.000 \pm .003\) cm. ¿Qué fracción de los ejes del fabricante es probable que se rechace? Si el fabricante mejora su control de calidad, puede reducir el valor de\(\sigma\). ¿Qué valor de\(\sigma\) asegurará que no más del 1 por ciento de sus ejes probablemente sean rechazados?

    Ejercicio\(\PageIndex{27}\)

    Se construye un examen final en la Universidad de Podunk para que los puntajes de las pruebas se distribuyan aproximadamente normalmente, con parámetros\(\mu\) y\(\sigma\). El instructor asigna calificaciones de letras a los puntajes de las pruebas como se muestra en la Tabla\(\PageIndex{10}\) (este es el proceso de “calificación en la curva”).

    \(\PageIndex{9}\)Gradaje de mesa en la curva.
    Puntuación de la prueba Grado de letra
    \(\mu + \sigma < x\) A
    \(\mu < x < \mu + \sigma\) B
    \(\mu - \sigma < x < \mu\) C
    \(\mu - 2\sigma < x < \mu - \sigma\) D
    \(x < \mu - 2\sigma\) F

    ¿Qué fracción de la clase obtiene A, B, C, D, F?

    Ejercicio\(\PageIndex{28}\)

    (Ross 11) Un testigo pericial en una demanda de paternidad testifica que la duración (en días) de un embarazo, desde la concepción hasta el parto, se distribuye aproximadamente normalmente, con parámetros\(\mu = 270\),\(\sigma = 10\). El demandado en la demanda puede probar que estuvo fuera del país durante el periodo de 290 a 240 días antes del nacimiento del niño. ¿Cuál es la probabilidad de que el acusado estuviera en el país cuando el niño fue concebido?

    Ejercicio\(\PageIndex{29}\)

    Supongamos que el tiempo (en horas) requerido para reparar un automóvil es una variable aleatoria distribuida exponencialmente con parámetro\(\lambda = 1/2\). ¿Cuál es la probabilidad de que el tiempo de reparación supere las 4 horas? Si supera las 4 horas ¿cuál es la probabilidad de que supere las 8 horas?

    Ejercicio\(\PageIndex{30}\)

    Supongamos que el número de años que correrá un automóvil se distribuye exponencialmente con parámetro\(\mu = 1/4\). Si Prosser compra hoy un auto usado, ¿cuál es la probabilidad de que siga funcionando después de 4 años?

    Ejercicio\(\PageIndex{31}\)

    Dejar\(U\) ser una variable aleatoria uniformemente distribuida en\([0,1]\). ¿Cuál es la probabilidad de que la ecuación\[x^2 + 4Ux + 1 = 0\] tenga dos raíces reales distintas\(x_1\) y\(x_2\)?

    Ejercicio\(\PageIndex{32}\)

    Escribir un programa para simular las variables aleatorias cuyas densidades vienen dadas por lo siguiente, haciendo un gráfico de barras adecuado de cada una y comparando la densidad exacta con la gráfica de barras.

    1. \(f_X(x) = e^{-x}\ \ \mbox{on}\,\, [0,\infty)\,\, (\mbox{but\,\,just\,\,do\,\,it\,\,on\,\,} [0,10]).\)

    2. \(f_X(x) = 2x\ \ \mbox{on}\,\, [0,1].\)

    3. \(f_X(x) = 3x^2\ \ \mbox{on}\,\, [0,1].\)

    4. \(f_X(x) = 4|x - 1/2|\ \ \mbox{on}\,\, [0,1].\)

    Ejercicio\(\PageIndex{33}\)

    Supongamos que estamos observando un proceso tal que el tiempo entre ocurrencias se distribuye exponencialmente con\(\lambda = 1/30\) (es decir, el tiempo promedio entre ocurrencias es de 30 minutos). Supongamos que el proceso inicia en un momento determinado y comenzamos a observar el proceso 3 horas después. Escribe un programa para simular este proceso. Vamos a\(T\) denotar el tiempo que tenemos que esperar, después de que iniciemos nuestra observación, por una ocurrencia. Haga que su programa realice un seguimiento de\(T\). ¿Cuál es una estimación para el valor promedio de\(T\)?

    Ejercicio\(\PageIndex{34}\)

    Jones pone dos nuevas bombillas: una bombilla de 60 vatios y una bombilla de 100 vatios. Se afirma que la vida útil de la bombilla de 60 vatios tiene una densidad exponencial con una vida útil promedio de 200 horas (\(\lambda = 1/200\)). La bombilla de 100 vatios también tiene una densidad exponencial pero con una vida útil promedio de solo 100 horas (\(\lambda = 1/100\)). Jones se pregunta cuál es la probabilidad de que la bombilla de 100 vatios dure más que la bombilla de 60 vatios.

    Si\(X\) y\(Y\) son dos variables aleatorias independientes con densidades exponenciales\(f(x) = \lambda e^{-\lambda x}\) y\(g(x) = \mu e^{-\mu x}\), respectivamente, entonces la probabilidad que\(X\) es menor\(Y\) que viene dada por\[P(X < Y) = \int_0^\infty f(x)(1 - G(x))\,dx,\] donde\(G(x)\) es la función de distribución acumulativa para\(g(x)\). Explique por qué este es el caso. Usa esto para demostrarlo\[P(X < Y) = \frac \lambda{\lambda + \mu}\] y para responder a la pregunta de Jones.

    Ejercicio\(\PageIndex{35}\)

    Considera el sencillo proceso de cola de Ejemplo\(\PageIndex{1}\). Supongamos que vigila el tamaño de la cola. Si hay\(j\) personas en la cola la próxima vez que cambie el tamaño de la cola, disminuirá\(j - 1\) o aumentará a\(j + 1\). Utilice el resultado de Ejercicio\(\PageIndex{34}\) para mostrar que la probabilidad de que el tamaño de la cola disminuya a\(j - 1\) es\(\mu/(\mu + \lambda)\) y la probabilidad de que aumente a\(j + 1\) es\(\lambda/(\mu + \lambda)\). Cuando el tamaño de la cola es 0 solo puede aumentar a 1. Escribe un programa para simular el tamaño de la cola. Utilice esta simulación para ayudar a formular una conjetura que contenga condiciones\(\mu\) y\(\lambda\) que asegure que la cola tendrá tiempos en los que está vacía.

    Ejercicio\(\PageIndex{36}\)

    Let\(X\) Ser una variable aleatoria que tiene una densidad exponencial con parámetro\(\lambda\). Encuentra la densidad para la variable aleatoria\(Y = rX\), donde\(r\) es un número real positivo.

    Ejercicio\(\PageIndex{37}\)

    Dejar\(X\) ser una variable aleatoria que tiene una densidad normal y considerar la variable aleatoria\(Y = e^X\). Después\(Y\) tiene una densidad logarítmica normal. Encuentra esta densidad de\(Y\).

    Ejercicio\(\PageIndex{38}\)

    Dejar\(X_1\) y\(X_2\) ser variables aleatorias independientes y para\(i = 1, 2\), let\(Y_i = \phi_i(X_i)\), donde\(\phi_i\) está estrictamente aumentando en el rango de\(X_i\). Demuestre eso\(Y_1\) y\(Y_2\) sean independientes. Tenga en cuenta que el mismo resultado es cierto sin la suposición de que los\(\phi_i\)'s están aumentando estrictamente, pero la prueba es más difícil.


    This page titled 5.2: Densidades importantes is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Charles M. Grinstead & J. Laurie Snell (American Mathematical Society) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.