Saltar al contenido principal
LibreTexts Español

10.1: Funciones de una variable aleatoria

  • Page ID
    150899
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Introducción

    Frecuentemente, observamos un valor de alguna variable aleatoria, pero estamos realmente interesados en un valor derivado de esto por una regla de función. Si\(X\) es una variable aleatoria y\(g\) es una función razonable (técnicamente, una función Borel), entonces\(Z = g(X)\) es una nueva variable aleatoria que tiene el valor\(g(t)\) para cualquiera de\(\omega\) tales que\(X(\omega) = t\). Por lo tanto\(Z(\omega) = g(X(\omega))\).

    El problema; un enfoque

    Consideramos, en primer lugar, las funciones de una sola variable aleatoria. Una amplia variedad de funciones se utilizan en la práctica.

    Ejemplo 10.1 .1: Un problema de control de calidad

    En una verificación de control de calidad en una línea de producción para rodamientos de bolas puede ser más fácil pesar las bolas que medir los diámetros. Si podemos asumir la verdadera forma esférica y\(w\) es el peso, entonces el diámetro es\(kw^{1/3}\), donde\(k\) es un factor dependiendo de la fórmula para el volumen de una esfera, las unidades de medida, y la densidad del acero. Así, si\(X\) es el peso de la bola muestreada, la variable aleatoria deseada es\(D = kX^{1/3}\).

    Ejemplo 10.1.2: Rupturas de precios

    El comité cultural de una organización estudiantil ha concertado un trato especial para entradas a un concierto. El acuerdo es que la organización comprará diez boletos a $20 cada uno (independientemente del número de compradores individuales). Los boletos adicionales están disponibles según el siguiente horario:

    • 11-20, $18 cada uno
    • 21-30, $16 cada uno
    • 31-50, $15 cada uno
    • 51-100, $13 cada uno

    Si el número de compradores es una variable aleatoria\(X\), el costo total (en dólares) es una cantidad aleatoria\(Z = g(X)\) descrita por

    \(g(X) = 200 + 18 I_{M1} (X) (X - 10) + (16 - 18) I_{M2} (X) (X - 20)\)

    \(+ (15 - 16) I_{M3} (X) (X - 30) + (13 - 15) I_{M4} (X) (X - 50)\)

    donde\(M1 = [10, \infty)\)\(M2 = [20, \infty)\),\(M3 = [30, \infty)\),\(M4 = [50, \infty)\)

    La regla de función es más complicada que en el Ejemplo 10.1.1, pero el problema esencial es el mismo.

    El problema

    Si\(X\) es una variable aleatoria, entonces\(Z = g(X)\) es una nueva variable aleatoria. Supongamos que tenemos la distribución para\(X\). ¿Cómo podemos determinar\(P(Z \in M)\), la probabilidad\(Z\) toma un valor en el conjunto\(M\)?

    Una aproximación a una solución

    Consideramos dos enfoques equivalentes

    Para encontrar\(P(X \in M)\).

    1. Enfoque de mapeo. Simplemente encuentre la cantidad de masa de probabilidad mapeada en el conjunto\(M\) por la variable aleatoria\(X\).
      • En el caso absolutamente continuo, calcule\(\int_{M} f_X\).
      • En el caso discreto, identificar aquellos valores\(t_i\) de los\(X\) cuales están en el conjunto\(M\) y sumar las probabilidades asociadas.
    2. Alternativa discreta. Considera cada valor\(t_i\) de\(X\). Seleccione aquellos que cumplan con las condiciones definitorias\(M\) y agregue las probabilidades asociadas. Este es el enfoque que utilizamos en los cálculos de MATLAB. Tenga en cuenta que no es necesario describir geométricamente el conjunto\(M\); simplemente use las condiciones definitorias.

    Para encontrar\(P(g(X) \in M)\).

    1. Enfoque de mapeo. Determine el conjunto\(N\) de todos aquellos t que son mapeados\(M\) por la función\(g\). Ahora si\(X(\omega) \in N\), entonces\(g(X(\omega)) \in M\), y si\(g(X(\omega)) \in M\), entonces\(X(\omega) \in N\). De ahí

      \(\{\omega: g(X(\omega)) \in M\} = \{\omega: X(\omega) \in N\}\)

    Dado que estos son el mismo evento, deben tener la misma probabilidad. Una vez\(N\) identificado, determinar\(P(X \in N)\) de la manera habitual (ver parte a, arriba).

    • Alternativa discreta. Para cada posible valor\(t_i\) de\(X\), determinar si\(g(t_i)\) cumple con la condición definitoria para\(M\). Seleccione los\(t_i\) que sí y agregue las probabilidades asociadas.

    — □

    OBSERVACIÓN. El conjunto\(N\) en el enfoque de mapeo se llama la imagen inversa\(N = g^{-1} (M)\)

    Ejemplo 10.1.3: Un ejemplo discreto

    Supongamos que\(X\) tiene valores -2, 0, 1, 3, 6, con probabilidades respectivas 0.2, 0.1, 0.2, 0.3 0.2.

    Considerar\(Z = g(X) = (X + 1) (X - 4)\). Determinar\(P(Z > 0)\).

    Solución

    Primera solución. El enfoque de mapeo

    \(g(t) = (t + 1) (t - 4)\). \(N = \{t: g(t) > 0\}\) es el conjunto de puntos a la izquierda de —1 o a la derecha de 4. \(X\)Los valores -2 y 6 se encuentran en este conjunto. De ahí

    \(P(g(X) > 0) = P(X = -2) + P(X = 6) = 0.2 + 0.2 = 0.4\)

    Segunda solución. La alternativa discreta

    X = -2 0 1 3 6
    P X = 0.2 0.1 0.2 0.3 0.2
    Z = 6 -4 -6 -4 14
    Z > 0 1 0 0 0 1

    Escogiendo y sumando las probabilidades indicadas, tenemos

    \(P(Z > 0) = 0.2 + 0.2 = 0.4\)

    En este caso (y a menudo para “cálculos manuales”) el enfoque de mapeo requiere menos cálculo. Sin embargo, para los cálculos de MATLAB (como mostramos a continuación), la alternativa discreta se implementa más fácilmente.

    Ejemplo 10.1.4. Un ejemplo absolutamente continuo

    Supongamos\(X\) ~ uniforme [—3,7]. Entonces\(f_X(t) = 0.1\),\(-3 \le t \le 7\) (y cero en otra parte). Let

    \(Z = g(X) = (X + 1) (X - 4)\)

    Determinar\(P(Z > 0)\).

    Solución

    Primero determinamos\(N = \{t: g(t) > 0\}\). Como en el Ejemplo 10.1.3,\(g(t) = (t+ 1) (t - 4) > 0\) para\(t < -1\) o\(t > 4)\). Debido a la distribución uniforme, la integral de la densidad sobre cualquier subintervalo de\(\{X, Y\}\) es 0.1 veces la longitud de ese subintervalo. Así, la probabilidad deseada es

    \(P(g(X) > 0) = 0.1 [(-1 - (-3)) + (7 - 4)] = 0.5\)

    Consideramos, a continuación, algunos ejemplos importantes.

    Ejemplo 10.1.5: La distribución normal y la distribución normal estandarizada

    Para mostrar que si\(X\) ~\(N(\mu, \sigma^2)\) entonces

    \(Z = g(X) = \dfrac{X - \mu}{\sigma} ~ N(0, 1)\)

    VERIFICACIÓN

    Deseamos mostrar la función de denidad para\(Z\) es

    \(\varphi (t) = \dfrac{1}{\sqrt{2\pi}} e^{-t^2/2}\)

    Ahora

    \(g(t) = \dfrac{t - \mu} {\sigma} \le v\)iff\(t \le \sigma v + \mu\)

    Por lo tanto, para dada\(M = (-\infty, v]\) la imagen inversa es\(N = (-\infty, \sigma v + \mu]\), por lo que

    \(F_Z (v) = P(Z \le v) = P(Z \in M) = P(X \in N) = P(X \le \sigma v + \mu) = F_X (\sigma v + \mu)\)

    Dado que la densidad es la derivada de la función de distribución,

    \(f_Z(v) = F_{Z}^{'} (v) = F_{X}^{'} (v) = F_{X}^{'} (\sigma v + \mu) \sigma = \sigma f_X (\sigma v + \mu)\)

    Por lo tanto

    \(f_Z (v) = \dfrac{\sigma}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{\sigma v + \mu - \mu}{\sigma})^2] = \dfrac{1}{\sqrt{2\pi}} e^{-v^2/2} = \varphi(v)\)

    Concluimos que\(Z\) ~\(N(0, 1)\).

    Ejemplo\(\PageIndex{1}\)

    Supongamos que\(X\) tiene función de distribución\(F_X\). Si es absolutamente continuo, la densidad correspondiente es\(f_X\). Considerar\(Z = aX + b\). Aquí\(g(t) = at + b\), una función afín (lineal más una constante). Determinar la función de distribución para\(Z\) (y la densidad en el caso absolutamente continuo).

    Solución

    \(F_Z (v) = P(Z \le v) = P(aX + b \le v)\)

    Hay dos casos

    • \(a\)> 0:

      \(F_Z (v) = P(X \le \dfrac{v - b}{a}) = F_X (\dfrac{v - b}{a})\)

    • \(a\)< 0

      \(F_Z (v) = P(X \ge \dfrac{v - b}{a}) = P(X > \dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)

    Así que

    \(F_Z (v) = 1 - F_X (\dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)

    Para el caso absolutamente continuo,\(P(X = \dfrac{v - b}{a}) = 0\), y por diferenciación

    • para\(a > 0\)\(f_Z (v) = \dfrac{1}{a} f_X (\dfrac{v - b}{a})\)
    • para\(a < 0\)\(f_Z (v) = -\dfrac{1}{a} f_X (\dfrac{v - b}{a})\)

    Ya que para\(a < 0\),\(-a = |a|\), los dos casos se pueden combinar en una sola fórmula.

    \(f_Z (v) = \dfrac{1}{|a|} f_X (\dfrac{v-b}{a})\)

    Ejemplo 10.1.7: Finalización de la relación normal y normalizada

    Supongamos\(Z\) ~\(N(0, 1)\). mostrar que\(X = \sigma Z + \mu \) (\(\sigma > 0\)) es\(N(\mu, \sigma^2)\).

    VERIFICACIÓN

    El uso del resultado del Ejemplo 10.1.6 en funciones afines muestra que

    \(f_{X} (t) = \dfrac{1}{\sigma} \varphi (\dfrac{t - \mu}{\sigma}) = \dfrac{1}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{t - \mu}{\sigma})^2]\)

    Ejemplo 10.1.8: Potencia fraccionaria de una variable aleatoria no negativa

    Supongamos\(X \ge 0\) y\(Z = g(X) = X^{1/a}\) para\(a > 1\). Ya que para\(t \ge 0\),\(t^{1/a}\) es cada vez mayor, tenemos\(0 \le t^{1/a} \le v\) iff\(0 \le t \le v^{a}\). Por lo tanto

    \(F_Z (v) = P(Z \le v) = P(X \le v^{a}) = F_X (v^{a})\)

    En el caso absolutamente continuo

    \(f_Z (v) = F_{Z}^{'} (v) = f_X (v^{a}) a v^{a - 1}\)

    Ejemplo 10.1.9: Potencia fraccionaria de una variable aleatoria distribuida exponencialmente

    Supongamos\(X\) ~ exponencial (\(\lambda\)). Entonces\(Z = X^{1/a}\) ~ Weibull\((a, \lambda, 0)\).

    Según el resultado del Ejemplo 10.1.8,

    \(F_Z(t) = F_X (t^{a}) = 1- e^{-\lambda t^{a}}\)

    que es la función de distribución para\(Z\) ~ Weibull\((a, \lambda, 0)\).

    Ejemplo 10.1.10: Una aproximación simple en función de X

    Si\(X\) es una variable aleatoria, se puede construir una aproximación de función simple (ver Aproximaciones de distribución). Limitamos nuestra discusión al caso acotado, en el que el rango de\(X\) está limitado a un intervalo acotado\(I = [a, b]\). Supongamos que\(I\) se divide en\(n\) subintervalos por puntos\(t_i\)\(1 \le i \le n - 1\),, con\(a = t_0\) y\(b = t_n\). Dejar\(M_i = [t_{i - 1}, t_i)\) ser el subintervalo\(i\) th,\(1 \le i \le n- 1\) y\(M_n = [t_{n -1}, t_n]\). Dejar\(E_i = X^{-1} (M_i)\) ser el conjunto de puntos mapeados en\(M_i\) por\(X\). Entonces la\(E_i\) forma una partición del espacio básico\(\Omega\). Para la subdivisión dada, formamos una variable aleatoria simple de la\(X_s\) siguiente manera. En cada subintervalo, elija un punto\(s_i, t_{i - 1} \le s_i < t_i\). La variable aleatoria simple

    \(X_s = \sum_{i = 1}^{n} s_i I_{E_i}\)

    se\(X\) aproxima a dentro de la longitud del subintervalo más grande\(M_i\). Ahora\(I_{E_i} = I_{M_i} (X)\), desde\(I_{E_i} (\omega) = 1\) iff\(X(\omega) \in M_i\) iff\(I_{M_i} (X(\omega)) = 1\). Por lo tanto, podemos escribir

    \(X_s = \sum_{i = 1}^{n} s_i I_{M_i} (X)\), una función de\(X\)

    Uso de MATLAB en variables aleatorias simples

    Para variables aleatorias simples, utilizamos el enfoque alternativo discreto, ya que esto puede implementarse fácilmente con MATLAB. Supongamos que la distribución para\(X\) se expresa en los vectores de fila\(X\) y\(PX\).

    • Realizamos operaciones de matriz en vector\(X\) para obtener

      \(G = [g(t_1) g(t_2) \cdot\cdot\cdot g(t_n)]\)

    • Utilizamos operaciones relacionales y lógicas\(G\) para obtener una matriz\(M\) que tiene unos para aquellos\(t_i\) (valores de\(X\)) tales que\(g(t_i)\) satisfaga la condición deseada (y ceros en otros lugares).
    • La matriz cero-uno\(M\) se utiliza para seleccionar la correspondiente\(p_i = P(X = t_i)\) y sumarlas tomando el producto punto de\(M\) y\(PX\).

    Ejemplo 10.1.11: Cálculos básicos para una función de una variable aleatoria simple

    X = -5:10;                     % Values of X
    PX = ibinom(15,0.6,0:15);      % Probabilities for X
    G = (X + 6).*(X - 1).*(X - 8); % Array operations on X matrix to get G = g(X)
    M = (G > - 100)&(G < 130);     % Relational and logical operations on G
    PM = M*PX'                     % Sum of probabilities for selected values
    PM =  0.4800
    disp([X;G;M;PX]')              % Display of various matrices (as columns)
       -5.0000   78.0000    1.0000    0.0000
       -4.0000  120.0000    1.0000    0.0000
       -3.0000  132.0000         0    0.0003
       -2.0000  120.0000    1.0000    0.0016
       -1.0000   90.0000    1.0000    0.0074
             0   48.0000    1.0000    0.0245
        1.0000         0    1.0000    0.0612
        2.0000  -48.0000    1.0000    0.1181
        3.0000  -90.0000    1.0000    0.1771
        4.0000 -120.0000         0    0.2066
        5.0000 -132.0000         0    0.1859
        6.0000 -120.0000         0    0.1268
        7.0000  -78.0000    1.0000    0.0634
        8.0000         0    1.0000    0.0219
        9.0000  120.0000    1.0000    0.0047
       10.0000  288.0000         0    0.0005
    [Z,PZ] = csort(G,PX);          % Sorting and consolidating to obtain
    disp([Z;PZ]')                  % the distribution for Z = g(X)
     -132.0000    0.1859
     -120.0000    0.3334
      -90.0000    0.1771
      -78.0000    0.0634
      -48.0000    0.1181
             0    0.0832
       48.0000    0.0245
       78.0000    0.0000
       90.0000    0.0074
      120.0000    0.0064
      132.0000    0.0003
      288.0000    0.0005
    P1 = (G<-120)*PX '           % Further calculation using G, PX
    P1 =  0.1859
    p1 = (Z<-120)*PZ'            % Alternate using Z, PZ
    p1 =  0.1859

    Ejemplo 10.1.12

    \(X = 10 I_A + 18 I_B + 10 I_C\)con\(\{A, B, C\}\) independiente y\(P =\) [0.60.30.5].

    Calculamos la distribución para\(X\), luego determinamos la distribución para

    \(Z = X^{1/2} - X + 50\)

    c = [10 18 10 0];
    pm = minprob(0.1*[6 3 5]);
    canonic
     Enter row vector of coefficients  c
     Enter row vector of minterm probabilities  pm
    Use row matrices X and PX for calculations
    Call for XDBN to view the distribution
    disp(XDBN)
             0    0.1400
       10.0000    0.3500
       18.0000    0.0600
       20.0000    0.2100
       28.0000    0.1500
       38.0000    0.0900
    G = sqrt(X) - X + 50;       % Formation of G matrix
    [Z,PZ] = csort(G,PX);       % Sorts distinct values of g(X)
    disp([Z;PZ]')               % consolidates probabilities
       18.1644    0.0900
       27.2915    0.1500
       34.4721    0.2100
       36.2426    0.0600
       43.1623    0.3500
       50.0000    0.1400
    M = (Z < 20)|(Z >= 40)      % Direct use of Z distribution
    M =    1     0     0     0     1     1
    PZM = M*PZ'
    PZM =  0.5800

    OBSERVACIÓN. Tenga en cuenta que con la función m csort, podemos nombrar la salida como se desee.

    Ejemplo 10.1.13: Continuación del ejemplo 10.1.12, anterior.

    H = 2*X.^2 - 3*X + 1;
    [W,PW] = csort(H,PX)
    W  =     1      171     595     741    1485    2775
    PW =  0.1400  0.3500  0.0600  0.2100  0.1500  0.0900

    Ejemplo 10.1.14: Una aproximación discreta

    Supongamos que\(X\) tiene función de densidad\(f_X(t) = \dfrac{1}{2} (3t^2 + 2t)\) para\(0 \le t \le 1\). Entonces\(F_X (t) = \dfrac{1}{2} (t^3 + t^2)\). Vamos\(Z = X^{1/2}\). Podemos usar el procedimiento m de aproximación tappr para obtener una distribución discreta aproximada. Luego trabajamos con la variable aleatoria aproximada como una simple variable aleatoria. Supongamos que queremos\(P(Z \le 0.8)\). Ahora\(Z \le 0.8\) iff\(X \le 0.8^2 = 0.64\). La probabilidad deseada puede calcularse para ser

    \(P(Z \le 0.8) = F_X (0.64) = (0.64^3 + 0.64^2)/2 = 0.3359\)

    Usando el procedimiento de aproximación, tenemos

    tappr
    Enter matrix [a b] of x-range endpoints  [0 1]
    Enter number of x approximation points  200
    Enter density as a function of t  (3*t.^2 + 2*t)/2
    Use row matrices X and PX as in the simple case
    G = X.^(1/2);
    M = G <= 0.8;
    PM = M*PX'
    PM =   0.3359       % Agrees quite closely with the theoretical

    This page titled 10.1: Funciones de una variable aleatoria is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Paul Pfeiffer via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.