14.2: Problemas sobre la expectativa condicional, regresión
- Page ID
- 151115
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Para las distribuciones en Ejercicios 1-3
- Determinar la curva de regresión de\(Y\) on\(X\) y comparar con la línea de regresión de\(Y\) on\(X\).
- Para la función\(Z = g(X, Y)\) indicada en cada caso, determinar la curva de regresión de\(Z\) on\(X\).
Ejercicio\(\PageIndex{1}\)
(Consulte el Ejercicio 17 de "Problemas sobre la Expectativa Matemática “). El par\(\{X, Y\}\) tiene la distribución conjunta (en el archivo npr08_07.m):
\(P(X = t, Y = u)\)
t = | -3.1 | -0.5 | 1.2 | 2.4 | 3.7 | 4.9 |
u = 7.5 | 0.0090 | 0.0396 | 0.0594 | 0.0216 | 0.0440 | 0.0203 |
4.1 | 0.0495 | 0 | 0.1089 | 0.0528 | 0.0363 | 0.0231 |
-2.0 | 0.0405 | 0.1320 | 0.0891 | 0.0324 | 0.0297 | 0.0189 |
-3.8 | 0.0510 | 0.0484 | 0.0726 | 0.0132 | 0 | 0.0077 |
La línea de regresión de\(Y\) on\(X\) es\(u = 0.5275 t + 0.6924\).
\(Z = X^2Y + |X + Y|\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = 0.5275t + 0.6924\).
npr08_07 Data are in X, Y, P jcalc - - - - - - - - - - - EYx = sum(u.*P)./sum(P); disp([X;EYx]') -3.1000 -0.0290 -0.5000 -0.6860 1.2000 1.3270 2.4000 2.1960 3.7000 3.8130 4.9000 2.5700 G = t.^2.*u + abs(t+u); EZx = sum(G.*P)./sum(P); disp([X;EZx]') -3.1000 4.0383 -0.5000 3.5345 1.2000 6.0139 2.4000 17.5530 3.7000 59.7130 4.9000 69.1757
Ejercicio\(\PageIndex{2}\)
(Consulte el Ejercicio 18 de "Problemas sobre la Expectativa Matemática “). El par\(\{X, Y\}\) tiene la distribución conjunta (en el archivo npr08_08.m):
\(P(X = t, Y = u)\)
t = | 1 | 3 | 5 | 7 | 9 | 11 | 13 | 15 | 17 | 19 |
u = 12 | 0.0156 | 0.0191 | 0.0081 | 0.0035 | 0.0091 | 0.0070 | 0.0098 | 0.0056 | 0.0091 | 0.0049 |
10 | 0.0064 | 0.0204 | 0.0108 | 0.0040 | 0.0054 | 0.0080 | 0.0112 | 0.0064 | 0.0104 | 0.0056 |
9 | 0.0196 | 0.0256 | 0.0126 | 0.0060 | 0.0156 | 0.0120 | 0.0168 | 0.0096 | 0.0056 | 0.0084 |
5 | 0.0112 | 0.0182 | 0.0108 | 0.0070 | 0.0182 | 0.0140 | 0.0196 | 0.0012 | 0.0182 | 0.0038 |
3 | 0.0060 | 0.0260 | 0.0162 | 0.0050 | 0.0160 | 0.0200 | 0.0280 | 0.0060 | 0.0160 | 0.0040 |
-1 | 0.0096 | 0.0056 | 0.0072 | 0.0060 | 0.0256 | 0.0120 | 0.0268 | 0.0096 | 0.0256 | 0.0084 |
-3 | 0.0044 | 0.0134 | 0.0180 | 0.0140 | 0.0234 | 0.0180 | 0.0252 | 0.0244 | 0.0234 | 0.0126 |
-5 | 0.0072 | 0.0017 | 0.0063 | 0.0045 | 0.0167 | 0.0090 | 0.0026 | 0.0172 | 0.0217 | 0.0223 |
La línea de regresión de\(Y\) on\(X\) es\(u = -0.2584 t + 5.6110\).
\(Z = I_Q (X, Y) \sqrt{X} (Y - 4) + I_{Q^c} (X, Y) XY^2\)\(Q = \{(t, u) : u \le t \}\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = -0.2584 t + 5.6110\).
npr08_08 Data are in X, Y, P jcalc - - - - - - - - - - - - EYx = sum(u.*P)./sum(P); disp([X;EYx]') 1.0000 5.5350 3.0000 5.9869 5.0000 3.6500 7.0000 2.3100 9.0000 2.0254 11.0000 2.9100 13.0000 3.1957 15.0000 0.9100 17.0000 1.5254 19.0000 0.9100 M = u<=t; G = (u-4).*sqrt(t).*M + t.*u.^2.*(1-M); EZx = sum(G.*P)./sum(P); disp([X;EZx]') 1.0000 58.3050 3.0000 166.7269 5.0000 175.9322 7.0000 185.7896 9.0000 119.7531 11.0000 105.4076 13.0000 -2.8999 15.0000 -11.9675 17.0000 -10.2031 19.0000 -13.4690
Ejercicio\(\PageIndex{3}\)
(Consulte el Ejercicio 19 de "Problemas sobre la Expectativa Matemática “). Se conservaron datos sobre el efecto del tiempo de capacitación en el tiempo para realizar un trabajo en una línea de producción. \(X\)es la cantidad de entrenamiento, en horas, y\(Y\) es el tiempo para realizar la tarea, en minutos. Los datos son los siguientes (en el archivo npr08_09.m):
\(P(X = t, Y = u)\)
t = | 1 | 1.5 | 2 | 2.5 | 3 |
u = 5 | 0.039 | 0.011 | 0.005 | 0.001 | 0.001 |
4 | 0.065 | 0.070 | 0.050 | 0.015 | 0.010 |
3 | 0.031 | 0.061 | 0.137 | 0.051 | 0.033 |
2 | 0.012 | 0.049 | 0.163 | 0.058 | 0.039 |
1 | 0.003 | 0.009 | 0.045 | 0.025 | 0.017 |
La línea de regresión de\(Y\) on\(X\) es\(u = -0.7793t + 4.3051\).
\(Z = (Y -2.8)/X\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = -0.7793t + 4.3051\).
npr08_09 Data are in X, Y, P jcalc - - - - - - - - - - - - EYx = sum(u.*P)./sum(P); disp([X;EYx]') 1.0000 3.8333 1.5000 3.1250 2.0000 2.5175 2.5000 2.3933 3.0000 2.3900 G = (u - 2.8)./t; EZx = sum(G.*P)./sum(P); disp([X;EZx]') 1.0000 1.0333 1.5000 0.2167 2.0000 -0.1412 2.5000 -0.1627 3.0000 -0.1367
Para las densidades articulares en los Ejercicios 4-11 a continuación
- Determinar analíticamente la curva de regresión de\(Y\) on\(X\) y comparar con la línea de regresión de\(Y\) on\(X\).
- Compruébalos con una aproximación discreta.
Ejercicio\(\PageIndex{4}\)
(Consulte el Ejercicio 10 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 20 de" Problemas sobre la expectativa matemática “y el Ejercicio 23 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = 1\)para\(0 \le t \le 1\). \(0 \le u \le 2(1 - t)\).
La línea de regresión de\(Y\) on\(X\) es\(u = 1 - t\).
\(f_X (t) = 2(1 - t)\),\(0 \le t \le 1\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = 1 - t\).
\(f_{Y|X} (u|t) = \dfrac{1}{2(1 - t)}\). \(0 \le t \le 1\),\(0 \le u \le 2(1 - t)\)
\(E[Y|X = t] = \dfrac{1}{2(1 - t)} \int_{0}^{2(1-t)} udu = 1 - t\),\(0 \le t \le 1\)
tuappr: [0 1] [0 2] 200 400 u<=2*(1-t) - - - - - - - - - - - - - EYx = sum(u.*P)./sum(P); plot(X,EYx) % Straight line thru (0,1), (1,0)
Ejercicio\(\PageIndex{5}\)
(Consulte el Ejercicio 13 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 23 de" Problemas sobre la expectativa matemática “y el ejercicio 24 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = \dfrac{1}{8} (t+u)\)para\(0 \le t \le 2\),\(0 \le u \le 2\).
La línea de regresión de\(Y\) on\(X\) es\(u = -t/11 + 35/33\).
\(f_{X} (t) = \dfrac{1}{4} (t + 1)\),\(0 \le t \le 2\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = -t/11 + 35/33\).
\(f_{Y|X} (u|t) = \dfrac{(t + u)}{2(t + 1)}\)\(0 \le t \le 2\),\(0 \le u \le 2\)
\(E[Y|X = t] = \dfrac{1}{2(t + 1)} \int_{0}^{2} (tu + u^2)\ du = 1 + \dfrac{1}{3t+3}\)\(0 \le t \le 2\)
tuappr: [0 2] [0 2] 200 200 (1/8)*(t+u) EYx = sum(u.*P)./sum(P); eyx = 1 + 1./(3*X+3); plot(X,EYx,X,eyx) % Plots nearly indistinguishable
Ejercicio\(\PageIndex{6}\)
(Consulte el Ejercicio 15 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 25 de" Problemas sobre la expectativa matemática “y el ejercicio 25 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = \dfrac{3}{88} (2t + 3u^2)\)para\(0 \le t \le 2\),\(0 \le u \le 1 + t\).
La línea de regresión de\(Y\) on\(X\) es\(u = 0.0958t + 1.4876\).
\(f_X (t) = \dfrac{3}{88} (1 + t) (1 + 4t + t^2) = \dfrac{3}{88} (1 + 5t + 5t^2 + t^3)\),\(0 \le t \le 2\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = 0.0958t + 1.4876\).
\(f_{Y|X} (u|t) = \dfrac{2t + 3u^2}{(1 + t)(1 + 4t + t^2)}\)\(0 \le u \le 1 + t\)
\(E[Y|X = t] = \dfrac{1}{(1 + t) (1 + 4t + t^2)} \int_{0}^{1 + t} (2tu + 3u^3)\ du\)
\(= \dfrac{(t + 1)(t + 3) (3t+1)}{4(1 + 4t +t^2)}\),\(0 \le t \le 2\)
tuappr: [0 2] [0 3] 200 300 (3/88)*(2*t + 3*u.^2).*(u<=1+t) EYx = sum(u.*P)./sum(P); eyx = (X+1).*(X+3).*(3*X+1)./(4*(1 + 4*X + X.^2)); plot(X,EYx,X,eyx) % Plots nearly indistinguishable
Ejercicio\(\PageIndex{7}\)
(Consulte el Ejercicio 16 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 26 de" Problemas sobre la expectativa matemática “y el ejercicio 26 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = 12t^2u\)en el paralelogramo con vértices
(-1, 0), (0, 0), (1, 1), (0, 1)
La línea de regresión de\(Y\) on\(X\) es\(u = (4t + 5)/9\).
\(f_{X} (t) = I_{[-1, 0]} (t) 6t^2 (t + 1)^2 + I_{(0, 1]} (t) 6t^2 (1 - t^2)\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = (23t + 4)/18\).
\(f_{Y|X} (u|t) = I_{[-1, 0]} (t) \dfrac{2u}{(t + 1)^2} + I_{(0, 1]} (t) \dfrac{2u}{(1 - t^2)}\)en el paralelogramo
\(E[Y|X = t] = I_{[-1, 0]} (t) \dfrac{1}{(t + 1)^2} \int_{0}^{t + 1} 2u\ du + I_{(0, 1]} (t) \dfrac{1}{(1 - t^2)} \int_{t}^{1} 2u \ du\)
\(= I_{[-1, 0]} (t) \dfrac{2}{3} (t + 1) + I_{(0, 1]} (t) \dfrac{2}{3} \dfrac{t^2 + t + 1}{t + 1}\)
tuappr: [-1 1] [0 1] 200 100 12*t.^2.*u.*((u<= min(t+1,1))&(u>=max(0,t))) EYx = sum(u.*P)./sum(P); M = X<=0; eyx = (2/3)*(X+1).*M + (2/3)*(1-M).*(X.^2 + X + 1)./(X + 1); plot(X,EYx,X,eyx) % Plots quite close
Ejercicio\(\PageIndex{8}\)
(Consulte el Ejercicio 17 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 27 de" Problemas sobre la expectativa matemática “y el ejercicio 27 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = \dfrac{24}{11} tu\)para\(0 \le t \le 2\),\(0 \le u \le \text{min } \{1, 2 - t\}\).
La línea de regresión de\(Y\) on\(X\) es\(u = (-124t + 368)/431\)
\(f_X (t) = I_{[0, 1]} (t) \dfrac{12}{11} t + I_{(1, 2]} (t) \dfrac{12}{11} t (2 - t)^2\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = (-124t + 368)/431\)
\(f_{Y|X} (u|t) = I_{[0, 1]} (t) 2u + I_{(1, 2]} (t) \dfrac{2u}{(2 - t)^2}\)
\(E[Y|X = t] = I_{[0, 1]} (t) \int_{0}^{1} 2u^2 \ du + I_{(1, 2]} (t) \dfrac{1}{(2 - t)^2} \int_{0}^{2 - t} 2u^2 \ du\)
\(= I_{[0, 1]} (t) \dfrac{2}{3} + I_{(1, 2]} (t) \dfrac{2}{3} (2 - t)\)
tuappr: [0 2] [0 1] 200 100 (24/11)*t.*u.*(u<=min(1,2-t)) EYx = sum(u.*P)./sum(P); M = X <= 1; eyx = (2/3)*M + (2/3).*(2 - X).*(1-M); plot(X,EYx,X,eyx) % Plots quite close
Ejercicio\(\PageIndex{9}\)
(Consulte el Ejercicio 18 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 28 de" Problemas sobre la expectativa matemática “y el ejercicio 28 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = \dfrac{3}{23} (t + 2u)\)para\(0 \le t \le 2\),\(0 \le u \le \text{max } \{2 - t, t\}\).
La línea de regresión de\(Y\) on\(X\) es\(u = 1.0561 t - 0.2603\).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{6}{23} (2 - t) + I_{(1, 2]} (t) \dfrac{6}{23} t^2\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = 1.0561 t - 0.2603\).
\(f_{Y|X} (u|t) = I_{[0, 1]} (t) \dfrac{t+2u}{2(2-t)} + I_{(1, 2]} (t) \dfrac{t + 2u}{2t^2}\)\(0 \le u \le \text{max } (2 - t, t)\)
\(E[Y|X = t] = I_{[0, 1]} (t) \dfrac{1}{2(2 - t)} \int_{0}^{2 - t} (tu + 2u^2) \ du + I_{(1, 2]} (t) \dfrac{1}{2t^2} \int_{0}^{t} (tu + 2u^2)\ du\)
\(= I_{[0, 1]} (t) \dfrac{1}{12} (t - 2) ( t - 8) + I_{(1, 2]} (t) \dfrac{7}{12} t\)
tuappr: [0 2] [0 2] 200 200 (3/23)*(t+2*u).*(u<=max(2-t,t)) EYx = sum(u.*P)./sum(P); M = X<=1; eyx = (1/12)*(X-2).*(X-8).*M + (7/12)*X.*(1-M); plot(X,EYx,X,eyx) % Plots quite close
Ejercicio\(\PageIndex{10}\)
(Consulte el Ejercicio 21 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 31 de" Problemas sobre la expectativa matemática “y el ejercicio 29 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} (t, u) = \dfrac{2}{13} (t + 2u)\)para\(0 \le t \le 2\),\(0 \le u \le \text{min } \{2t, 3 - t\}\).
La línea de regresión de\(Y\) on\(X\) es\(u = -0.1359 t + 1.0839\).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{12}{13} t^2 + I_{(1, 2]} (t) \dfrac{6}{13} (3 - t)\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = -0.1359 t + 1.0839\).
\(f_{Y|X} (t|u) = I_{[0, 1]} (t) \dfrac{t + 2u}{6t^2} + I_{(1,2]} (t) \dfrac{t + 2u}{3(3 - t)}\)\(0 \le u \le \text{max } (2t, 3 - t)\)
\(E[Y|X = t] = I_{[0, 1]} (t) \dfrac{1}{6t^2} \int_{0}^{t} (tu + 2u^2)\ du + I_{(1, 2]} (t) \dfrac{1}{3(3 - t)} \int_{0}^{3 - t} (tu + 2u^2)\ du\)
\(= I_{[0, 1]} (t) \dfrac{11}{9} t + I_{(1, 2]} (t) \dfrac{1}{18} (t^2 - 15t + 36)\)
tuappr: [0 2] [0 2] 200 200 (2/13)*(t+2*u).*(u<=min(2*t,3-t)) EYx = sum(u.*P)./sum(P); M = X<=1; eyx = (11/9)*X.*M + (1/18)*(X.^2 - 15*X + 36).*(1-M); plot(X,EYx,X,eyx) % Plots quite close
Ejercicio\(\PageIndex{11}\)
(Consulte el Ejercicio 22 de "Problemas sobre vectores aleatorios y distribuciones conjuntas “, el Ejercicio 32 de" Problemas sobre la expectativa matemática “y el ejercicio 30 de" Problemas sobre varianza, covarianza, regresión lineal “). \(f_{XY} 9t, u) = I_{[0, 1]} (t) \dfrac{3}{8} (t^2 + 2u) + I_{(1, 2]} (t) \dfrac{9}{14} t^2u^2\). para\(0 \le u \le 1\).
La línea de regresión de\(Y\) on\(X\) es\(u = 0.0817t + 0.5989\).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{3}{8} (t^2 + 1) + I_{(1, 2]} (t) \dfrac{3}{14} t^2\)
- Contestar
-
La línea de regresión de\(Y\) on\(X\) es\(u = 0.0817t + 0.5989\).
\(f_{Y|X} (t|u) = I_{[0, 1]} (t) \dfrac{t^2 + 2u}{t^2 + 1} + I_{(1, 2]} (t) 3u^2\)\(0 \le u \le 1\)
\(E[Y|X = t] = I_{[0, 1]} (t) \dfrac{1}{t^2 + 1} \int_{0}^{1} (t^2u + 2u^2)\ du + I_{(1, 2]} (t) \int_{0}^{1} 3u^3 \ du\)
\(= I_{[0, 1]} (t) \dfrac{3t^2 + 4}{6(t^2 + 1)} + I_{(1, 2]} (t) \dfrac{3}{4}\)
tuappr: [0 2] [0 1] 200 100 (3/8)*(t.^2 + 2*u).*(t<=1) + ... (9/14)*t.^2.*u.^2.*(t>1) EYx = sum(u.*P)./sum(P); M = X<=1; eyx = M.*(3*X.^2 + 4)./(6*(X.^2 + 1)) + (3/4)*(1 - M); plot(X,EYx,X,eyx) % Plots quite close
Para las distribuciones en los Ejercicios 12-16 a continuación
- Determinar analíticamente\(E[Z|X = t]\)
- Utilice una aproximación discreta para calcular las mismas funciones.
Ejercicio\(\PageIndex{12}\)
\(f_{XY} (t, u) = \dfrac{3}{88} (2t + 3u^2)\)para\(0 \le t \le 2\),\(0 \le u \le 1 + t\), (ver Ejercicio 37 de "Problemas sobre la Expectativa Matemática “, y Ejercicio 14.2.6).
\(f_{X} (t) = \dfrac{3}{88} (1 + t) (1 + 4t + t^2) = \dfrac{3}{88} (1 + 5t + 5t^2 + t^3)\),\(0 \le t \le 2\)
\(Z = I_{[0, 1]} (X) 4X + I_{(1, 2]} (X) (X + Y)\)
- Contestar
-
\(Z = I_M (X) 4X + I_N (X) (X + Y)\). El uso de linealidad, (CE8) y (CE10) da
\(E[Z|X = t] = I_M (t) 4t + I_N(t) (t + E[Y|X = t])\)
\(= I_M (t) 4t + I_N (t) (t + \dfrac{(t + 1)(t + 3) (3t + 1)}{4(1 + 4t + t^2)})\)
% Continuation of Exercise 14.2.6 G = 4*t.*(t<=1) + (t + u).*(t>1); EZx = sum(G.*P)./sum(P); M = X<=1; ezx = 4*X.*M + (X + (X+1).*(X+3).*(3*X+1)./(4*(1 + 4*X + X.^2))).*(1-M); plot(X,EZx,X,ezx) % Plots nearly indistinguishable
Ejercicio\(\PageIndex{13}\)
\(f_{XY} (t, u) = \dfrac{24}{11} tu\)para\(0 \le t \le 2\),\(0 \le u \text{min } \{1, 2 - t\}\) (ver Ejercicio 38 de "Problemas sobre la expectación matemática “, Ejercicio 14.2.8).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{12}{11} t + I_{(1, 2]} (t) \dfrac{12}{11} t (2 - t)^2\)
\(Z = I_{M} (X, Y) \dfrac{1}{2} X + I_M (X, Y) Y^2\),\(M = \{(t ,u): u > t\}\)
- Contestar
-
\(Z = I_{M} (X, Y) \dfrac{1}{2} X + I_M (X, Y) Y^2\),\(M = \{(t ,u): u > t\}\)
\(I_M(t, u) = I_{[0, 1]} (t) I_{[t, 1]} (u)\)\(I_{M^c} (t, u) = I_{[0, 1]} (t) I_{[0, t]}(u) + I_{(1, 2]} (t) I_{[0, 2 - t]} (u)\)
\(E[Z|X = t] = I_{[0, 1]} (t) [\dfrac{t}{2} \int_{t}^{1} 2u\ du + \int_{0}^{t} u^2 \cdot 2u\ du] + I_{(1, 2]} (t) \int_{0}^{2 - t} u^2 \cdot \dfrac{2u}{(2 - t)^2}\ du\)
\(= I_{[0, 1]} (t) \dfrac{1}{2} t (1 - t^2 + t^3) + I_{(1, 2]} (t) \dfrac{1}{2} (2- t)^2\)
% Continuation of Exercise 14.2.8 Q = u>t; G = (1/2)*t.*Q + u.^2.*(1-Q); EZx = sum(G.*P)./sum(P); M = X <= 1; ezx = (1/2)*X.*(1-X.^2+X.^3).*M + (1/2)*(2-X).^2.*(1-M); plot(X,EZx,X,ezx) % Plots nearly indistinguishable
Ejercicio\(\PageIndex{14}\)
\(f_{XY} (t, u) = \dfrac{3}{23} (t + 2u)\)para\(0 \le t \le 2\),\(0 \le u \le \text{max } \{2 - t, t\}\) (ver Ejercicio 39 de "Problemas sobre la expectación matemática “, y Ejercicio 14.2.9).
\(f_X(t) = I_{[0, 1]} (t) \dfrac{6}{23} (2 - t) + I_{(1, 2]} (t) \dfrac{6}{23} t^2\)
\(Z = I_M (X, Y) (X + Y) + I_{M^c} (X, Y) 2Y\),\(M = \{(t, u): \text{max } (t, u) \le 1\}\)
- Contestar
-
\(Z = I_M (X, Y) (X + Y) + I_{M^c} (X, Y) 2Y\),\(M = \{(t, u): \text{max } (t, u) \le 1\}\)
\(I_M (t, u) = I_{[0, 1]} (t) I_{[0, 1]} (u)\)\(I_{M^c} (t, u) = I_{[0, 1]} (t) I_{[1, 2 -t]} (u) + I_{(1,2]} (t) I_{[0, 1]} (u)\)
\(E[Z|X = t] = I_{[0, 1]} (t) \dfrac{1}{2(2 - t)} \int_{0}^{1} (t + u) (t + 2u)\ du + \dfrac{1}{2 - t} \int_{1}^{2 - t} u (t + 2u)\ du] + I_{(1, 2]} (t) 2E [Y|X = t]\)
\(= I_{[0, 1]} (t) \dfrac{1}{12} \cdot \dfrac{2t^3 - 30t^2 + 69t - 60}{t - 2} + I_{(1, 2]} (t) \dfrac{7}{6} 2t\)
% Continuation of Exercise 14.2.9 M = X <= 1; Q = (t<=1)&(u<=1); G = (t+u).*Q + 2*u.*(1-Q); EZx = sum(G.*P)./sum(P); ezx = (1/12)*M.*(2*X.^3 - 30*X.^2 + 69*X -60)./(X-2) + (7/6)*X.*(1-M); plot(X,EZx,X,ezx)
Ejercicio\(\PageIndex{15}\)
\(f_{XY} (t, u) = \dfrac{2}{13} (t + 2u)\), para\(0 \le t \le 2\),\(0 \le u \le \text{min } \{2t, 3 - t\}\). (ver Ejercicio 31 de "Problemas sobre la expectación matemática “, y Ejercicio 14.2.10).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{12}{13} t^2 + I_{(1, 2]} (t) \dfrac{6}{13} (3 - t)\)
\(Z = I_M (X, Y) (X + Y) + I_{M^c} (X, Y) 2Y^2\),\(M = \{(t, u): t \le 1, u \ge 1\}\)
- Contestar
-
\(Z = I_M (X, Y) (X + Y) + I_{M^c} (X, Y) 2Y^2\),\(M = \{(t, u): t \le 1, u \ge 1\}\)
\(I_M(t, u) = I_{[0, 1]} (t0 I_{[1, 2]} (u)\)\(I_{M^c} (t, u) = I_{[0, 1]} (t) I_{[0, 1)} (u) + I_{(1, 2]} (t) I_{[0, 3 - t]} (u)\)
\(E[Z|X = t] = I_{[0, 1/2]} (t) \dfrac{1}{6t^2} \int_{0}^{2t} 2u^2 (t + 2u) \ du +\)
\(I_{(1/2, 1]} (t) [\dfrac{1}{6t^2} \int_{0}^{1} 2u^2 (t + 2u)\ du + \dfrac{1}{6t^2} \int_{1}^{2t} (t + u) (t + 2u)\ du] + I_{(1, 2]} (t) \dfrac{1}{3 (3 - t)} \int_{0}^{3 - t} 2u^2 (t + 2u)\ du\)
\(= I_{[0, 1/2]} (t) \dfrac{32}{9} t^2 + I_{(1/2, 1]} (t) \dfrac{1}{36} \cdot \dfrac{80t^3 - 6t^2 - 5t + 2}{t^2} + I_{(1, 2]} (t) \dfrac{1}{9} (- t^3 + 15t^2 - 63t + 81)\)
tuappr: [0 2] [0 2] 200 200 (2/13)*(t + 2*u).*(u<=min(2*t,3-t)) M = (t<=1)&(u>=1); Q = (t+u).*M + 2*(1-M).*u.^2; EZx = sum(Q.*P)./sum(P); N1 = X <= 1/2; N2 = (X > 1/2)&(X<=1); N3 = X > 1; ezx = (32/9)*N1.*X.^2 + (1/36)*N2.*(80*X.^3 - 6*X.^2 - 5*X + 2)./X.^2 ... + (1/9)*N3.*(-X.^3 + 15*X.^2 - 63.*X + 81); plot(X,EZx,X,ezx)
Ejercicio\(\PageIndex{16}\)
\(f_{XY} (t, u) = I_{[0, 1]} (t) \dfrac{3}{8} (t^2 + 2u) + I_{(1, 2]} (t) \dfrac{9}{14} t^2 u^2\), para\(0 \le u \le 1\). (ver Ejercicio 32 de "Problemas sobre la expectación matemática “, y Ejercicio 14.2.11).
\(f_X (t) = I_{[0, 1]} (t) \dfrac{3}{8} (t^2 + 1) + I_{(1, 2]} (t) \dfrac{3}{14} t^2\)
\(Z = I_M (X, Y) X + I_{M^c} (X, Y) XY\),\(M = \{(t, u): u \le \text{min } (1 , 2 - t)\}\)
- Contestar
-
\(Z = I_M (X, Y) X + I_{M^c} (X, Y) XY\),\(M = \{(t, u): u \le \text{min } (1 , 2 - t)\}\)
\(E[|X = t] = I_{[0, 1]} (t) \int_{0}^{1} \dfrac{t^3+ 2tu}{t^2 + 1} \ du + I_{(1, 2]} (t) [\int_{0}^{2 - t} 3tu^2\ du + \int_{2 - t}^{1} 3tu^3\ du]\)
\(= I_{[0, 1]} (t) t + I_{(1, 2]} (t) (-\dfrac{13}{4} t+ 12t^2 - 12t^3 + 5t^4 - \dfrac{3}{4} t^5)\)
tuappr: [0 2] [0 1] 200 100 (t<=1).*(t.^2 + 2*u)./(t.^2 + 1) +3*u.^2.*(t>1) M = u<=min(1,2-t); G = M.*t + (1-M).*t.*u; EZx = sum(G.*P)./sum(P); N = X<=1; ezx = X.*N + (1-N).*(-(13/4)*X + 12*X.^2 - 12*X.^3 + 5*X.^4 - (3/4)*X.^5); plot(X,EZx,X,ezx)
Ejercicio\(\PageIndex{17}\)
Supongamos\(X\) ~ uniforme en 0 a través\(n\) y\(Y\) ~ condicionalmente uniforme en 0 a través\(i\), dado\(X = i\).
a. Determinar\(E[Y]\) a partir de\(E[Y|X = i]\).
b. Determinar la distribución conjunta para\(\{X, Y\}\) for\(n = 50\) (ver Ejemplo 7 de "Expectativa Condicional, Regresión" para un posible enfoque). Utilice jcalc para determinar\(E[Y]\); comparar con el valor teórico.
- Contestar
-
a.\(E[Y|X = i] = i/2\), entonces
\(E[Y] = \sum_{i = 0}^{n} E[Y|X = i] P(X = i) = \dfrac{1}{n + 1} \sum_{i = 1}^{n} i/2 = n/4\)
b.\(P(X = i) = 1/(n + 1)\),\(0 \le i \le n\),\(P(Y = k|X = i) = 1/(i + 1)\). \(0 \le k \le i\); por lo tanto
\(P(X = i, Y = k) = 1/(n + 1)(i + 1)\),\(0 \le i \le n\),\(0 \le k \le i\).n = 50; X = 0:n; Y = 0:n; P0 = ceros (n+1, n+1); para i = 0:n P0 (i+1,1:i+1) = (1/ ((n+1) * (i+1))) *unos (1, i+1); final P = rot90 (P0); jcalc: X Y P - - - - - - EY = punto (Y, PY) EY = 12.5000% Comparación con la parte (a): 50/4 = 12.5
Ejercicio\(\PageIndex{18}\)
Supongamos\(X\) ~ uniforme en 1 a través\(n\) y\(Y\) ~ condicionalmente uniforme en 1 a través\(i\), dado\(X = i\).
a. Determinar\(E[Y]\) a partir de\(E[Y|X = i]\).
b. Determinar la distribución conjunta para\(\{X, Y\}\) for\(n = 50\) (ver Ejemplo 7 de "Expectativa Condicional, Regresión" para un posible enfoque). Utilice jcalc para determinar\(E[Y]\); comparar con el valor teórico.
- Contestar
-
a.\(E[Y|X = i] = (i+1)/2\), entonces
\(E[Y] = \sum_{i = 0}^{n} E[Y|X = i] P(X = i) = \dfrac{1}{n + 1} \sum_{i = 1}^{n} \dfrac{i + 1}{2} = \dfrac{n +3}{4}\)
b.\(P(X = i) = 1/n\),\(1 \le i \le n\),\(P(Y = k|X = i) = 1/i\). \(1 \le k \le i\); por lo tanto
\(P(X = i, Y = k) = 1/ni\),\(1 \le i \le n\),\(1 \le k \le i\).n = 50; X = 1:n; Y = 1:n; P0 = ceros (n, n); para i = 1:n P0 (i,1:i) = (1/ (n*i)) *unos (1, i); final P = rot90 (P0); jcalc: P X Y - - - - - - - - - - - - - - EY = punto (Y, PY) = 13.2500% Comparación con la parte (a): 53/4 = 13.25
Ejercicio\(\PageIndex{19}\)
Supongamos\(X\) ~ uniforme en 1 a través\(n\) y\(Y\) ~ condicionalmente binomial\((i, p)\), dado\(X = i\).
a. Determinar\(E[Y]\) a partir de\(E[Y|X = k]\).
b. Determinar la distribución conjunta para\(\{X, Y\}\) para\(n = 50\) y\(p = 0.3\). Utilice jcalc para determinar\(E[Y]\); comparar con el valor teórico.
- Contestar
-
a.\(E[Y|X = i] = ip\), entonces
\(E[Y] = \sum_{i = 1}^{n} E[Y|X = i] P(X = i) = \dfrac{p}{n} \sum_{i = 1}^{n} i = \dfrac{p(n + 1)}{2}\)
b.\(P(X = i) = 1/n\),\(1 \le i \le n\),\(P(Y = k|X = i)\) = ibinom\((i, p, 0:i)\),\(0 \le k \le i\).
n = 50; p = 0.3; X = 1:n; Y = 0:n; P0 = ceros (n, n+1);% Podría usar randbern para i = 1:n P0 (i,1:i+1) = (1/n) *ibinom (i, p,0:i); final P = rot90 (P0); jcalc: X Y P - - - - - - - EY = punto (Y, PY) EY = 7.6500% Comparación con la parte (a): 0.3*51/2 = 0.765
Ejercicio\(\PageIndex{20}\)
\(X\)Se selecciona aleatoriamente un número de los números enteros del 1 al 100. Un par de dados se lanzan\(X\) veces. \(Y\)Sea el número de sietes lanzados a los\(X\) lanzados. Determinar la distribución conjunta para\(\{X, Y\}\) y luego determinar\(E[Y]\).
- Contestar
-
a.\(P(X = i) = 1/n\),\(E[Y|X = i] = i/6\), entonces
\(E[Y] = \dfrac{1}{6} \sum_{i = 0}^{n} i/n = \dfrac{(n + 1)}{12}\)
b.
n = 100; p = 1/6; X = 1:n; Y = 0:n; PX = (1/n) *ones (1, n); P0 = ceros (n, n+1);% Podría usar randbern para i = 1:n P0 (i,1:i+1) = (1/n) *ibinom (i, p,0:i); final P = rot90 (P0); jcalc EY = punto (Y, PY) EY = 8.4167% Comparación con la parte (a): 101/12 = 8.4167
Ejercicio\(\PageIndex{21}\)
\(X\)Se selecciona aleatoriamente un número de los números enteros del 1 al 100. Cada una de dos personas dibuja\(X\) veces, de forma independiente y aleatoria, un número del 1 al 10. Dejar\(Y\) ser el número de partidos (es decir, ambos empatan unos, ambos empatan dos, etc.). Determinar la distribución conjunta y luego determinar\(E[Y]\).
- Contestar
-
Igual que el Ejercicio 14.2.20, excepto\(p = 1/10\). \(E[Y] = (n + 1)/20\)
n = 100; p = 0.1; X = 1:n; Y = 0:n; PX = (1/n)*ones(1,n); P0 = zeros(n,n+1); % Could use randbern for i = 1:n P0(i,1:i+1) = (1/n)*ibinom(i,p,0:i); end P = rot90(P0); jcalc - - - - - - - - - - EY = dot(Y,PY) EY = 5.0500 % Comparison with part (a): EY = 101/20 = 5.05
Ejercicio\(\PageIndex{22}\)
\(E[Y|X = t] = 10t\)y\(X\) tiene función de densidad\(f_X (t) = 4 - 2t\) para\(1 \le t \le 2\). Determinar\(E[Y]\).
- Contestar
-
\(E[Y] = \int E[Y|X = t] f_X (t)\ dt = \int_{1}^{2} 10t(4 - 2t) \ dt = 40/3\)
Ejercicio\(\PageIndex{23}\)
\(E[Y|X = t] = \dfrac{2}{3} (1 - t)\)para\(0 \le t < 1\) y\(X\) tiene función de densidad\(f_X (t) = 30 t^2 ( 1 - t)^2\) para\(0 \le t \le 1\). Determinar\(E[Y]\).
- Contestar
-
\(E[Y] = \int E[Y|X =t] f_X (t)\ dt = \int_{0}^{1} 20t^2 (1 - t)^3\ dt = 1/3\)
Ejercicio\(\PageIndex{24}\)
\(E[Y|X = t] = \dfrac{2}{3} (2 - t)\)y\(X\) tiene función de densidad\(f_X(t) = \dfrac{15}{16} t^2 (2 - t)^2\)\(0 \le t < 2\). Determinar\(E[Y]\).
- Contestar
-
\(E[Y] = \int E[Y|X =t] f_X(t)\ dt = \dfrac{5}{8} \int_{0}^{2} t^2 (2 - t)^3\ dt = 2/3\)
Ejercicio\(\PageIndex{25}\)
Supongamos que el par\(\{X, Y\}\) es independiente, con\(X\) ~ Poisson (\(\mu\)) y\(Y\) ~ Poisson\((\lambda)\). Demostrar que\(X\) es condicionalmente binomial\((n, \mu/(\mu + \lambda))\), dado\(X + Y = n\). Es decir, mostrar que
\(P(X = k|X + Y = n) = C(n, k) p^k (1 - p)^{n - k}\),\(0 \le k \le n\), para\(p = \mu/(\mu + \lambda)\)
- Contestar
-
\(X\)~ Poisson (\(\mu\)),\(Y\) ~ Poisson\((\lambda)\). El uso de la propiedad (T1) y la generación de funciones muestra que\(X + Y\) ~ Poisson\((\mu + \lambda)\)
\(P(X = k|X + Y = n) = \dfrac{P(X = k, X + Y = n)}{P(X+Y = n)} = \dfrac{P(X = k, Y = n - k)}{P(X + Y) = n}\)
\(= \dfrac{e^{-\mu} \dfrac{\mu^k}{k!} e^{-\lambda} \dfrac{\lambda^{n -k}}{(n - k)!}}{e^{-(\mu + \lambda)} \dfrac{(\mu + \lambda)^n}{n!}} = \dfrac{n!}{k! (n - k)!} \dfrac{\mu^k \lambda^{n - k}}{(\mu + \lambda)^n}\)
Poner\(p = \mu/(\mu + \lambda)\) y\(q = 1 - p = \lambda/(\mu + \lambda)\) para obtener el resultado deseado.
Ejercicio\(\PageIndex{26}\)
Utilice el hecho de que\(g(X, Y) = g^* (X, Y, Z)\), donde\(g^* (t, u, v)\) no varía con\(v\). Ampliar propiedad (CE10) para mostrar
\(E[g(X, Y)|X = t, Z = v] = E[g(t, Y)|X = t, Z = v]\)a.s.\([P_{XZ}]\)
- Contestar
-
\(E[g(X,Y)|X = t, Z = v] = E[g^* (X, Z, Y)| (X, Z) = (t, v)] = E[g^* (t, v, Y)|(X, Z) = (t, v)]\)
\(= E[g(t, Y)|X = t, Z = v]\)a.s.\([P_{XZ}]\) por (CE10)
Ejercicio\(\PageIndex{27}\)
Utilizar el resultado del Ejercicio 14.2.26 y las propiedades (CE9a) y (CE10) para demostrar que
\(E[g(X, Y)|Z = v] = \int E[g(t, Y)|X = t, Z =v] F_{X|Z} (dt|v)\)a.s.\([P_Z]\)
- Contestar
-
Por (CE9),\(E[g(X, Y)|Z] = E\{E|g(X, Y)|X, Z]|Z\} = E[e(X, Z)|Z]\) a.s.
Por (CE10),
\(E[e(X, Z)|Z = v] = E[e(X, v)|Z = v] = \)
\(\int e(t, v) F_{X|Z} (dt|v)\)a.s.
Por el Ejercicio 14.2.26,
\(\int E[g(X, Y)|X = t, Z = v] F_{X|Z} (dt|v) = \)
\(\int E[g(t, Y)|X = t, Z = v] F_{X|Z} (dt|v)\)a.s.\([P_Z]\)
Ejercicio\(\PageIndex{28}\)
Una tienda que trabaja más allá del horario de cierre para completar los trabajos disponibles tiende a acelerar el servicio en cualquier trabajo recibido durante la última hora antes del cierre. Supongamos que la hora de llegada de un trabajo en horas antes de la hora de cierre es una variable aleatoria\(T\) ~ uniforme [0, 1]. El tiempo de servicio\(Y\) para una unidad recibida en ese periodo es condicionalmente exponencial\(\beta (2 - u)\), dado\(T = u\). Determinar la unción de distribución para\(Y\).
- Contestar
-
\(F_Y (v) = \int F_{Y|T} (v|u) f_T (u)\ du = \int_{0}^{1} (1 - e^{-\beta (2 - u)v})\ du = \)
\(1 - e^{-2\beta v} \dfrac{e^{\beta v} - 1}{\beta v} = 1 - e^{\beta v} [\dfrac{1 - e^{-\beta v}}{\beta v}]\),\(0 < v\)
Ejercicio\(\PageIndex{29}\)
El tiempo hasta el fallo\(X\) de una unidad manufacturada tiene una distribución exponencial. El parámetro depende del proceso de fabricación. Supongamos que el parámetro es el valor de la variable aleatoria\(H\) ~ uniforme en [0.005, 0.01], y\(X\) es condicionalmente exponencial\((u)\), dado\(H = u\). Determinar\(P(X > 150)\). Determine\(E[X|H = u]\) y use esto para determinar\(E[X]\).
- Contestar
-
\(F_{X|H} (t|u) = 1 - e^{ut}\)\(f_{H} (u) = \dfrac{1}{0.05} = 200\),\(0.005 \le u \le 0.01\)
\(F_X (t) = 1 - 200 \int_{0.005}^{0.01} e^{-ut}\ du = 1 - \dfrac{200}{t} [e^{-0.005t} - e^{-0.01t}]\)
\(P(X > 150) = \dfrac{200}{150}[e^{-0.75} - e^{-1.5}] \approx 0.3323\)
\(E[X|H = u] = 1/u\)\(E[X] = 200 \int_{0.005}^{0.01} \dfrac{du}{u} = 200 \text{ln } 2\)
Ejercicio\(\PageIndex{30}\)
Un sistema tiene\(n\) componentes. El tiempo hasta el fallo del componente\(i\) th es\(X_i\) y la clase
\(\{X_i: 1 \le i \le n\}\)es iid exponencial (\(\lambda\)). El sistema falla si falla alguno o más de los componentes. \(W\)Sea el momento de la falla del sistema. ¿Cuál es la probabilidad de que el fallo se deba al componente\(i\) th?
Sugerencia. Tenga en cuenta que\(W = X_i\) iff\(X_j > X_i\), para todos\(j \ne i\). Así
\(\{W = X_i\} = \{(X_1, X_2, \cdot\cdot\cdot, X_n) \in Q\}\),\(Q = \{(t_1, t_2, \cdot\cdot\cdot t_n): t_k > t_i, \forall k \ne i\}\)
\(P(W = X_i) = E[I_Q (X_1, X_2, \cdot\cdot\cdot, X_n)] = E\{E[I_Q (X_1, X_2, \cdot\cdot\cdot, X_n)|X_i]\}\)
- Contestar
-
Vamos\(Q = \{(t_1, t_2, \cdot\cdot\cdot, t_n): t_k > t_i, k \ne i\}\). Entonces
\(P(W = X_i) = E[I_Q (X_1, X_2, \cdot\cdot\cdot, X_n)] = E\{E[I_Q (X_1, X_2, \cdot\cdot\cdot, X_n)|X_i]\}\)
\(= \int E[I_Q(X_1, X_2, \cdot\cdot\cdot, t_i, \cdot\cdot\cdot X_n)] F_X (dt)\)
\(E[I_Q (X_1, X_2, \cdot\cdot\cdot, t_i, \cdot\cdot\cdot, X_n)] = \prod_{k \ne i} P(X_k > t) = [1 - F_X (t)]^{n - 1}\)
Si\(F_X\) es continuo, estrictamente creciente, cero para\(t < 0\), poner\(u = F_X (t)\),\(du = f_X (t)\ dt\),\(t = 0\) ~\(u = 0, t = \infty\) ~\(u = 1\). Entonces
\(P(W = X_i) = \int_{0}^{1} (1 - u)^{n - 1}\ du = \int_{0}^{1} u^{n - 1}\ du = 1/n\)