1.8: Ejercicios
- Page ID
- 86164
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Considera una secuencia\(A_{1}, A_{2}, \ldots\) de eventos cada uno de los cuales tiene probabilidad cero.
- Encuentra\(\operatorname{Pr}\left\{\sum_{n=1}^{m} A_{n}\right\}\) y encuentra\(\lim _{m \rightarrow \infty} \operatorname{Pr}\left\{\sum_{n=1}^{m} A_{n}\right\}\). Lo que has hecho es demostrar que la suma de un conjunto contablemente infinito de números cada uno igual a 0 está perfectamente bien definida como 0.
- Para una secuencia de posibles fases,\(a_{1}, a_{2}, \ldots\) entre 0 y\(2 \pi\), y una secuencia de eventos singleton,\(A_{n}=\left\{a_{n}\right\}\), encontrar\(\operatorname{Pr}\left\{\bigcup_{n} A_{n}\right\}\) asumiendo que la fase se distribuye uniformemente.
- Ahora dejemos\(A_{n}\) ser el evento vacío\(\phi\) para todos\(n\). Usa\ ref {1.1} para mostrar eso\(\operatorname{Pr}\{\phi\}=0\).
- Contestar
Dejemos\(A_{1}\) y\(A_{2}\) sean hechos arbitrarios y demuéstralo\(\operatorname{Pr}\left\{A_{1} \cup A_{2}\right\}+\operatorname{Pr}\left\{A_{1} A_{2}\right\}=\operatorname{Pr}\{A_1\}+\operatorname{Pr}\{A_2\}\). Explique qué partes del espacio muestral se están contando dos veces en ambos lados de esta ecuación y qué partes se están contando una vez.
- Contestar
Dejar\(A_{1}, A_{2}, \ldots\), ser una secuencia de eventos disjuntos y asumir eso\(\operatorname{Pr}\left\{A_{n}\right\}=2^{-n-1}\) para cada uno\(n \geq 1\). Supongamos también eso\(\Omega=\bigcup_{n=1}^{\infty} A_{n}\).
- Demostrar que estos supuestos violan los axiomas de probabilidad.
- Mostrar que si\ ref {1.3} se sustituye por el tercero de esos axiomas, entonces los supuestos anteriores satisfacen los axiomas.
Esto demuestra que la aditividad contable de Axioma 3 dice algo más que la aditividad finita de (1.3).
- Contestar
Este ejercicio deriva la probabilidad de una unión arbitraria (no disjunta) de eventos, deriva el enlace de unión y deriva algunas expresiones límite útiles.
- Para 2 eventos arbitrarios\(A_{1}\) y\(A_{2}\), mostrar que
\(A_{1} \bigcup A_{2}=A_{1} \bigcup\left(A_{2}-A_{1}\right) \quad \text { where } A_{2}-A_{1}=A_{2} A_{1}^{c}\)
\(A_{2}-A_{1}\)Demuéstralo\(A_{1}\) y son disjuntos Sugerencia: Para esto se inventaron los diagramas de Venn.
- Para una secuencia arbitraria de eventos,\(\left\{A_{n} ; n \geq 1\right\}\), let\(B_{1}=A_{1}\) y para cada uno\(n \geq 2\) define\(B_{n}=A_{n}-\bigcup_{j=1}^{n-1} A_{j}\). Demostrar que\(B_{1}, B_{2}, \ldots\), son eventos disjuntos y demostrar que para cada uno\(m \geq 2\),\(\bigcup_{n=1}^{m} A_{n}=\bigcup_{n=1}^{n} B_{n}\). Pista: Usar inducción.
- Demostrar que
\(\operatorname{Pr}\left\{\bigcup_{n=1}^{\infty} A_{n}\right\}^{\}}=\operatorname{Pr}\left\{\bigcup_{n=1}^{\infty} B_{n}\right\}^{\}}=\sum_{n=1}^{\infty} \operatorname{Pr}\left\{B_{n}\right\}\)
Pista: Usa los axiomas de probabilidad para la segunda igualdad.
- Demostrar que para cada uno\(n\),\(\operatorname{Pr}\left\{B_{n}\right\} \leq \operatorname{Pr}\left\{A_{n}\right\}\). Usa esto para demostrar que
\(\operatorname{Pr}\left\{\bigcup_{n=1}^{\infty} A_{n}\right\}^{\}} \leq \sum_{n=1}^{\infty} \operatorname{Pr}\left\{A_{n}\right\}\)
- \(\operatorname{Pr}\left\{\bigcup_{n=1}^{\infty} A_{n}\right\}=\lim _{m \rightarrow \infty} \operatorname{Pr}\left\{\bigcup_{n=1}^{m} A_{n}\right\}\)Demuéstralo. Pista: Combine las partes c) y b).. Tenga en cuenta que esto dice que la probabilidad de un límite de sindicatos es igual al límite de las probabilidades. Esto bien podría parecer obvio sin una prueba, pero verá situaciones más adelante en las que no se pueden hacer intercambios similares que aparecen.
- \(\operatorname{Pr}\left\{\bigcap_{n=1}^{\infty} A_{n}\right\}=\lim _{n \rightarrow \infty} \operatorname{Pr}\left\{\bigcap_{i=1}^{n} A_{i}\right\}\)Demuéstralo. Pista: Recuerda las igualdades de DeMorgan.
- Contestar
Considerar un espacio muestral de 8 puntos de muestreo equiprobables y dejar que\(A_{1}, A_{2}, A_{3}\) sean tres eventos cada uno de probabilidad 1/2 tal que\(\operatorname{Pr}\left\{A_{1} A_{2} A_{3}\right\}=\operatorname{Pr}\left\{A_{1}\right\} \operatorname{Pr}\left\{A_{2}\right\} \operatorname{Pr}\left\{A_{3}\right\}\).
- Crear un ejemplo donde\(\operatorname{Pr}\left\{A_{1} A_{2}\right\}=\operatorname{Pr}\left\{A_{1} A_{3}\right\}=\frac{1}{4}\) pero\(\operatorname{Pr}\left\{A_{2} A_{3}\right\}=\frac{1}{8}\). Pista: Haga una tabla con una fila para cada punto de muestra y una columna para cada evento y pruebe diferentes formas de asignar puntos de muestra a eventos (la respuesta no es única).
- Demuéstralo, por tu ejemplo,\(A_{2}\) y no\(A_{3}\) son independientes. Obsérvese que la definición de independencia estadística sería muy extraña si\(A_{1}, A_{2}, A_{3}\) permitiera ser independiente mientras\(A_{2}\) y\(A_{3}\) son dependientes. Esto ilustra por qué la definición de independencia requiere\ ref {1.13} en lugar de solo (1.14).
- Contestar
Supongamos\(X\) y\(Y\) son rv discretos con el PMF\(\mathrm{p}_{X Y}\left(x_{i}, y_{j}\right)\). Mostrar (una imagen ayudará) que esto está relacionado con la función de distribución conjunta por
\(\mathrm{p}_{X Y}\left(x_{i}, y_{j}\right)=\lim _{\delta>0, \delta \rightarrow 0}\left[\mathrm{~F}\left(x_{i}, y_{j}\right)-\mathrm{F}\left(x_{i}-\delta, y_{j}\right)-\mathrm{F}\left(x_{i}, y_{j}-\delta\right)+\mathrm{F}\left(x_{i}-\delta, y_{j}-\delta\right)\right]\)
- Contestar
Una variación del Ejemplo 1.3.2 es dejar\(M\) ser una variable aleatoria que toma valores tanto positivos como negativos con el PMF
\(\mathrm{p}_{M}(m)=\frac{1}{2|m|(|m|+1)}\)
En otras palabras,\(M\) es simétrico alrededor de 0 y\(|M|\) tiene el mismo PMF que el rv no negativo\(N\) del Ejemplo 1.3.2.
- Demuestre eso\(\sum_{m \geq 0} m \mathrm{p}_{M}(m)=\infty\) y\(\sum_{m<0} m \mathrm{p}_{M}(m)=-\infty\). (Demostrar así que la expectativa de\(M\) no sólo no existe sino que es indefinida incluso en el sistema extendido de números reales.)
- Supongamos que los términos en\(\sum_{m=-\infty}^{\infty} m \mathrm{p}_{M}(m)\) se suman en el orden de 2 términos positivos por cada término negativo (es decir, en el orden 1, 2, 1, 3, 4, 2, 5,...). Encuentra el valor límite de las sumas parciales en esta serie. Pista: Puede resultarle útil saber que
\(\lim _{n \rightarrow \infty}\left[\sum_{i=1}^{n} \frac{1}{i}-\int_{1}^{\}n} \frac{1}{x} d x\right]^\}=\gamma,\)
donde\(\gamma\) está la constante de Euler-Mascheroni,\(\gamma=0.57721 \cdots\).
- Repetir la parte b) donde, para cualquier entero dado\(k>0\), el orden de la suma es términos\(k\) positivos para cada término negativo.
- Contestar
- Para cualquier rv dado\(Y\), expreso\(\mathrm{E}[|Y|]\) en términos de\(\int_{y<0} \mathrm{~F}_{Y}(y) d y\) y\(\int_{y \geq 0} \mathrm{~F}_{Y}^{\mathrm{c}}(y) d y\).
- Mostrar que\(\mathrm{E}[|Y-\alpha|]\) se minimiza estableciendo\(\alpha\) igual a la mediana de\(Y\) (es decir, el valor de\(Y\) para la cual\(\mathrm{F}_{Y}(y)=1 / 2\)). Pista: Usa un argumento gráfico.
- Contestar
Dejar\(X\) ser un rv con función de distribución\(\mathrm{F}_{X}(x)\). Encuentra la función de distribución de los siguientes rv.
- El máximo de\(n\) IID rv, cada uno con función de distribución\(\mathrm{F}_{X}(x)\).
- El mínimo de\(n\) IID rv, cada uno con distribución\(\mathrm{F}_{X}(x)\).
- La diferencia de los rv definidos en a) y b); asuma que\(X\) tiene una densidad\(\mathrm{f}_{X}(x)\).
- Contestar
Dejar\(X\) y\(Y\) ser rv en algún espacio de muestra\(\Omega\) y dejar\(Z=X+Y\), es decir, para cada uno\(\omega \in \Omega, Z(\omega)=X(\omega)+Y(\omega)\).
- Mostrar que el conjunto de\(\omega\) para el cual\(Z(\omega)=\pm \infty\) tiene probabilidad 0.
- Para demostrar que\(Z=X+Y\) es un rv, debemos demostrar que para cada número real\(\alpha\), el conjunto\(\{\omega \in \omega:X(\omega)+Y(\omega)\leq\alpha\}\) es un evento. Procedemos indirectamente. Para un entero positivo arbitrario\(n\) y un entero arbitrario\(k\), let\(B(n, k)=\{\omega: X(\omega) \leq k \alpha / n\} \cap\{Y(\omega) \leq(n+1-k) \alpha / n\}\). Dejar\(D(n)=\bigcup_{k} B(n, k)\) y mostrar que\(D(n)\) es un evento.
- En un boceto de 2 dimensiones para un dado\(\alpha\), mostrar los valores de\(X(\omega)\) y\(Y(\omega)\) para los cuales\(\omega \in D(n)\). Pista: Este conjunto de valores debe estar delimitado por una función de escalera.
- Demostrar que
\(\{\omega: X(\omega)+Y(\omega) \leq \alpha\}=\bigcap_{n} B(n)\)
Explica por qué esto demuestra que\(Z=X+Y\) es un rv.
- Contestar
- Seamos\(X_{1}, X_{2}, \ldots, X_{n}\) rv con valores esperados\(\bar{X}_{1}, \ldots, \bar{X}_{n}\). \(\mathrm{E}\left[X_{1}+\cdots+X_{n}\right]=\bar{X}_{1}+\cdots+\bar{X}_{n}\)Demuéstralo. Puede suponer que los rv tienen una función de densidad articular, pero no asuma que los rv son independientes.
- Ahora supongamos que\(X_{1}, \ldots, X_{n}\) son estadísticamente independientes y muestran que el valor esperado del producto es igual al producto de los valores esperados.
- De nuevo asumiendo que\(X_{1}, \ldots, X_{n}\) son estadísticamente independientes, muestran que la varianza de la suma es igual a la suma de las varianzas.
- Contestar
(Integración de Stieltjes)
- Let\(h(x)=u(x)\) y\(\mathrm{F}_{X}(x)=u(x)\) dónde\(u(x)\) está el paso de la unidad, es decir,\(u(x)=0\) para\(-\infty<x<0\) y\(u(x)=1\) para\(x \geq 0\). Utilizando la definición de la integral Stieltjes en la nota 22, mostrar que\(\int_{-1}^{1} h(x) d \mathrm{~F}_{X}(x)\) no existe. Pista: Mira el término en la suma de Riemann incluyendo\(x=0\) y mira el rango de opciones para\(h(x)\) en ese intervalo. Intuitivamente, podría ayudar inicialmente a ver\(d \mathrm{~F}_{X}(x)\) como un impulso unitario en\(x=0\).
- Vamos\(h(x)=u(x-a)\) y\(\mathrm{F}_{X}(x)=u(x-b)\) dónde\(a\) y\(b\) están en (1, +1). Mostrar que\(\int_{-1}^{1} h(x) d \mathrm{~F}_{X}(x)\) existe si y solo si\(a \neq b\). Demostrar que la integral tiene el valor 1 para a < b and the value 0 for a > b. Argumentan que este resultado sigue siendo válido en el límite de integración sobre\((-\infty, \infty)\).
- Dejar\(X\) y\(Y\) ser independientes rv discretos, cada uno con un conjunto finito de valores posibles. Demostrar que\(\int_{-\infty}^{\infty} \mathrm{F}_{X}(z-y) d \mathrm{~F}_{Y}(y)\), definida como una integral de Stieltjes, es igual a la distribución de\(Z=X+Y\) entre\(z\) sí que los posibles valores de muestra de\(Z\), y es indefinido en cada valor de muestra de\(Z\). Pista: Express\(\mathrm{F}_{X}\) y\(\mathrm{F}_{Y}\) como sumas de pasos unitarios. Nota: Esta falla de integración de Stieltjes no es un problema grave;\(\mathrm{F}_{Z}(z)\) es una función de paso, y la integral está indefinida en sus puntos de discontinuidad. Definimos automáticamente\(\mathrm{F}_{Z}(z)\) en esos valores de paso para que\(\mathrm{F}_{Z}\) sea una función de distribución (es decir, es continua desde la derecha). Este problema no surge si cualquiera\(X\) o\(Y\) es continuo.
- Contestar
\(X_{1}, X_{2}, \ldots, X_{n}, \ldots\)Sea una secuencia de IID rv continuas con la función de densidad de probabilidad común\(\mathrm{f}_{X}(x)\); tenga en cuenta que\(\operatorname{Pr}\{X=\alpha\}=0\) para todos\(\alpha\) y eso\(\operatorname{Pr}\left\{X_{i}=X_{j}\right\}=0\) para todos\(i \neq j\). Para\(n \geq 2\), defina\(X_{n}\) como un registro hasta la fecha de la secuencia si\(X_{n}>X_{i}\) para todos\(i<n\).
- Encuentra la probabilidad de que\(X_{2}\) sea un registro hasta la fecha. Utilice la simetría para obtener una respuesta numérica sin cómputos. Una explicación de una o dos líneas debe ser adecuada.
- Encuentra la probabilidad de que\(X_{n}\) sea un registro hasta la fecha, en función de\(n \geq 1\). Nuevamente usa la simetría.
- Encuentre una expresión simple para el número esperado de registros hasta la fecha que ocurren durante las primeras\(m\) pruebas para cualquier entero dado\(m\). Pista: Usar funciones indicadoras. Demostrar que este número esperado es infinito en el límite\(m \rightarrow \infty\).
- Contestar
(Continuatiton del Ejercicio 1.13)
- \(N_{1}\)Sea el índice del primer registro hasta la fecha de la secuencia. Encuentra\(\operatorname{Pr}\left\{N_{1}>n\right\}\) para cada uno\(n \geq 2\). Sugerencia: Hay una manera mucho más sencilla de hacer esto que trabajar desde la parte b) en el Ejercicio 1.13.
- Demostrar que\(N_{1}\) es un rv.
- \(\mathrm{E}\left[N_{1}\right]=\infty\)Demuéstralo.
- \(N_{2}\)Sea el índice del segundo registro hasta la fecha en la secuencia. Demostrar que\(N_{2}\) es un rv. Pista: No necesita encontrar la función de distribución de\(N_{2}\) aquí.
- Contraste tu resultado en la parte c) con el resultado de la parte c) del Ejercicio 1.13 diciendo que el número esperado de registros hasta la fecha es infinito sobre un número infinito de pruebas. Nota: esto debería ser un shock para tu intuición —hay una espera infinita esperada para el primero de una secuencia infinita de ocurrencias, cada una de las cuales debe ocurrir eventualmente.
- Contestar
(Otra dirección del Ejercicio 1.13)
- Para cualquier dado\(n \geq 2\), encuentre la probabilidad de que\(X_{n}\) y\(X_{n+1}\) sean ambos registros hasta la fecha. Pista: La idea en la parte b) de 1.13 es útil aquí, pero el resultado no lo es.
- ¿El evento que\(X_{n}\) es un registro hasta la fecha es estadísticamente independiente del evento que\(X_{n+1}\) es un registro hasta la fecha?
- Encuentre el número esperado de pares adyacentes de registros hasta la fecha sobre la secuencia\(X_{1}, X_{2}, \ldots\) Pista: Un hecho útil aquí es que\(\frac{1}{n(n+1)}=\frac{1}{n}-\frac{1}{n+1}\).
- Contestar
- Supongamos que\(X\) es un rv discreto no negativo tomando valores\(a_{1}, a_{2}, \ldots\), y dejar que\(Y=h(X)\) para alguna función no negativa\(h\). Que\(b_{i}=h\left(a_{i}\right), i \geq 1\),\(i \geq 1\) sea el\(i^{t h}\) valor asumido por Y. Demuéstralo\(\mathrm{E}[Y]=\sum_{i} b_{i} \mathrm{p}_{Y}\left(b_{i}\right)=\sum_{i} h\left(a_{i}\right) \mathrm{p}_{X}\left(a_{i}\right)\). Encuentra un ejemplo donde\(\mathrm{E}[X]\) existe pero\(\mathrm{E}[Y]=\infty\).
- Dejar\(X\) ser un rv continuo no negativo con densidad\(\mathrm{f}_{X}(x)\) y dejar\(h(x)\) ser diferenciable, no negativo, y estrictamente aumentando en\(x\). Let\(A(\delta)=\sum_{n} h(n \delta)[\mathrm{F}(n \delta)-\mathrm{F}(n \delta-\delta)]\), es decir,\(A(\delta)\) es la aproximación de\(\delta t h\) orden a la integral Stieltjes\(\left.\int\right\} h(x) d \mathrm{~F}(x)\). Demuéstralo si\(A(1)<\infty\), entonces\(A\left(2^{-k}\right) \leq A\left(2^{k-1}\right)<\infty\). Mostrar a partir de esto que\(\left.\int\right\} h(x) d \mathrm{~F}(x)\) converge a un valor finito. Nota: este es un caso muy especial, pero se puede extender a muchos casos de interés. Parece mejor considerar estas preguntas de convergencia como requeridas en lugar de considerarlas en general.
- Contestar
- Considere un rv positivo con valor entero cuya función de distribución se da en valores enteros por
\(\mathrm{F}_{Y}(y)=1-\frac{2}{(y+1)(y+2)} \quad\text { for integer } y>0\)
Usa\ ref {1.35} para mostrar eso\(\mathrm{E}[Y]=2\). Pista: Tenga en cuenta el PMF dado en (1.31).
- Encuentra el PMF de\(Y\) y úsalo para verificar el valor de\(\mathrm{E}[Y]\).
- \(X\)Sea otro rv positivo, con valor entero. Supongamos que su PMF condicional está dado por
\(\mathrm{p}_{X \mid Y}(x \mid y)=\frac{1}{y} \quad \text { for } 1 \leq x \leq y\)
\(\mathrm{E}[X \mid Y=y]\)Encuéntralo y demuestra eso\(\mathrm{E}[X]=3 / 2\). Explore encontrar\(\mathrm{p}_{X}(x)\) hasta que esté convencido de que usar la expectativa condicional para calcular\(\mathrm{E}[X]\) es considerablemente más fácil que usar\(\mathrm{p}_{X}(x)\).
- Dejar\(Z\) ser otra rv con valor entero con el PMF condicional
\(\mathrm{p}_{Z \mid Y}(z \mid y)=\frac{1}{y^{2}} \quad \text { for } 1 \leq z \leq y^{2}\)
Encuentra\(\mathrm{E}[Z \mid Y=y]\) para cada número entero\(y \geq 1\) y encuentra\(\mathrm{E}[Z]\).
- Contestar
- Mostrar que, para rv no correlacionados, el valor esperado del producto es igual al producto de los valores esperados (por definición,\(X\) y no\(Y\) están correlacionados si\(\mathrm{E}[(X-\bar{X})(Y-\bar{Y})]\}=0)\).
- Mostrar que si\(X\) y no\(Y\) están correlacionados, entonces la varianza de\(X+Y\) es igual a la varianza de\(X\) más la varianza de\(Y\).
- Mostrar que si no\(X_{1}, \ldots, X_{n}\) están correlacionados, la varianza de la suma es igual a la suma de las varianzas.
- Demostrar que los rv independientes no están correlacionados.
- Let\(X\),\(Y\) se distribuyan idénticamente variables aleatorias de valor ternario con el PMF\(\mathrm{p}_{X}(-1)=\mathrm{p}_{X}(1)=1 / 4\);\(\mathrm{p}_{X}(0)=1 / 2\). Encuentre una asignación de probabilidad conjunta simple tal que\(X\) y no\(Y\) estén correlacionadas pero dependientes.
- Has visto que la función generadora de momento de una suma de rv independientes es igual al producto de las funciones generadoras de momento individuales. Dé un ejemplo donde esto es falso si las variables no están correlacionadas pero dependientes.
- Contestar
Supongamos que\(X\) tiene el PMF de Poisson,\(\mathrm{p}_{X}(n)=\lambda^{n} \exp (-\lambda) / n !\) para\(n \geq 0\) y\(Y\) tiene el PMF de Poisson,\(\mathrm{p}_{Y}(m)=\mu^{n} \exp (-\mu) / n ! \text { for } n \geq 0\). Supongamos que\(X\) y\(Y\) son independientes. Encuentra la distribución de\(Z=X+Y\) y encuentra la distribución condicional de\(Y\) condicional on\(Z = n\).
- Contestar
- Supongamos\(X\),\(Y\) y\(Z\) son rv binarios, tomando cada uno el valor 0 con probabilidad 1/2 y el valor 1 con probabilidad 1/2. Encuentra un ejemplo simple en el que\(X\)\(Y\),,\(Z\) son estadísticamente dependientes pero son estadísticamente independientes por pares (es decir\(X\),\(Y\) son estadísticamente independientes\(X\),\(Z\) son estadísticamente independientes, y\(Y\),\(Z\) son estadísticamente independiente). Dé\(\mathrm{p}_{X Y Z}(x, y, z)\) por su ejemplo. Sugerencia: En el ejemplo más simple, solo 4 de los valores conjuntos para\(x, y, z\) tienen probabilidades positivas.
- ¿Es suficiente la independencia estadística por pares para garantizar que
\ (\ mathrm {E}\ izquierda [\ prod_ {i=1} ^ {n} X_ {i}\ derecha]
^\} =\ prod_ {i=1} ^ {n}\ mathrm {E}\ izquierda [X_ {i}\ derecha]\)para un conjunto de rv\(X_{1}, \ldots, X_{n}\)?
- Contestar
Demostrar que\(\mathrm{E}[X]\) es el valor de\(\alpha\) lo que minimiza\(\mathrm{E}\left[(X-\alpha)^{2}\right]\).
- Contestar
Para cada una de las siguientes variables aleatorias, encuentre el intervalo\(\left(r_{-}, r_{+}\right)\) sobre el cual\(g(r)\) existe la función de generación de momento. Determinar en cada caso si\(g_{X}(r)\) existe en los puntos finales\(r_{-}\) y\(r_{+}\). Para las partes a) y b) también debe buscar y bosquejar\(g(r)\). Para la parte c), no\(g(r)\) tiene forma cerrada.
- Dejar\(\lambda\),\(\theta\), ser números positivos y dejar\(X\) tener la densidad
\(\mathrm{f}_{X}(x)=\frac{1}{2} \lambda \exp (-\lambda x) ; x \geq 0 ; \quad \mathrm{f}_{X}(x)=\frac{1}{2} \theta \exp (\theta x) ; x<0\)
- Dejar\(Y\) ser una variable aleatoria gaussiana con media\(m\) y varianza\(\sigma^{2}\).
- Dejar\(Z\) ser una variable aleatoria no negativa con densidad
\(\mathrm{f}_{Z}(z)=k(1+z)^{-2} \exp (-\lambda z) ; \quad z \geq 0\)
dónde\(\lambda>0\) y\(k=\left[\int_{z \geq 0}(1+z)^{2} \exp (-a z) d z\right]^{-1}\). Pista: No trates de evaluar\(g_{Z}(r)\). En cambio, investigar valores\(r\) para los cuales la integral es finita e infinita.
- Contestar
Recordemos que el MGF del rv exponencial no negativo con densidad\(e^{-x}\) es\((1-r)^{-1}\) para\(r<r_{+}=1\). En otras palabras,\(g\left(r_{+}\right)\) no existe y\(\lim _{r \rightarrow r_{+}} g(r)=\infty\), donde se termina el límite\(r<r_{+}\). En este ejercicio, hay que asumir que\(X\) es un rv arbitrario para el que\(g\left(r_{+}\right)\) no existe y mostrar que\(\lim _{r \rightarrow r_{+}} g(r)=\infty\) donde se ha terminado el límite\(r<r_{+}\).
- Explicar por qué
\(\lim _{A \rightarrow \infty} \int_{0}^{\}A} e^{x r_{+}} d \mathrm{~F}(x)=\infty\)
- Demostrar que para cualquiera\(\epsilon>0\) y cualquiera\(A>0\),
\(g\left(r_{+}-\epsilon\right) \geq e^{-\epsilon A} \int_{0}^{\}A} e^{x r_{+}} d \mathrm{~F}(x)\)
- Elige\(A=1 / \epsilon\) y demuestra que
\(\lim _{\epsilon \rightarrow 0} g\left(r_{+}-\epsilon\right)=\infty\)
- Contestar
- Supongamos que el MGF de la variable aleatoria\(X\) existe (es decir, es finito) en el intervalo\(\left(r_{-}, r_{+}\right)\),\(r_{-}<0<r_{+}\), y asuma en\(r_{-}<r<r_{+}\) todo momento. Para cualquier constante finita\(c\), expresar el momento generando función de\(X-c\), es decir\(\mathbf{g}(X-c)(r)\), en términos de\(\mathrm{g}_{X}(r)\) y mostrar que\(\mathrm{g}_{(X-c)}(r)\) existe para todos\(r\) en\(\left(r_{-}, r_{+}\right)\). Explique por qué\(\mathrm{g}_{(X-c)}^{\prime \prime}(r) \geq 0\).
- \({g}_{(X-c)}^{\prime \prime}(r)=\left[g_{X}^{\prime \prime}(r)-2 c g_{X}^{\prime}(r)+c^{2} g_{X}(r)\right] e^{-r c}\)Demuéstralo.
- Utilice a) y b) para demostrar eso\({g}_{X}^{\prime \prime}(r) \mathrm{g}_{X}(r)-\left[\mathrm{g}_{X}^{\prime}(r)\right]^{2} \geq 0\), dejar\(\gamma_{X}(r)=\ln g_{X}(r)\) y mostrar eso\(\gamma_{X}^{\prime \prime}(r) \geq 0\). Pista: Elige\(c=\mathrm{g}_{X}^{\prime}(r) / \mathrm{g}_{X}(r)\).
- Supongamos que\(X\) es no determinista, es decir, que no hay valor de\(\alpha\) tal que\(\operatorname{Pr}\{X=\alpha\}=1\). Demostrar que el signo de desigualdad\(“\geq”\) puede ser sustituido por “>” en todas partes en a), b) y c).
- Contestar
Un sistema informático tiene\(n\) usuarios, cada uno con un nombre y contraseña únicos. Debido a un error de software, las\(n\) contraseñas se permutan internamente aleatoriamente (es decir, cada una de las\(n!\) posibles permutaciones son igualmente probables. Sólo aquellos usuarios lo suficientemente afortunados de haber tenido sus contraseñas sin cambios en la permutación son capaces de seguir usando el sistema.
- ¿Cuál es la probabilidad de que un usuario en particular, digamos el usuario 1, pueda continuar usando el sistema?
- ¿Cuál es el número esperado de usuarios capaces de seguir usando el sistema? Sugerencia: Let\(X_{i}\) be a rv con el valor 1 si el usuario\(i\) puede usar el sistema y 0 de lo contrario.
- Contestar
Supongamos que el rv\(X\) es continuo y tiene la función de distribución\(\mathrm{F}_{X}(x)\). Considera otra rv\(Y=\mathrm{F}_{X}(X)\). Es decir, para cada punto de muestreo\(\omega\) tal que\(X(\omega)=x\), tenemos\(Y(\omega)=\mathrm{F}_{X}(x)\). Mostrar que\(Y\) se distribuye uniformemente en el intervalo 0 a 1.
- Contestar
Dejar\(Z\) ser un valor entero rv con el PMF\(\mathrm{p}_{Z}(n)=1 / k\) para\(0 \leq n \leq k-1\). Encuentra la media, varianza, y función generadora de momento de\(Z\). Pista: Una manera elegante de hacer esto es dejar que\(U\) sea un rv continuo distribuido uniformemente sobre (0, 1] que sea independiente de\(Z\). Entonces\(U + Z\) es uniforme sobre (0,\(k\)]. Utilice los resultados conocidos sobre\(U\) y\(U + Z\) para encontrar la media, varianza y MGF para\(Z\).
- Contestar
- Dejar\(Y\) ser un rv no negativo y\(y>0\) ser algún número fijo. Que\(A\) sea el evento que\(Y \geq y\). Demostrar eso\(y \mathbb{I}_{A} \leq Y\) (es decir, que esta desigualdad se satisface para cada uno\(\omega \in \Omega\)).
- Usa tu resultado en la parte a) para probar la desigualdad de Markov
- Contestar
- Demuéstralo para cualquier\(0<k<n\)
\ (\ left (\ begin {array} {l}
\} n\\
k+1
\ end {array}\ right) ^ {\}}\ leq\ left (\ begin {array} {l}
n\\
k
\ end {array}\ right)\ frac {n-k} {k}\) - Extender la parte a) para demostrar que, para todos\(\ell \leq n-k\),
\ (\ left (\ begin {array} {c}
\} n\\
k+\ ell
\ end {array}\ right) ^ {\}}\ leq\ left (\ begin {array} {l}
n\\
k
\ end {array}\ right)\ left [\ frac {n-k} {k}\ right] ^ {\ ell}\) - Dejar\(\tilde{p}=k / n\) y\(\tilde{q}=1-\tilde{p}\). Dejar\(S_{n}\) ser la suma de IID\(n\) binarios rv con\(\mathrm{p}_{X}(0)=q\) y\(\mathbf{p}_{X}(1)=p\). Demostrar que para todos\(\ell \leq n-k\),
\(\mathbf{p}_{S_{n}}(k+\ell) \leq \mathrm{p}_{S_{n}}(k)\left(\frac{\tilde{q} p}{\tilde{p} q}\right)^{\ell\}}\)
- Para\(k / n>p\), demuéstralo\(\operatorname{Pr}\left\{S_{n} \geq k n\right\} \leq \frac{\tilde{p} q}{\tilde{p}-p} \mathrm{p}_{S_{n}}(k)\).
- Ahora\(\ell\) déjese arreglar y\(k=\lceil n \tilde{p}\rceil\) para arreglado\(\tilde{p}\) tal que\(1>\tilde{p}>p\). Argumentan que como\(n \rightarrow \infty \),
\(\mathrm{p}_{S_{n}}(k+\ell) \sim \mathrm{p}_{S_{n}}(k)\left(\frac{\tilde{q} p}{\tilde{p} q}\right)^{\ell{\}}} \quad \text { and }\quad \operatorname{Pr}\left\{S_{n} \geq k n\right\} \sim \frac{\tilde{p} q}{\tilde{p}-p} \mathrm{p}_{S_{n}}(k)\)
- Contestar
Una secuencia\(\left\{a_{n} ; n \geq 1\right\}\) de números reales tiene el límite 0 si para todos\(\epsilon>0\), hay\(m(\epsilon)\) tal que\(\left|a_{n}\right| \leq \epsilon\) para todos\(n \geq m(\epsilon)\). Mostrar que las secuencias en las partes a) y b) siguientes satisfacen\(\lim _{n \rightarrow \infty} a_{n}=0\) pero la secuencia en la parte c) no tiene límite.
- \(a_{n}=\frac{1}{\ln (\ln (n+1))}\)
- \(a_{n}=n^{10} \exp (-n)\)
- \(a_{n}=1\)\(n=10^{\ell}\)para cada entero positivo\(\ell\) y de\(a_{n}=0\) otra manera.
- Mostrar que la definición se puede cambiar (sin cambio de significado) reemplazando\(\epsilon\) con cualquiera\(1 / k\) o\(2^{-k}\) por cada entero positivo\(k\).
- Contestar
Considere la función de generación de momento de un rv\(X\) como consistente en las siguientes dos integrales:
\(\mathrm{g}_{X}(r)=\int_{-\infty}^{\}0} e^{r x} d \mathrm{~F}(x)+\int_{0}^{\}\infty} e^{r x} d \mathrm{~F}(x)\)
En cada una de las siguientes partes, puede restringir\(X\) para ser discreto o continuo.
- Mostrar que la primera integral siempre existe (es decir, es finita) para\(r \geq 0\) y que la segunda integral siempre existe para\(r \leq 0\).
- Mostrar que si la segunda integral existe para un dado\(r_{1}>0\), entonces también existe para todos\(r\) en el rango\(0 \leq r \leq r_{1}\).
- Mostrar que si la primera integral existe para un dado\(r_{2}<0\), entonces también existe para todos\(r\) en el rango\(r_{2} \leq r \leq 0\).
- Mostrar que el rango de\(r\) sobre el que\({g}_{X}(r)\) existe es un intervalo de algunos\(r_{2} \leq 0\) a algunos\(r_{1} \geq 0\) (el intervalo puede incluir o no cada punto final, y uno o ambos puntos finales pueden ser 0 o\(\infty\)).
- Encuentre un ejemplo donde\(r_{1}=1\) y el MGF no existe para\(r=1\). Encuentra otro ejemplo donde\(r_{1}=1\) y el MGF existe para\(r=1\). Pista: Considera\(f_{X}(x)=e^{-x}\) para\(x \geq 0\) y descubre cómo modificarlo para\(\mathrm{f}_{Y}(y)\) que\(\int_{0}^{\infty} e^{y} f_{Y}(y) d y<\infty\) pero\(\int_{0}^{\infty} e^{y+\epsilon y} f_{Y}(y)=\infty\) para todos\(\epsilon>0\).
- Contestar
\(\left\{X_{n} ; n \geq 1\right\}\)Sea una secuencia de rv independientes pero no idénticamente distribuidos. Decimos que la ley débil de los números grandes (WLLN) sostiene para esta secuencia si para todos\(\epsilon>0\)
\(\lim _{n \rightarrow \infty} \operatorname{Pr}\left\{\left|\frac{S_{n}}{n}-\frac{\mathrm{E}\left[S_{n}\right]}{n}\right| \geq \epsilon\right\}^\}=0 \quad \text { where } S_{n}=X_{1}+X_{2}+\cdots+X_{n}\quad(\text{WL})\)
- Demostrar que el WLLN sostiene si hay alguna constante\(A\) tal que\(\sigma_{X_{n}}^{2} \leq A\) para todos\(n\).
- Supongamos que\(\sigma_{X_{n}}^{2} \leq A n^{1-\alpha}\) para algunos\(\alpha<1\) y para todos\(n\). Demostrar que la WLLN sostiene en este caso.
- Contestar
Dejemos\(\left\{X_{i} ; i \geq 1\right\}\) ser IID rv binarios. vamos\(\operatorname{Pr}\left\{X_{i}=1\right\}=\delta\),\(\operatorname{Pr}\left\{X_{i}=0\right\}=1-\delta\). Vamos\(S_{n}=X_{1}+\cdots+X_{n}\). Let\(m\) Ser un entero positivo arbitrario pero fijo. ¡Piensa! luego evalúe lo siguiente y explique sus respuestas:
- \(\lim _{n \rightarrow \infty} \sum_{i: n \delta-m \leq i \leq n \delta+m} \operatorname{Pr}\left\{S_{n}=i\right\}\)
- \(\lim _{n \rightarrow \infty} \sum_{i: 0 \leq i \leq n \delta+m} \operatorname{Pr}\left\{S_{n}=i\right\}\)
- \(\lim _{n \rightarrow \infty} \sum_{i: n(\delta-1 / m) \leq i \leq n(\delta+1 / m)} \operatorname{Pr}\left\{S_{n}=i\right\}\)
- Contestar
Utilizar el resultado de Berry-Esseen, (1.83), para probar el WLLN bajo la restricción de que\(\left.\mathrm{E}\left[|X|^{3}\right]\right\} \text { exists }\). Nota: Esto no pretende ser una forma razonable de probar el WLLN. Más bien, es para entender mejor lo que implica el resultado de convergencia de\ ref {1.83}. Parece que el CLT, sin algo extra sobre convergencia, no establece el WLLN.
- Contestar
- Mostrar que si\(X_{1}, X_{2}, \ldots\), son IID, entonces las versiones truncadas\(\breve{X}_{1}, \breve{X}_{2}, \ldots\), también son IID.
- Mostrar que cada uno\(\breve{X}_{i}\) tiene una media finita\(\mathrm{E}[\breve{X}]^\}\) y varianza finita\(\sigma_{\breve{X}}^{2}\). Mostrar que la varianza es superior delimitada por el segundo momento alrededor de la media original\(\bar{X}\), es decir, mostrar eso\(\sigma_{\breve{X}}^{2} \leq \mathrm{E}\left[|\breve{X}-\mathrm{E}[X]|^{2}\right]\).
- Supongamos que\(\check{X}_{i}\) se\(X_{i}\) trunca a\(\bar{X} \pm b\). Demuestre eso\(|\breve{X}-\bar{X}| \leq b\) y aquello\(|\breve{X}-\bar{X}| \leq|X-\bar{X}|\). Usa esto para demostrarlo\(\sigma_{\breve{X}}^{2} \leq b \mathrm{E}[|\breve{X}-\bar{X}|]^\} \leq 2 b \mathrm{E}[|X|]\).
- Dejar\(\breve{S}_{n}=\breve{X}_{1}+\cdots+\breve{X}_{n}\) y demostrar que para cualquier\(\epsilon>0\),
\(\operatorname{Pr}\left\{\left|\frac{\breve{S}_{n}}{_{\}}n}-\mathrm{E}[\breve{X}]\right|_{\}} \geq \frac{\epsilon}{2}\right\}^{\}} \leq \frac{8 b \mathrm{E}[|X|]}{n \epsilon^{2}}\)
- Esbozar la forma de\(\mathrm{F}_{\breve{X}-\bar{X}}(x)\) y utilizar esto, junto con (1.35), para mostrar que para todos suciamente grandes\(b\),\(|\mathrm{E}[\breve{X}-\bar{X}]| \leq \epsilon / 2\). Usa esto para demostrar que
\(\operatorname{Pr}\left\{\left|\frac{\breve{S}_{n}}{n}-\mathrm{E}[X]\right| \geq \epsilon\right\}^\} \leq \frac{8 b \mathrm{E}[|X|]}{n \epsilon^{2}} \quad \text { for all large enough }b\)
- Utilice la siguiente ecuación para justificar (1.94).
\ (\ begin {aligned}
\ operatorname {Pr}\ izquierda\ {\ izquierda|\ frac {S_ {n}} {n} -\ mathrm {E} [X]\ derecha|>\ épsilon\ derecha\} ^\} =&\ izquierda. \ nombreoperador {Pr}\ izquierda\ {\ izquierda|\ frac {S_ {n}} {n} -\ mathrm {E} [X]\ derecha|>\ épsilon\ bigcap\ derecha\} S_ {n} = breve\ {S} _ {n}\ derecha\} ^\}\\
&\ izquierda. +\ nombreoperador {Pr}\ izquierda\ {\ izquierda|\ frac {S_ {n}} {n} -\ mathrm {E} [X]\ derecha|>\ épsilon\ bigcap\ derecha\} S_ {n}\ neq\ {S} _ {breve} _ {n}\ derecha\}
\ fin {alineado}\)
- Contestar
Let\(\left\{X_{i} ; i \geq 1\right\}\) Ser IID rv con media 0 y varianza infinita. Supongamos que\(\left.\mathrm{E}\left[\left|X_{i}\right|^{1+h}\right]\right\}=\beta\) para algunos dados\(h\),\(0<h<1\) y algunos finitos\(\beta\). Vamos\(S_{n}=X_{1}+\cdots+X_{n}\).
- Demostrar que\(\operatorname{Pr}\left\{\left|X_{i}\right| \geq y\right\} \leq \beta y^{-1-h}\)
-
Dejar que\(\left\{\breve{X}_{i} ; i \geq 1\right\}\) se trunca las variables\ (\ breve {X} _ _ {i} =\ izquierda\ {\ begin {array} {rll}
b &: & X_ {i}\ geq b
\\\\} X_ {i} &: & -b\ leq X_ {i}\ leq b
\\\} -b &: & X_ {i}\ leq-b
\ end {array} derecha.\)Mostrar esa\(\mathrm{E}\left[\breve{X}^{2}\right]^\} \leq \frac{2 \beta b^{1-h}}{1-h}\) Pista: Para un rv no negativo\(Z\),\(\left.\mathrm{E}\left[X^{2}\right]\right\}=\int_{0}^{\infty} 2 z \operatorname{Pr}\{Z \geq z\} d z\) (puedes establecer esto, si lo deseas, por integración por partes).
- Vamos\(\breve{S}_{n}=\breve{X}_{1}+\ldots+\breve{X}_{n}\). \(\operatorname{Pr}\left\{S_{n} \neq \breve{S}_{n}\right\}^\} \leq n \beta b^{-1-h}\)Demuéstralo.
- \(\operatorname{Pr}\left\{\left|\frac{S_{n}}{n}\right| \geq \epsilon \leq \beta\left[\frac{2 b^{1-h}}{(1-h) n \epsilon^{2}}+\frac{n}{b^{1+h}}\right]\right.\)Demuéstralo.
- Optimice su límite con respecto a b. ¿Qué tan rápido se acerca este límite optimizado a 0 con el aumento\(n\)?
- Contestar
Supongamos que\(\left\{Z_{n} ; n \geq\right. 1\}\) es una secuencia de rv y\(\alpha\) es un número con la propiedad que\(\left.\lim _{n \rightarrow \infty} \mathrm{E}\left[\left(Z_{n}-\alpha\right)^{2}\right]\right\}=0\).
- Que\(\epsilon>0\) sean arbitrarios y demuestren que para cada uno\(n \geq 0\),
\(\operatorname{Pr}\left\{\left|Z_{n}-\alpha\right| \geq \epsilon\right\} \leq \frac{\operatorname{E}\left[\left(Z_{n}-\alpha\right)^{2}\right]}{\epsilon^{2}}\)
- Por lo\(\epsilon\) anterior,\(\delta>0\) seamos arbitrarios. Demostrar que hay un entero\(m\) tal que\(\left.\mathrm{E}\left[\left(Z_{n}-\alpha\right)^{2}\right]\right\} \epsilon^{2} \delta\) para todos\(n \geq m\).
- Demostrar que esto implica convergencia en probabilidad.
- Contestar
Let\(X_{1}, X_{2} \ldots\), ser una secuencia de IID rv cada uno con media 0 y varianza\(\sigma^{2}\). Vamos\(S_{n}=X_{1}+\cdots+X_{n}\) para todos\(n\) y considera la variable aleatoria\(S_{n} / \sigma \sqrt{n}-S_{2 n} / \sigma \sqrt{2 n}\). Encuentre la función de distribución limitante para esta secuencia de\(r v^{\prime} s\) as\(n \rightarrow \infty\). El objetivo de este ejercicio es ver claramente que la función de distribución de\(S_{n} / \sigma \sqrt{n}\) es convergente pero que la secuencia de rv no es convergente.
- Contestar
Un pueblo inicia un programa de control de mosquitos y el rv\(Z_{n}\) es el número de mosquitos al final del año\(n\) th (\(n\)= 0, 1, 2,.). Dejar\(X_{n}\) ser la tasa de crecimiento de los mosquitos en el año\(n\); i.e.,\(Z_{n}=X_{n} Z_{n-1}\);\(n \geq 1\). Supongamos que\(\left\{X_{n} ; n \geq 1\right\}\) es una secuencia de IID rv con el PMF\(\operatorname{Pr}\{X=2\}=1 / 2\);\(\operatorname{Pr}\{X=1 / 2\}=1 / 4\);\( \operatorname{Pr}\{X=1 / 4\}=1 / 4\). Supongamos que\(Z_{0}\), el número inicial de mosquitos, es alguna constante conocida y asumir por simplicidad y consistencia que\(Z_{n}\) puede tomar valores no enteros.
- Encontrar\(\mathrm{E}\left[Z_{n}\right]\) como una función de\(n\) y encontrar\(\lim _{n \rightarrow \infty} \mathrm{E}\left[Z_{n}\right]\).
- Vamos\(W_{n}=\log _{2} X_{n}\). Encontrar\(\mathrm{E}\left[W_{n}\right]\) y\(\mathrm{E}\left[\log _{2}\left(Z_{n} / Z_{0}\right)\right]\) en función de\(n\).
- Hay una constante\(\alpha\) tal que\(\lim _{n \rightarrow \infty}(1 / n)\left[\log _{2}\left(Z_{n} / Z_{0}\right)\right]=\alpha\) con probabilidad 1. Encuentra\(\alpha\) y explica cómo esto se desprende de la fuerte ley de los grandes números.
- Usando (c), mostrar que\(\lim _{n \rightarrow \infty} Z_{n}=\beta\) con probabilidad 1 para algunos\(\beta\) y evaluar\(\beta\).
- Explique cuidadosamente cómo son posibles el resultado en\ ref {a} y el resultado en\ ref {d}. Lo que debes aprender de este problema es que el valor esperado del log de un producto de IID rv podría ser más significativo que el valor esperado del producto en sí.
- Contestar
Utilice la Figura 1.7 para verificar (1.55). Pista:\(y \operatorname{Pr}\{Y \geq y\} \leq \int_{z \geq y} z d \mathrm{~F}_{Y}(z)\) Muéstralo y demuestra que\(\lim _{y \rightarrow \infty} \int_{z \geq y} z d \mathrm{~F}_{Y}(z)=0\) si\(\mathrm{E}[Y]\) es finito.
- Contestar
\(\prod_{m \geq n}(1-1 / m)=0\)Demuéstralo. Pista: Demuéstralo
\(\left(1-\frac{1}{m}\right)^{\}}=\exp \left(\ln \left(1-\frac{1}{m}\right)\right)^{\}} \leq \exp \left(-\frac{1}{m}\right)\)
- Contestar
Considere una rv discreta\(X\) con el PMF
\ (\ begin {alineado}
\ mathrm {p} _ {X} (-1) &=\ izquierda (1-10^ {-10}\ derecha)/2,\\
\ mathrm {p} _ {X} (1) &=\ izquierda (1-10^ {-10}\ derecha)/2,\\
\ mathrm {p} _ _ {X}\ izquierda (10^ {12}\ derecha) &=10^ {-10}.
\ end {alineado}\)
- Encuentra la media y varianza de\(X\). Suponiendo que\(\left\{X_{m} ; m \geq 1\right\}\) es una secuencia IID con la distribución de\(X\) y que\(S_{n}=X_{1}+\cdots+X_{n}\) para cada uno\(n\), encontrar la media y varianza de\(S_{n}\). (no se necesitan explicaciones.)
- Dejemos\(n=10^{6}\) y describa el evento\(\left\{S_{n} \leq 10^{6}\right\}\) con palabras. Encuentra una expresión exacta para\(\operatorname{Pr}\left\{S_{n} \leq 10^{6}=\mathrm{F}_{S_{n}}\left(10^{6}\right)\right.\)
- Encuentra una manera de usar el encuadernado de unión para obtener un simple límite superior y aproximación de\(1-\mathrm{F}_{S_{n}}\left(10^{6}\right)\).
- Esbozar la función de distribución de\(S_{n}\) for\(n=10^{6}\). Puede elegir el eje horizontal para que su boceto vaya desde\(-1\) hacia\(+1\) o desde\(-3 \times 10^{3}\) hacia\(3 \times 10^{3}\) o desde\(-10^{6}\) hasta\(10^{6}\) o desde 0 hasta\(10^{12}\), lo que crea que describa mejor esta función de distribución.
- Ahora vamos\(n=10^{10}\). Dar una expresión exacta para\(\operatorname{Pr}\left\{S_{n} \leq 10^{10}\right.\) y mostrar que esto puede ser aproximado por\(e^{-1}\). Esboce la función de distribución de\(S_{n}\) for\(n=10^{10}\), usando un eje horizontal que va desde ligeramente por debajo de 0 hasta un poco más de\(2 \times 10^{12}\). Pista: Primera vista\(S_{n}\) como condicionada sobre un rv apropiado.
- ¿Se puede hacer una declaración cualitativa sobre cómo la función de distribución de un rv\(X\) afecta el tamaño requerido de\(n\) antes de que el WLLN y el CLT proporcionen gran parte de una indicación sobre\(S_{n}\).
- Contestar