11.6: El simple paseo aleatorio
- Page ID
- 151690
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)El proceso de caminata aleatoria simple es una modificación menor del proceso de ensayos de Bernoulli. Sin embargo, el proceso tiene una serie de propiedades muy interesantes, por lo que merece una sección propia. En algunos aspectos, es un análogo discreto del tiempo del proceso de movimiento browniano.
El Proceso Básico
Supongamos que\(\bs{U} = (U_1, U_2, \ldots)\) es una secuencia de variables aleatorias independientes, cada una tomando valores 1 y\(-1\) con probabilidades\(p \in [0, 1]\) y\(1 - p\) respectivamente. Dejar\(\bs{X} = (X_0, X_1, X_2, \ldots)\) ser el proceso de suma parcial asociado con\(\bs{U}\), de modo que\[ X_n = \sum_{i=1}^n U_i, \quad n \in \N \] La secuencia\(\bs{X}\) es el simple paseo aleatorio con parámetro\(p\).
Imaginamos a una persona o una partícula sobre un eje, de manera que en cada paso de tiempo discreto, el caminante se mueve ya sea una unidad a la derecha (con probabilidad\(p\)) o una unidad a la izquierda (con probabilidad\(1 - p\)), independientemente de paso a paso. El andador podría lograr esto arrojando una moneda con probabilidad de cabezas\(p\) en cada paso, para determinar si se mueve hacia la derecha o hacia la izquierda. Otros tipos de caminatas aleatorias, y propiedades adicionales de esta caminata aleatoria, se estudian en el capítulo sobre Cadenas de Markov.
La media y la desviación estándar, respectivamente, de un paso\(U\) son
- \(\E(U) = 2 p - 1\)
- \(\var(U) = 4 p (1 - p)\)
Dejemos\(I_j = \frac{1}{2}\left(U_j + 1\right)\) para\(j \in \N_+\). Entonces\(\bs{I} = (I_1, I_2, \ldots)\) es una secuencia de ensayos de Bernoulli con parámetro de éxito\(p\).
Prueba
Tenga en cuenta que\(I_j = 1\) si\(U_j = 1\) y\(I_j = 0\) si\(I_j = -1\).
En cuanto al andador aleatorio,\(I_j\) es la variable indicadora para el evento que el paso\(j\) th está a la derecha.
Let\(R_n = \sum_{i=1}^n I_j\) for\(n \in \N\), así que ese\( \bs{R} = (R_0, R_1, \ldots) \) es el proceso de suma parcial asociado con\( \bs{I} \). Entonces
- \(X_n = 2 R_n - n\)para\(n \in \N\).
- \(R_n\)tiene la distribución binomial con parámetro de ensayo\(n\) y parámetro de éxito\(p\).
En cuanto al andador,\(R_n\) es el número de pasos a la derecha en los primeros\(n\) pasos.
\(X_n\)tiene función de densidad de probabilidad\[ \P(X_n = k) = \binom{n}{(n + k) / 2} p^{(n + k)/2} (1 - p)^{(n-k) / 2}, \quad k \in \{-n, -n + 2, \ldots, n - 2, n\}\]
Prueba
Ya que\(R_n\) toma valores en\(\{0, 1, \ldots, n\}\),\(X_n\) toma valores en\(\{-n, -n + 2, \ldots, n-2, n\}\). Porque\(k\) en este conjunto,\(\P(X_n = k)\ = \P\left[R_n = (n + k) / 2\right]\), por lo que el resultado se desprende de la distribución binomial de\(R_n\).
La media y varianza de\(X_n\) son
- \(\E(X_n) = n (2 p - 1)\)
- \(\var(X_n) = 4 n p (1 - p)\)
La simple caminata aleatoria simétrica
Supongamos ahora eso\(p =\frac{1}{2}\). En este caso,\(\bs{X} = (X_0, X_1, \ldots)\) se llama el simple paseo aleatorio simétrico. La caminata aleatoria simétrica se puede analizar usando algunos argumentos combinatorios especiales e inteligentes. Pero primero damos los resultados básicos anteriores para este caso especial.
Para cada uno\(n \in \N_+\), el vector aleatorio\(\bs{U}_n = (U_1, U_2, \ldots, U_n)\) se distribuye uniformemente en\(\{-1, 1\}^n\), y por lo tanto\[ \P(\bs{U}_n \in A) = \frac{\#(A)}{2^n}, \quad A \subseteq S \]
\(X_n\)tiene función de densidad de probabilidad\[ \P(X_n = k) = \binom{n}{(n + k) / 2} \frac{1}{2^n}, \quad k \in \{-n, -n + 2, \ldots, n - 2, n\} \]
La media y varianza de\(X_n\) son
- \(\E(X_n) = 0\)
- \(\var(X_n) = n\)
En la simulación de caminata aleatoria, seleccione la posición final. Varíe el número de pasos y anote la forma y ubicación de la función de densidad de probabilidad y la barra de desviación\(\pm\) estándar media. Para valores seleccionados del parámetro, ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función de densidad de probabilidad verdadera y los momentos.
En la simulación de caminata aleatoria, seleccione la posición final y establezca el número de pasos en 50. Ejecuta la simulación 1000 veces y calcula y compara lo siguiente:
- \(\P(-6 \le X_{50} \le 10)\)
- La frecuencia relativa del evento\(\{-6 \le X_{50} \le 10\}\)
- La aproximación normal a\(\P(-6 \le X_{50} \le 10)\)
Responder
- 0.7794
- 0.7752
La posición máxima
Considera de nuevo el paseo aleatorio simple y simétrico. Dejar\(Y_n = \max\{X_0, X_1, \ldots, X_n\}\), la posición máxima durante los primeros\(n\) pasos. Tenga en cuenta que\(Y_n\) toma valores en el conjunto\(\{0, 1, \ldots, n\}\). La distribución de\(Y_n\) puede derivarse de una idea simple y maravillosa conocida como principio de reflexión.
Para\(n \in \N\) y\(y \in \{0, 1, \ldots, n\}\),\[ \P(Y_n = y) = \begin{cases} \P(X_n = y) = \binom{n}{(y + n) / 2} \frac{1}{2^n}; & y, \, n \text{ have the same parity (both even or both odd)} \\ \P(X_n = y + 1) = \binom{n}{(y + n + 1) / 2} \frac{1}{2^n}; & y, \, n \text{ have opposite parity (one even and one odd)} \end{cases} \]
Prueba
Tenga en cuenta primero que\(Y_n \ge y\) si y solo si\(X_i = y\) para algunos\(i \in \{0, 1, \ldots, n\}\). Supongamos que\(k \le y \le n\). Por cada camino que satisface\(Y_n \ge y\) y\(X_n = k\) hay otro camino que satisface\(X_n = 2 y - k\). El segundo camino se obtiene del primer camino reflejándose en la línea\(x = y\), después de que el primer camino impacta\(y\). Dado que los caminos son igualmente probables,\[ \P(Y_n \ge y, X_n = k) = \P(X_n = 2 y - k), \quad k \le y \le n \] De ahí se deduce que\[ \P(Y_n = y, X_n = k) = \P(X_n = 2 y - k) - \P[X_n = 2 (y + 1) - k], \quad k \le y \le n \]
En la simulación de caminata aleatoria, seleccione la variable de valor máximo. Varíe el número de pasos y anote la forma y ubicación de la función de densidad de probabilidad y la barra de desviación media/estándar. Ahora establezca el número de pasos en 30 y ejecute la simulación 1000 veces. Comparar la función de frecuencia relativa y los momentos empíricos con la función de densidad de probabilidad verdadera y los momentos.
Para cada\(n\), la función de densidad de probabilidad de\(Y_n\) es decreciente.
El último resultado es un poco sorprendente; en particular, el único valor más probable para el máximo (y por lo tanto el modo de la distribución) es 0.
Calcular explícitamente la función de densidad de probabilidad, media y desviación estándar de\(Y_5\).
Responder
- Función de densidad de probabilidad\(f(0) = f(1) = \frac{10}{32}\) de\(Y_5\)\(f(2) = f(3) = \frac{5}{32}\):\(f(4) = f(5) = \frac{1}{32}\)
- \(\E(Y_5) = \frac{11}{8}\)
- \(\var(Y_5) = \frac{111}{64}\)
Una moneda justa es arrojada 10 veces. Encuentra la probabilidad de que la diferencia entre el número de cabezas y el número de colas nunca sea mayor que 4.
Responder
\(\P(Y_{10} \le 4) = \frac{57}{64}\)
La Última Visita a 0
Considera de nuevo el paseo aleatorio simple y simétrico. Nuestro siguiente tema es la última visita a 0 durante los primeros\(2 n\) pasos:\[ Z_{2 n} = \max \left\{ j \in \{0, 2, \ldots, 2 n\}: X_j = 0 \right\}, \quad n \in \N \] Tenga en cuenta que dado que las visitas a 0 solo pueden ocurrir en momentos pares,\(Z_{2 n}\) toma los valores en el conjunto\(\{0, 2, \ldots, 2 n\}\). Esta variable aleatoria tiene una distribución extraña e interesante conocida como la distribución discreta del arcoseno. En el camino hacia nuestra derivación, también descubriremos otros resultados interesantes.
La función de densidad de probabilidad de\(Z_{2 n}\) es\[ \P(Z_{2 n} = 2 k) = \binom{2 k}{k} \binom{2 n - 2 k}{n - k} \frac{1}{2^{2 n}}, \quad k \in \{0, 1, \ldots, n\} \]
Prueba
Obsérvese que\[ \P(Z_{2 n} = 2 k) = \P(X_{2 k} = 0, X_{2 k+1} \ne 0, \ldots, X_{2 n} \ne 0), \quad k \in \{0, 1, \ldots, n\} \] De la independencia y la simetría se deduce que\[ \P(Z_{2 n} = 2 k) = \P(X_{2 k} = 0) \P(X_1 \ne 0, X_2 \ne 0, \ldots, X_{2 n - 2 k} \ne 0), \quad k \in \{0, 1, \ldots, n\} \] Conocemos el primer factor a la derecha de la distribución de\(X_{2 k}\). Así, necesitamos calcular el segundo factor, la probabilidad de que nuestra caminata aleatoria nunca vuelva a 0 durante un intervalo de tiempo. Usando resultados para la posición máxima que tenemos\[ \P(X_1 \le 0, X_2 \le 0, \ldots, X_{2 j} \le 0) = \P(Y_{2 j} = 0) \ \binom{2 j}{j} \frac{1}{2^{2 j}} \] De simetría (que es solo el principio de reflexión en\(y = 0\)), se deduce que\[ \P(X_1 \ge 0, X_2 \ge 0, \ldots, X_{2 n} \ge 0) = \binom{2 n}{n} \frac{1}{2^{2 n}} \] Siguiente,\(\{X_1 \gt 0, X_2 \gt 0, \ldots, X_{2 j} \gt 0\} = \{X_1 = 1, X_2 \ge 1, \ldots, X_{2 j} \ge 1\}\). Desde la independencia y la simetría,\[ \P(X_1 \gt 0, X_2 \gt 0, \ldots, X_{2 j} \gt 0\} = \P(X_1 = 0) \P(X_1 \ge 0, X_2 \ge 0, \ldots, X_{2 j - 1} \ge 0) \] Pero\(X_{2 j - 1} \ge 0\) implica\(X_{2 j} \ge 0\). De ahí\[ \P(X_1 \gt 0, X_2 \gt 0, \ldots, X_{2 j} \gt 0) = \binom{2 j}{j} \frac{1}{2^{2 j + 1}} \] la simetría,\[ \P(X_1 \ne 0, X_2 \ne 0, \ldots, X_{2 j} \ne 0) = \binom{2 j}{j} \frac{1}{2^{2 j}} \]
En la simulación de caminata aleatoria, elija la última visita a 0 y luego varíe el número de pasos con la barra de desplazamiento. Observe la forma y ubicación de la función de densidad de probabilidad y la barra de media/desviación estándar. Para varios valores del parámetro, ejecute la simulación 1000 veces y compare la función de densidad empírica y los momentos con la función de densidad de probabilidad verdadera y los momentos.
La función de densidad de probabilidad de\(Z_{2 n}\) es simétrica\(n\) y tiene\(u\) forma:
- \(\P(Z_{2 n} = 2 k) = \P(Z_{2 n} = 2 n - 2 k)\)
- \(\P(Z_{2 n} = 2 j) \gt \P(Z_{2 n} = 2 k)\)si y solo si\(j \lt k\) y\(2 k \le n\)
En particular, 0 y\(2 n\) son los valores más probables y por lo tanto son los modos de la distribución. La distribución discreta del arcoseno es bastante sorprendente. Ya que estamos arrojando una moneda justa para determinar los pasos del andador, podrías pensar fácilmente que la caminata aleatoria debería ser positiva la mitad del tiempo y la mitad negativa del tiempo, y que debería volver a 0 frecuentemente. Pero de hecho, la ley del arcoseno implica que con probabilidad\(\frac{1}{2}\), no habrá retorno a 0 durante la segunda mitad de la caminata, de vez\(n + 1\) en cuando\(2 n\), independientemente de\(n\), y no es raro que la caminata se mantenga positiva (o negativa) durante todo el tiempo desde 1 a\(2 n\).
Calcular explícitamente la función de densidad de probabilidad, media y varianza de\(Z_{10}\).
Responder
- Función de densidad de probabilidad\(f(0) = f(10) = \frac{63}{256}\) de\(Z_{10}\)\(f(2) = f(8) = \frac{35}{256}\):\(f(4) = f(6) = \frac{30}{256}\)
- \(\E(Z_{10}) = 5\)
- \(\var(Z_{10}) = 15\)
El problema de la boleta y el primer regreso a cero
El problema de la boleta
Supongamos que en una elección, candidato\(A\) recibe\(a\) votos y candidato\(B\) recibe\(b\) votos donde\(a \gt b\). Asumiendo un ordenamiento aleatorio de los votos, ¿cuál es la probabilidad de que siempre\(A\) esté por delante\(B\) en el recuento de votos? Se trata de un problema históricamente famoso conocido como el Problema de la Boleta, que fue resuelto por Joseph Louis Bertrand en 1887. El problema de la boleta está íntimamente relacionado con simples caminatas aleatorias.
Comentar sobre la validez del supuesto de que los electores son ordenados al azar para una elección real.
El problema de la boleta puede resolverse utilizando un simple argumento de probabilidad condicional para obtener una relación de recurrencia. Vamos a\(f(a, b)\) denotar la probabilidad que siempre\(A\) se adelanta\(B\) en el recuento de votos.
\(f\)satisface la condición inicial\(f(1, 0) = 1\) y la siguiente relación de recurrencia:\[ f(a, b) = \frac{a}{a + b} f(a - 1,b) + \frac{b}{a + b} f(a, b - 1) \]
Prueba
Esto sigue condicionando al candidato que recibe la última votación.
La probabilidad de que siempre\(A\) esté por delante en el recuento de votos es\[ f(a, b) = \frac{a - b}{a + b} \]
Prueba
Esto se desprende de la relación de recurrencia e inducción sobre el número total de votos\(n = a + b\)
En el experimento de boleta, variar los parámetros\(a\)\(b\) y anotar el cambio la probabilidad de boleta. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la frecuencia relativa con la probabilidad verdadera.
En una elección a la alcaldía de un pueblo pequeño, el señor Smith recibió 4352 votos mientras que la señora Jones recibió 7543 votos. Calcular la probabilidad de que Jones siempre estuviera por delante de Smith en el conteo de votos.
Responder
\(\frac{3191}{11895} \approx 0.2683\)
Relación con Caminatas Aleatorias
Considera de nuevo el simple paseo aleatorio\(\bs{X}\) con parámetro\(p\).
Dado\(X_n = k\),
- Hay\(\frac{n + k}{2}\) escalones a la derecha y\(\frac{n - k}{2}\) escalones a la izquierda.
- Todos los ordenamientos posibles de los escalones a la derecha y los pasos a la izquierda son igualmente probables.
Para\(k \gt 0\),\[ \P(X_1 \gt 0, X_2 \gt 0, \ldots, X_{n - 1} \gt 0 \mid X_n = k) = \frac{k}{n} \]
Prueba
Esto se desprende del resultado anterior y de la probabilidad de boleta.
En el experimento de boleta, variar los parámetros\(a\)\(b\) y anotar el cambio la probabilidad de boleta. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la frecuencia relativa con la probabilidad verdadera.
Una rueda de ruleta americana tiene 38 ranuras; 18 son rojas, 18 son negras y 2 son verdes. Fred apostó $1 al rojo, en apuestas pares, 50 veces, ganando 22 veces y perdiendo 28 veces. Encuentra la probabilidad de que la fortuna neta de Fred siempre fuera negativa.
Responder
\(\frac{3}{25}\)
La ruleta se estudia con más detalle en el capítulo de Juegos de azar.
La distribución del primer cero
Consideremos nuevamente el simple paseo aleatorio con parámetro\(p\), como en la última subsección. Dejar\(T\) denotar el tiempo del primer retorno a 0:\[ T = \min\{n \in \N_+: X_n = 0\} \] Tenga en cuenta que los retornos a 0 solo pueden ocurrir en momentos pares; también puede ser posible que la caminata aleatoria nunca vuelva a 0. Así,\(T\) toma valores en el conjunto\(\{2, 4, \ldots\} \cup \{\infty\}\).
La función de densidad de probabilidad\(T_{2 n}\) viene dada por\[ \P(T = 2 n) = \binom{2 n}{n} \frac{1}{2 n - 1} p^n (1 - p)^n, \quad n \in \N_+ \]
Prueba
Para\(n \in \N_+\)\[ \P(T = 2 n) = \P(T = 2 n, X_{2 n} = 0) = \P(T = 2 n \mid X_{2 n} = 0 ) \P(X_{2 n} = 0) \] Del problema de la boleta,\[ \P(T = 2 n \mid X_{2 n} = 0) = \frac{1}{2 n - 1} \]
Fred y Wilma están arrojando una moneda justa; Fred obtiene un punto por cada cabeza y Wilma obtiene un punto por cada cola. Encuentra la probabilidad de que sus puntuaciones sean iguales por primera vez después de\(n\) los lanzamientos, para cada uno\(n \in \{2, 4, 6, 8, 10\}\).
Responder
\(f(2) = \frac{1}{2}\),\(f(4) = \frac{1}{8}\)\(f(6) = \frac{1}{16}\),\(f(8) = \frac{5}{128}\),\(f(10) = \frac{7}{512}\)