Saltar al contenido principal
Library homepage
 
LibreTexts Español

11.4: La distribución binomial negativa

  • Page ID
    151675
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\newcommand{\P}{\mathbb{P}}\)\(\newcommand{\E}{\mathbb{E}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\bs}{\boldsymbol}\)\(\newcommand{\var}{\text{var}}\)\(\newcommand{\skw}{\text{skew}}\)\(\newcommand{\kur}{\text{kurt}}\)\(\newcommand{\sd}{\text{sd}}\)

    Teoría Básica

    Supongamos nuevamente que nuestro experimento aleatorio consiste en realizar una secuencia de ensayos de Bernoulli\(\bs{X} = (X_1, X_2, \ldots)\) con parámetro de éxito\(p \in (0, 1]\). Recordemos que el número de éxitos en los primeros\(n\) ensayos\[ Y_n = \sum_{i=1}^n X_i \] tiene la distribución binomial con parámetros\(n\) y\(p\). En esta sección estudiaremos la variable aleatoria que da el número de prueba del éxito\(k\) th:\[ V_k = \min\left\{n \in \N_+: Y_n = k\right\} \] Tenga en cuenta que\(V_1\) es el número de ensayos necesarios para obtener el primer éxito, que ahora sabemos tiene la distribución geométrica on\(\N_+\) con parámetro\(p\).

    La función de densidad de probabilidad

    La distribución de probabilidad de\(V_k\) viene dada por\[ \P(V_k = n) = \binom{n - 1}{k - 1} p^k (1 - p)^{n - k}, \quad n \in \{k, k + 1, k + 2, \ldots\}\]

    Prueba

    Tenga en cuenta que\(V_k = n\) si y solo si\(X_n = 1\) y\(Y_{n-1} = k - 1\). De ahí que, desde la independencia y la distribución binomial,\[ \P(V_k = n) = \P(Y_{n-1} = k - 1) \P(X_n = 1) = \binom{n - 1}{k - 1} p^{k - 1}(1 - p)^{(n - 1) - (k - 1)} \, p = \binom{n - 1}{k - 1} p^k (1 - p)^{n - k} \]

    La distribución definida por la función de densidad en (1) se conoce como la distribución binomial negativa; tiene dos parámetros, el parámetro de detención\(k\) y la probabilidad de éxito\(p\).

    En el experimento binomial negativo, variar\(k\) y\(p\) con las barras de desplazamiento y anotar la forma de la función de densidad. Para valores seleccionados de\(k\) y\(p\), ejecute el experimento 1000 veces y compare la función de frecuencia relativa con la función de densidad de probabilidad.

    Las secuencias binomiales y binomiales negativas son inversas entre sí en cierto sentido.

    Para\( n \in \N_+ \) y\( k \in \{0, 1, \ldots, n\} \),

    1. \( Y_n \ge k \iff V_k \le n \)y por lo tanto\( \P(Y_n \ge k) = \P(V_k \le n) \)
    2. \(k \P\left(Y_n = k\right) = n \P\left(V_k = n\right)\)
    Prueba
    1. Los acontecimientos\( \left\{Y_n \ge k\right\} \) y\( \left\{V_k \le n\right\} \) ambos significan que hay al menos\( k \) éxitos en los primeros ensayos de\( n \) Bernoulli.
    2. Desde las fórmulas para los PDF binomiales y binomiales negativos,\( k \P(Y_n = k) \) y\( n \P(V_k = n) \) ambas simplifican a\( \frac{n!}{(k - 1)! (n - k)!} p^k (1 - p)^{n - k} \).

    En particular, de la parte (a) se deduce que cualquier evento que pueda expresarse en términos de las variables binomiales negativas también se puede expresar en términos de las variables binomiales.

    La distribución binomial negativa es unimodal. Vamos\(t = 1 + \frac{k - 1}{p}\). Entonces

    1. \(\P(V_k = n) \gt \P(V_k = n - 1)\)si y sólo si\(n \lt t\).
    2. La función de densidad de probabilidad al principio aumenta y luego disminuye, alcanzando su valor máximo en\(\lfloor t \rfloor\).
    3. Hay un modo único en\( \lfloor t \rfloor\) si no\(t\) es un número entero, y dos modos consecutivos en\(t - 1\) y\(t\) si\(t\) es un número entero.

    Tiempos entre Éxitos

    A continuación definiremos las variables aleatorias que dan el número de pruebas entre éxitos sucesivos. Let\(U_1 = V_1\) y\(U_k = V_k - V_{k-1}\) para\(k \in \{2, 3, \ldots\}\)

    \(\bs{U} = (U_1, U_2, \ldots)\)es una secuencia de variables aleatorias independientes, cada una de las cuales tiene la distribución geométrica\(\N_+\) con parámetro\(p\). Además,\[ V_k = \sum_{i=1}^k U_i \]

    En términos estadísticos,\(\bs{U}\) corresponde al muestreo de la distribución geométrica con parámetro\(p\), de manera que para cada uno\(k\),\((U_1, U_2, \ldots, U_k)\) es una muestra aleatoria de tamaño\(k\) a partir de esta distribución. La media muestral correspondiente a esta muestra es\(V_k / k\); esta variable aleatoria da el promedio de ensayos entre los primeros\(k\) éxitos. En términos de probabilidad, la secuencia de variables binomiales negativas\(\bs{V}\) es el proceso de suma parcial correspondiente a la secuencia\(\bs{U}\). Los procesos de suma parcial se estudian en mayor generalidad en el capítulo sobre Muestras Aleatorias.

    El proceso aleatorio\(\bs{V} = (V_1, V_2, \ldots)\) tiene incrementos estacionarios e independientes:

    1. Si\(j \lt k\) entonces\(V_k - V_j\) tiene la misma distribución que\(V_{k - j}\), a saber binomio negativo con parámetros\(k - j\) y\(p\).
    2. Si\(k_1 \lt k_2 \lt k_3 \lt \cdots\) entonces\((V_{k_1}, V_{k_2} - V_{k_1}, V_{k_3} - V_{k_2}, \ldots)\) es una secuencia de variables aleatorias independientes.

    En realidad, cualquier proceso de suma parcial correspondiente a una secuencia independiente, idénticamente distribuida, tendrá incrementos estacionarios e independientes.

    Propiedades Básicas

    La función de generación de media, varianza y probabilidad de\(V_k\) puede calcularse de varias maneras. El método que utiliza la representación como una suma de variables distribuidas geométricamente independientes, distribuidas idénticamente, es el más sencillo.

    \(V_k\)tiene la función de generación de probabilidad\(P\) dada por\[ P(t) = \left( \frac{p \, t}{1 - (1 - p) t} \right)^k, \quad \left|t\right| \lt \frac{1}{1 - p} \]

    Prueba

    Recordemos que la función generadora de probabilidad de una suma de variables independientes es el producto de las funciones generadoras de probabilidad de las variables. Recordemos también, la función de generación de probabilidad de la distribución geométrica con parámetro\(p\) es\(t \mapsto p \, t \big/ \left[1 - (1 - p) t\right]\). Así, el resultado se desprende inmediatamente de la representación de suma anterior. También se puede dar una derivación directamente de la función de densidad de probabilidad.

    La media y varianza\( V_k \) de

    1. \(\E(V_k) = k \frac{1}{p}\).
    2. \(\var(V_k) = k \frac{1 - p}{p^2}\)
    Prueba

    La distribución geométrica con parámetro\(p\) tiene media\(1 / p\) y varianza\((1 - p) \big/ p^2\), por lo que los resultados siguen inmediatamente de la representación de suma anterior. Recordemos que la media de una suma es la suma de las medias, y la varianza de la suma de variables independientes es la suma de las varianzas. Estos resultados también pueden probarse directamente a partir de la función de densidad de probabilidad o de la función generadora de probabilidad.

    En el experimento binomial negativo, variar\(k\) y\(p\) con las barras de desplazamiento y anotar la ubicación y tamaño de la barra de media/desviación estándar. Para valores seleccionados de los parámetros, ejecute el experimento 1000 veces y compare la media de la muestra y la desviación estándar con la media de distribución y la desviación estándar.

    Supongamos que\(V\) y\(W\) son variables aleatorias independientes para un experimento, y que\(V\) tiene la distribución binomial negativa con parámetros\(j\) y\(p\), y\(W\) tiene la distribución binomial negativa con parámetros\(k\) y\(p\). Después\(V + W\) tiene la distribución binomial negativa con parámetros\(k + j\) y\(p\).

    Prueba

    Una vez más, la prueba más simple se basa en la representación como una suma de variables geométricas independientes. En el contexto de la representación de suma anterior, podemos tomar\(V = V_j\) y\(W = V_{k+j} - V_j\), para eso\(V + W = V_{k + j}\). Otra prueba simple utiliza funciones de generación de probabilidad. Recordemos nuevamente que el PGF de la suma de variables independientes es producto de las PGF. Finalmente, se puede construir una prueba difícil usando funciones de densidad de probabilidad. Recordemos que el PDF de una suma de variables independientes es la convolución de los PDF.

    Aproximación normal

    En el experimento binomial negativo, comenzar con diversos valores de\(p\) y\(k = 1\). Sucesivamente aumentar\(k\) en 1, observando la forma de la función de densidad de probabilidad cada vez.

    A pesar de que estás limitado a\(k = 5\) en la aplicación, aún puedes ver la característica forma de campana. Esto es consecuencia del teorema del límite central porque la variable binomial negativa puede escribirse como una suma de variables aleatorias\(k\) independientes, distribuidas idénticamente (geométricas).

    El puntaje estándar de\(V_k\) es\[ Z_k = \frac{p \, V_k - k}{\sqrt{k (1 - p)}} \] La distribución de\(Z_k\) converge a la distribución normal estándar como\(k \to \infty\).

    Desde un punto de vista práctico, este resultado significa que si\(k\) es grande, la distribución de\(V_k\) es aproximadamente normal con media\(k \frac{1}{p}\) y varianza\(k \frac{1 - p}{p^2}\). De qué tan grande\(k\) debe ser para que la aproximación funcione bien depende\(p\). Además, al usar la aproximación normal, debemos recordar usar la corrección de continuidad, ya que el binomio negativo es una distribución discreta.

    Estadísticas de Relación con el Orden

    Supongamos que\(n \in \N_+\) y\(k \in \{1, 2, \ldots, n\}\), y vamos\(L = \left\{ (n_1, n_2, \ldots, n_k) \in \{1, 2, \ldots, n\}^k: n_1 \lt n_2 \lt \cdots \lt n_k \right\}\). Entonces\[ \P\left(V_1 = n_1, V_2 = n_2, \ldots, V_k = n_k \mid Y_n = k\right) = \frac{1}{\binom{n}{k}}, \quad (n_1, n_2, \ldots, n_k) \in L \]

    Prueba

    \[ \P\left(V_1 = n_1, V_2 = n_2, \ldots, V_k = n_k \mid Y_n = k\right) = \frac{\P\left(V_1 = n_1, V_2 = n_2, \ldots, V_k = n_k, Y_n = k\right)}{\P(Y_n = k)} = \frac{p^k (1 - p)^{n - k}}{\binom{n}{k} p^k (1 - p)^{n - k}} = \frac{1}{\binom{n}{k}}\]Obsérvese que el suceso en el numerador de la primera fracción significa que en los primeros\( n \) ensayos, los éxitos ocurrieron en los ensayos\( n_1, n_2, \ldots, n_k \) y los fracasos ocurrieron en todos los demás ensayos.

    Así, dados exactamente\(k\) los éxitos en los primeros\(n\) ensayos, el vector de números de ensayos de éxito se distribuye uniformemente en el conjunto de posibilidades\(L\), independientemente del valor del parámetro de éxito\( p \). Equivalentemente, el vector de números de prueba de éxito se distribuye como el vector de estadísticas de orden correspondiente a una muestra de tamaño\(k\) elegida al azar y sin reemplazo de\(\{1, 2, \ldots, n\}\).

    Supongamos que\(n \in \N_+\)\(k \in \{1, 2, \ldots, n\}\),, y\(j \in \{1, 2, \ldots, k\}\). Entonces\[ \P\left(V_j = m \mid Y_n = k\right) = \frac{\binom{m - 1}{j - 1} \binom{n - m}{k - j}}{\binom{n}{k}}, \quad m \in \{j, j + 1, \ldots, n + k - j\} \]

    Prueba

    Esto se desprende inmediatamente del resultado anterior y de un teorema en el apartado de estadísticas de orden. Sin embargo, una prueba directa también es fácil. Destacar que el evento\( \{V_j = m, Y_n = k\} \) significa que hubo\( j - 1 \) éxitos en los primeros\( m - 1 \) ensayos, un éxito en juicio\( m \) y\( k - j \) éxito en ensayos\( m + 1 \) a\( n \). Por lo tanto, usando la distribución binomial y la independencia,\ begin {align}\ P\ left (V_j = m\ mid y_N = k\ right) & =\ frac {\ P (V_j = m, Y_n = k)} {\ P (Y_n = k)} =\ frac {\ binom {m - 1} {j - 1} p^ {j - 1} (1 - p) ^ {(m - 1) - (j - 1)} p\ binom {n - m} {k - j} p^ {k - j} (1 - p) ^ {(n - m) - (k - j)}} {\ binom {n} {k} p^k (1 - p) ^ {n - k} }\\ & =\ frac {\ binom {m - 1} {j - 1}\ binom {n - m} {k - j} p^k (1 - p) ^ {n - k}} {\ binom {n} {k} p^k (1 - p) ^ {n - k}} =\ frac {\ binom {m - 1} {j - 1}\ binom {n - m} {k - j}} {\ binom {n} {k}},\ end {align}

    Así, dados exactamente\(k\) los éxitos en los primeros\(n\) ensayos, el número de ensayos del éxito\(j\) th tiene la misma distribución que el estadístico de orden\(j\) th cuando\(k\) se selecciona una muestra de tamaño al azar y sin reemplazo de la población\(\{1, 2, \ldots, n\}\). Nuevamente, este resultado no depende del valor del parámetro de éxito\( p \). El siguiente teorema da la media y varianza de la distribución condicional.

    Supongamos de nuevo eso\(n \in \N_+\)\(k \in \{1, 2, \ldots, n\}\),, y\(j \in \{1, 2, \ldots, k\}\). Entonces

    1. \( \E\left(V_j \mid Y_n = k\right) = j \frac{n + 1}{k + 1} \)
    2. \( \var\left(V_j \mid Y_n = k\right) = j (k - j + 1) \frac{(n + 1)(n - k)}{(k + 1)^2 (k + 2)}\)
    Prueba

    Estos resultados de momento siguen inmediatamente del teorema anterior y de un teorema en la sección de estadísticas de orden. Sin embargo, también hay un buen argumento heurístico para (a) usando variables indicadoras. Dado\( Y_n = k \), los\( k \) éxitos dividen el conjunto de índices donde ocurren las fallas en\( k + 1 \) conjuntos disjuntos (algunos pueden estar vacíos, por supuesto, si hay éxitos adyacentes).

    Los puntos rojos son éxitos y los puntos verdes fracasos. Los 8 éxitos en los 50 ensayos dividen el conjunto de fallas en 9 conjuntos disjuntos.
    Timeline.png

    Vamos\( I_i \) a tomar el valor 1 si la falla\( i \) th ocurre antes del éxito\( j \) th, y 0 en caso contrario, para\( i \in \{1, 2, \ldots, n - k\} \). Entonces\[ V_j = j + \sum_{i=1}^{n - k} I_i \] dado\( Y_n = k \),\( Y_n = k \) Given, sabemos que los\( k \) éxitos y\( n - k \) fracasos se colocan aleatoriamente en\( \{1, 2, \ldots, n\} \), teniendo cada configuración posible la misma probabilidad. Por lo tanto, de\[ \E(I_i \mid Y_n = k) = \P(I_i = 1 \mid Y_n = k) = \frac{j}{k + 1}, \quad i \in \{1, 2, \ldots n - k\} \] ahí\[ \E(V_j \mid Y_n = k) = j + (n - k) \frac{j}{k + 1} = j \frac{n + 1}{k + 1} \]

    Ejemplos y Aplicaciones

    Monedas, dados y otros artilugios

    Se lanza un dado estándar y justo hasta que ocurren 3 ases. Vamos a\(V\) denotar el número de lanzamientos. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(V\).
    2. La media de\(V\).
    3. La varianza de\(V\).
    4. La probabilidad de que al menos 20 lanzamientos sean necesarios.
    Contestar
    1. \(\P(V = n) = \binom{n - 1}{2} \left(\frac{1}{6}\right)^3 \left(\frac{5}{6}\right)^{n-3}, \quad n \in \{3, 4, \ldots\}\)
    2. \(\E(V) = 18\)
    3. \(\var(V) = 90\)
    4. \(\P(V \ge 20) = 0.3643\)

    Una moneda es arrojada repetidamente. La décima cabeza ocurre en el lanzamiento 25. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad del número de prueba de la quinta cabeza.
    2. La media de la distribución en (a).
    3. La varianza de la distribución en (a).
    Contestar
    1. \(\P(V_5 = m \mid V_{10} = 25) = \frac{\binom{m - 1}{4} \binom{24 - m}{4}}{\binom{24}{9}}, \quad m \in \{5, 6, \ldots, 2\}\)
    2. \(\E(V_5 \mid V_{10} = 25) = \frac{25}{2}\)
    3. \(\var(V_5 \mid V_{10} = 25) = \frac{375}{44}\)

    Un cierto tipo de misil tiene probabilidad de falla 0.02. Vamos a\(N\) denotar el número de lanzamiento de la cuarta falla. Encuentra cada uno de los siguientes:

    1. La función de densidad de probabilidad de\(N\).
    2. La media de\(N\).
    3. La varianza de\(N\).
    4. La probabilidad de que haya al menos 4 fallas en los primeros 200 lanzamientos.
    Contestar
    1. \(\P(N = n) = \frac{n - 1}{2} \left(\frac{1}{50}\right)^4 \left(\frac{49}{50}\right)^{n-4}, \quad n \in \{4, 5, \ldots\}\)
    2. \(\E(N) = 200\)
    3. \(\var(N) = 9800\)
    4. \(\P(N \le 200) = 0.5685\)

    En el experimento binomial negativo, conjunto\(p = 0.5\) y\(k = 5\). Ejecuta el experimento 1000 veces. Calcular y comparar cada uno de los siguientes:

    1. \(\P(8 \le V_5 \le 15)\)
    2. La frecuencia relativa del evento\(\{8 \le V_5 \le 15\}\) en la simulación
    3. La aproximación normal a\(\P(8 \le V_5 \le 15)\)
    Contestar
    1. \(\P(8 \le V_5 \le 15) = 0.7142\)
    2. \(\P(8 \le V_5 \le 15) \approx 0.7445\)

    Se lanza una moneda hasta que se produce la cabeza 50.

    1. Asumiendo que la moneda es justa, encuentra la aproximación normal de la probabilidad de que la moneda sea arrojada al menos 125 veces.
    2. Supongamos que realiza este experimento, y se requieren 125 lanzamientos. ¿Crees que la moneda es justa?
    Contestar
    1. 0.0072
    2. No.

    El problema del partido de Banach

    Supongamos que un profesor distracción (¿hay algún otro tipo?) tiene\(m\) cerillas en el bolsillo derecho y\(m\) fósforos en el bolsillo izquierdo. Cuando necesita una cerilla para encender su pipa, es igualmente probable que elija una cerilla de cualquiera de los bolsillos. Queremos calcular la función de densidad de probabilidad de la variable aleatoria\(W\) que da el número de coincidencias restantes cuando el profesor descubre por primera vez que uno de los bolsillos está vacío. Esto se conoce como el problema del partido de Banach, llamado así por el matemático Stefan Banach, quien evidentemente se comportó de la manera descrita.

    Podemos reformular el problema en términos de la distribución binomial negativa. Claramente, las elecciones de coincidencia forman una secuencia de ensayos de Bernoulli con parámetro\(p = \frac{1}{2}\). Específicamente, podemos considerar un partido del bolsillo derecho como una victoria para el jugador\(R\), y un partido del bolsillo izquierdo como una victoria para el jugador\(L\). En una hipotética secuencia infinita de juicios, vamos a\(U\) denotar el número de juicios necesarios\(R\) para ganar\(m + 1\) juicios, y\(V\) el número de juicios necesarios\(L\) para ganar\(m + 1\) juicios. Tenga en cuenta que\(U\) y\(V\) cada uno tiene la distribución binomial negativa con parámetros\(m + 1\) y\(p\).

    Para\(k \in \{0, 1, \ldots, m\}\),

    1. \(L\)tiene\(m - k\) victorias en el momento en que\(R\) gana\(m + 1\) juegos si y solo si\(U = 2 m - k + 1\).
    2. \(\{U = 2 m - k + 1\}\)equivale al hecho de que el profesor descubre por primera vez que el bolsillo derecho está vacío y que el bolsillo izquierdo tiene\(k\) cerillas
    3. \(\P(U = 2 m - k + 1) = \binom{2 m - k}{m} \left(\frac{1}{2}\right)^{2 m - k + 1}\)

    Para\(k \in \{0, 1, \ldots, m\}\),

    1. \(R\)tiene\(m - k\) victorias en el momento en que\(L\) gana\(m + 1\) juegos si y solo si\(V = 2 m - k + 1\).
    2. \(\{V = 2 m - k + 1\}\)equivale al hecho de que el profesor descubre por primera vez que el bolsillo derecho está vacío y que el bolsillo izquierdo tiene\(k\) cerillas
    3. \(\P(V = 2 m - k + 1) = \binom{2 \, m - k}{m} \left(\frac{1}{2}\right)^{2 m - k + 1}\).

    \(W\)tiene función de densidad de probabilidad\[ \P(W = k) = \binom{2 m - k}{m} \left(\frac{1}{2}\right)^{2 m - k}, \quad k \in \{0, 1, \ldots, m\} \]

    Prueba

    Este resultado se desprende de los dos ejercicios anteriores, ya que\(\P(W = k) = \P(U = 2 m - k + 1) + \P(V = 2 m - k + 1)\).

    También podemos resolver el problema de coincidencia de Banach no simétrico, usando los mismos métodos que los anteriores. Así, supongamos que el profesor alcance un partido en su bolsillo derecho con probabilidad\(p\) y en su bolsillo izquierdo con probabilidad\(1 - p\), donde\(0 \lt p \lt 1\). El cambio esencial en el análisis es que\(U\) tiene la distribución binomial negativa con parámetros\(m + 1\) y\(p\), mientras que\(V\) tiene la distribución binomial negativa con parámetros\(m + 1\) y\(1 - p\).

    Para el problema de coincidencia de Banach con parámetro\(p\),\(W\) tiene función de densidad de probabilidad\[ \P(W = k) = \binom{2 m - k}{m} \left[ p^{m+1} (1 - p)^{m-k} + (1 - p)^{m+1} p^{m-k} \right], \quad k \in \{0, 1, \ldots, m\} \]

    El problema de los puntos

    Supongamos que dos equipos (o individuos)\(A\) y\(B\) jueguen una secuencia de pruebas de Bernoulli (que también llamaremos puntos), donde\(p \in (0, 1)\) está la probabilidad de que el jugador\(A\) gane un punto. Para enteros no negativos\(n\) y\(m\), vamos a\(A_{n,m}(p)\) denotar la probabilidad de que\(A\) gane\(n\) puntos antes que\(B\) gane\(m\) puntos. \(A_{n,m}(p)\)La computación es un problema históricamente famoso, conocido como el problema de los puntos, que fue resuelto por Pierre de Fermat y por Blaise Pascal.

    Comentar sobre la validez de los supuestos de prueba de Bernoulli (independencia de ensayos y probabilidad constante de éxito) para juegos de deporte que tienen un componente de habilidad así como un componente aleatorio.

    Existe una solución fácil al problema de los puntos usando la distribución binomial; esta fue esencialmente la solución de Pascal. También hay una solución fácil al problema de los puntos utilizando la distribución binomial negativa En cierto sentido, este tiene que ser el caso, dada la equivalencia entre los procesos binomiales y binomiales negativos en (3). Primero, pretendamos que los juicios duran para siempre, independientemente de los resultados. Vamos a\(Y_{n+m-1}\) denotar el número de victorias por jugador\(A\) en los primeros\( n + m - 1 \) puntos, y vamos a\(V_n\) denotar el número de pruebas necesarias\(A\) para ganar\(n\) puntos. Por definición,\( Y_{n+m-1} \) tiene la distribución binomial con parámetros\(n + m - 1\) y\(p\), y\( V_n \) tiene la distribución binomial negativa con parámetros\( n \) y\( p \).

    El jugador\(A\) gana\(n\) puntos antes\(B\) gana\(m\) puntos si y solo si y solo\(Y_{n + m - 1} \ge n\) si y solo si\(V_n \le m + n - 1\). De ahí\[ A_{n,m}(p) = \sum_{k=n}^{n + m - 1} \binom{n + m - 1}{k} p^k (1 - p)^{n + m - 1 - k} = \sum_{j=n}^{n+m-1} \binom{j - 1}{n - 1} p^n (1 - p)^{j - n} \]

    \(A_{n,m}(p)\)satisface las siguientes propiedades:

    1. \(A_{n,m}(p)\)aumenta de 0 a 1 a medida que\(p\) aumenta de 0 a 1 para fijos\(n\) y\(m\).
    2. \(A_{n,m}(p)\)disminuye a medida que\(n\) aumenta para fijos\(m\) y\(p\).
    3. \(A_{n,m}(p)\)aumenta como\(m\) aumentos para fijos\(n\) y\(p\).

    \(1 - A_{n,m}(p) = A_{m,n}(1 - p)\)para cualquier\(m, \; n \in \N_+\) y\(p \in (0, 1)\).

    Prueba

    Una simple prueba probabilística es señalar que ambos lados pueden interpretarse como la probabilidad de que un jugador con probabilidad de\(m\) puntos\(1 - p\) gane puntos antes de que el oponente gane\(n\) puntos. También se puede construir una prueba analítica usando las fórmulas anteriores para\( A_{n,m}(p) \)

    En el problema de los experimentos puntuales, variar los parámetros\(n\)\(m\),\(p\), y anotar cómo cambia la probabilidad. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y anote la convergencia aparente de la frecuencia relativa a la probabilidad.

    La función de probabilidad de victoria para el jugador\(A\) satisface las siguientes condiciones de relación de recurrencia y límite (esta fue esencialmente la solución de Fermat):

    1. \(A_{m,n}(p) = p \, A_{n-1,m}(p) + (1 - p) \, A_{n,m-1}(p), \quad n, \; m \in \N_+\)
    2. \(A_{n,0}(p) = 0\),\(A_{0,m}(p) = 1\)
    Prueba

    Condición sobre el resultado del primer juicio.

    A continuación vamos a\(N_{n,m}\) denotar el número de pruebas necesarias hasta que\(A\) gane\(n\) puntos o\(B\) gane\(m\) puntos, lo que ocurra primero: la duración del experimento del problema de puntos. El siguiente resultado da la distribución de\( N_{n,m} \)

    Para\(k \in \left\{\min\{m, n\}, \ldots, n + m - 1\right\}\)\[ \P\left(N_{n,m} = k\right) = \binom{k - 1}{n - 1} p^n (1 - p)^{k - n} + \binom{k - 1}{m - 1} (1 - p)^m p^{k - m} \]

    Prueba

    De nuevo, imagina que continuamos los juicios indefinidamente. Vamos a\(V_n\) denotar el número de pruebas necesarias\(A\) para ganar\(n\) puntos, y dejar\(W\) denotar el número de pruebas necesarias\(B\) para ganar\(m\) puntos. Entonces\(\P\left(N_{n,m} = k\right) = \P(V_n = k) + \P(W_m = k)\) para\( k \) en el rango indicado.

    Serie de juegos

    El caso especial del problema de los puntos experimentar con\(m = n\) es importante, porque corresponde\(A\) y\(B\) jugando una serie de lo mejor de\(2 n - 1\) juego. Es decir, el primer jugador en ganar\(n\) juegos gana la serie. Dichas series, especialmente cuando\(n \in \{2, 3, 4\}\), se utilizan con frecuencia en los torneos de campeonato.

    Vamos a\(A_n(p)\) denotar la probabilidad de que el jugador\(A\) gane la serie. Entonces\[ A_n(p) = \sum_{k=n}^{2 n - 1} \binom{2 n - 1}{k} p^k (1 - p)^{2 n - 1 - k} = \sum_{j=n}^{2 n - 1} \binom{j - 1}{n - 1} p^n (1 - p)^{j - n} \]

    Prueba

    Esto se desprende directamente del problema de probabilidad de puntos arriba, ya que\(A_n(p) = A_{n,n}(p)\).

    Supongamos que\(p = 0.6\). Encuentra explícitamente la probabilidad de que el equipo\(A\) gane en cada uno de los siguientes casos:

    1. Un mejor de 5 series de juegos.
    2. Un mejor de 7 series de juegos.
    Contestar
    1. 0.6825.
    2. 0.7102

    En el problema de los experimentos puntuales, variar los parámetros\(n\),\(m\), y\(p\) (mantener\(n = m\)), y anotar cómo cambia la probabilidad. Ahora simula lo mejor de 5 series seleccionando\(n = m = 3\),\(p = 0.6\). Ejecutar el experimento 1000 veces y comparar la frecuencia relativa con la probabilidad verdadera.

    \(A_n(1 - p) = 1 - A_n(p)\)para cualquier\(n \in \N_+\) y\(p \in [0, 1]\). Por lo tanto

    1. La gráfica de\(A_n\) es simétrica con respecto a\(p = \frac{1}{2}\).
    2. \(A_n\left(\frac{1}{2}\right) = \frac{1}{2}\).
    Prueba

    Nuevamente, hay un simple argumento probabilístico para la ecuación: ambos lados representan la probabilidad de que un jugador con probabilidad de juego\(1 - p\) gane la serie.

    En el problema de los experimentos puntuales, variar los parámetros\(n\),\(m\), y\(p\) (mantener\(n = m\)), y anotar cómo cambia la probabilidad. Ahora simula una mejor serie 7 seleccionando\(n = m = 4\),\(p = 0.45\). Ejecutar el experimento 1000 veces y comparar la frecuencia relativa con la probabilidad verdadera.

    Si\(n \gt m\) entonces

    1. \(A_n(p) \lt A_m(p)\)si\(0 \lt p \lt \frac{1}{2}\)
    2. \(A_n(p) \gt A_m(p)\)si\(\frac{1}{2} \lt p \lt 1\)
    Prueba

    Cuanto mayor sea el número de juegos de la serie, más favorece la serie al jugador más fuerte (el que tiene mayor probabilidad de juego).

    Vamos a\(N_n\) denotar el número de ensayos en la serie. Entonces\(N_n\) tiene la función de densidad de probabilidad\[ \P(N_n = k) = \binom{k - 1}{n - 1} \left[p^n (1 - p)^{k-n} + (1 - p)^n p^{k-n} \right], \quad k \in \{n, n + 1, \ldots, 2 \, n - 1\} \]

    Prueba

    Este resultado se desprende directamente del problema correspondiente de puntos resultado anterior con\(n = m\).

    Calcular explícitamente la función de densidad de probabilidad, el valor esperado y la desviación estándar para el número de juegos en el mejor de 7 series con los siguientes valores de\(p\):

    1. 0.5
    2. 0.7
    3. 0.9
    Contestar
    1. \(f(k) = \binom{k - 1}{3} \left(\frac{1}{2}\right)^{k-1}, \quad k \in \{4, 5, 6, 7\}\),\(\E(N) = 5.8125\),\(\sd(N) = 1.0136\)
    2. \(f(k) = \binom{k - 1}{3} \left[(0.7)^4 (0.3)^{k-4} + (0.3)^4 (0.7)^{k-4}\right], \quad k \in \{4, 5, 6, 7\}\),\(\E(N) = 5.3780\),\(\sd(N) = 1.0497\)
    3. \(f(k) = \binom{k - 1}{3} \left[(0.9)^4 (0.1)^{k-4} + (0.1)^4 (0.9)^{k-4}\right], \quad k \in \{4, 5, 6, 7\}\),\(\E(N) = 4.4394\),\(\sd(N) = 0.6831\)

    División de Estacas

    El problema de los puntos se originó a partir de una pregunta planteada por Chevalier de Mere, quien estaba interesado en la justa división de apuestas cuando se interrumpe un juego. Específicamente, supongamos que los jugadores\(A\) y\(B\) cada uno ponen unidades\(c\) monetarias, para luego jugar pruebas de Bernoulli hasta que uno de ellos gane un número determinado de pruebas. El ganador entonces se lleva toda la\(2 c\) fortuna.

    Si el juego se interrumpe cuando\(A\) necesita ganar\(n\) más pruebas y\(B\) necesita ganar\(m\) más pruebas, entonces la fortuna debe dividirse entre\(A\) y\(B\), respectivamente, de la siguiente manera:

    1. \(2 c A_{n,m}(p)\)para\(A\)
    2. \(2 c \left[1 - A_{n,m}(p)\right] = 2 c A_{m,n}(1 - p)\)para\(B\).

    Supongamos que los jugadores\(A\) y\(B\) apueste $50 cada uno. Los jugadores lanzan una moneda justa hasta que uno de ellos tenga 10 victorias; el ganador se lleva toda la fortuna. Supongamos que el juego es interrumpido por la policía de juego cuando\(A\) tiene 5 victorias y\(B\) tiene 3 victorias. ¿Cómo se deben dividir las apuestas?

    Contestar

    \(A\)consigue 72,56$,\(B\) obtiene 27,44$

    Versiones Alternativas y Generales

    Volvamos a la formulación al inicio de esta sección. Así, supongamos que tenemos una secuencia de ensayos de Bernoulli\(\bs{X}\) con parámetro de éxito\(p \in (0, 1]\), y para\(k \in \N_+\), dejamos\(V_k\) denotar el número de prueba del éxito\(k\) th. Así,\(V_k\) tiene la distribución binomial negativa con parámetros\(k\) y\(p\) como estudiamos anteriormente. La variable aleatoria\(W_k = V_k - k\) es el número de fallas antes del éxito\(k\) th. Dejar\(N_1 = W_1\), el número de fracasos antes del primer éxito, y dejar\(N_k = W_k - W_{k-1}\), el número de fracasos entre el\((k - 1)\) st éxito y el\(k\) th éxito, para\(k \in \{2, 3, \ldots\}\).

    \(\bs{N} = (N_1, N_2, \ldots)\)es una secuencia de variables aleatorias independientes, cada una de las cuales tiene la distribución geométrica\(\N\) con parámetro\(p\). Además,

    \[ W_k = \sum_{i=1}^k N_i \]

    Así,\(\bs{W} = (W_1, W_2, \ldots)\) es el proceso de suma parcial asociado con\(\bs{N}\). En particular,\(\bs{W}\) tiene incrementos estacionarios, independientes.

    Funciones de densidad de probabilidad

    La función de densidad de probabilidad de\(W_k\) viene dada por

    \[ \P(W_k = n) = \binom{n + k - 1}{k - 1} p^k (1 - p)^n = \binom{n + k - 1}{n} p^k (1 - p)^n, \quad n \in \N \]
    Prueba

    Este resultado se desprende directamente del PDF de\(V_k\), ya que\(\P(W_k = n) = \P(V_k = k + n)\) para\(n \in \N\).

    La distribución de también\(W_k\) se conoce como la distribución binomial negativa con parámetros\(k\) y\(p\). Así, el término distribución binomial negativa puede referirse ya sea a la distribución del número de prueba del\(k\) éxito o a la distribución del número de fracasos antes del éxito\(k\) th, dependiendo del autor y del contexto. Las dos variables aleatorias difieren por una constante, por lo que no es un tema particularmente importante siempre y cuando sepamos a qué versión se pretende. En este texto, nos referiremos a la versión alternativa como la distribución binomial negativa en\( \N \), para distinguirla de la versión original, que tiene conjunto de soporte\( \{k, k + 1, \ldots\} \)

    Más interesante, sin embargo, la función de densidad de probabilidad en el último resultado tiene sentido para cualquiera\(k \in (0, \infty)\), no solo para números enteros. Para ver esto, primero recordamos la definición del coeficiente binomial general: si\( a \in \R \) y\( n \in \N \), definimos\[ \binom{a}{n} = \frac{a^{(n)}}{n!} = \frac{a (a - 1) \cdots (a - n + 1)}{n!} \]

    La función\(f\) dada a continuación define una función de densidad de probabilidad para cada\(p \in (0, 1)\) y\(k \in (0, \infty)\):

    \[ f(n) = \binom{n + k - 1}{n} p^k (1 - p)^n, \quad n \in \N \]
    Prueba

    Recordemos de la sección sobre Estructuras Combinatorias que\(\binom{n + k - 1}{n} = (-1)^n \binom{-k}{n}\). Del teorema general del binomio,

    \[ \sum_{n=0}^\infty f(n) = p^k \sum_{n=0}^\infty \binom{-k}{n} (-1)^n (1 - p)^n = p^k \left[1 - (1 - p)\right]^{-k} = 1\]

    Una vez más, la distribución definida por la función de densidad de probabilidad en el último teorema es la distribución binomial negativa on\( \N \), con parámetros\(k\) y\(p\). El caso especial cuando\(k\) es un entero positivo a veces se le conoce como la distribución de Pascal, en honor a Blaise Pascal.

    La distribución es unimodal. Vamos\(t = \left|k - 1\right| \frac{1 - p}{p}\).

    1. \(f(n - 1) \lt f(n)\)si y sólo si\(n \lt t\).
    2. La distribución tiene un modo único en\(\lfloor t \rfloor\) si no\(t\) es un entero.
    3. La distribución tiene dos modos consecutivos at\(t - 1\) y\(t\) if\(t\) es un entero positivo.

    Propiedades Básicas

    Supongamos que\(W\) tiene la distribución binomial negativa\( \N \) encendida con parámetros\(k \in (0, \infty)\) y\(p \in (0, 1)\). Para establecer propiedades básicas, ya no podemos usar la descomposición de\(W\) como suma de variables geométricas independientes. En cambio, el mejor enfoque es derivar la función de generación de probabilidad y luego usar la función generadora para obtener otras propiedades básicas.

    \(W\)tiene la función de generación de probabilidad\(P\) dada por

    \[ P(t) = \E\left(t^W\right) = \left( \frac{p}{1 - (1 - p) \, t} \right)^k, \quad \left|t\right| \lt \frac{1}{1 - p} \]
    Prueba

    Esto se desprende del teorema general del binomio: para\(\left|t\right| \lt 1 / (1 - p)\),\[ \E\left(t^W\right) = \sum_{n=0}^\infty f(n) t^n = p^k \sum_{n=0}^\infty \binom{-k}{n} (-1)^n (1 - p)^n t^n = p^k \left[1 - (1 - p) t\right]^{-k}\ \]

    Los momentos de se\(W\) pueden obtener a partir de las derivadas del funciton generador de probabilidad.

    \(W\)tiene los siguientes momentos:

    1. \(\E(W) = k \frac{1 - p}{p}\)
    2. \(\var(W) = k \frac{1 - p}{p^2}\)
    3. \(\skw(W) = \frac{2 - p}{\sqrt{k (1 - p)}}\)
    4. \(\kur(W) = \frac{3 \, (k + 2) (1 - p) + p^2}{k \, (1 - p)}\)
    Prueba

    Recordemos que los momentos factoriales de se\(W\) pueden obtener a partir de las derivadas de la función generadora de probabilidad:\(\E\left[W^{(k)}\right] = P^{(k)}(1)\). Entonces los diversos momentos anteriores se pueden obtener a partir de fórmulas estándar.

    La distribución binomial negativa en\( \N \) se conserva bajo sumas de variables independientes.

    Supongamos que\(V\) tiene la distribución binomial negativa\( \N \) encendida con parámetros\(a \in(0, \infty)\) y\(p \in (0, 1)\), y que\(W\) tiene la distribución binomial negativa\( \N \) encendida con parámetros\(b \in (0, \infty)\) y\(p \in (0, 1)\), y eso\(V\) y\(W\) son independientes. Entonces\(V + W\) tiene el binomio negativo sobre la\( \N \) distribución con parámetros\(a + b\) y\(p\).

    Prueba

    Este resultado se desprende de las funciones generadoras de probabilidad. Recordemos que el PGF de\(V + W\) es producto de los PGF de\(V\) y\(W\).

    En el último resultado, tenga en cuenta que el parámetro de éxito\(p\) debe ser el mismo para ambas variables.

    Aproximación normal

    Debido a la descomposición de\(W\) cuando el parámetro\(k\) es un entero positivo, no es sorprendente que se mantenga un límite central teormo para la distribución binomial negativa general.

    Supongamos que\(W\) tiene la distición binomial negativa con parámetros\(k \in (0, \infty)\) y\(p \in (0, 1)\). El puntaje estándar de\(W\) es\[ Z = \frac{p \, W - k \, (1 - p)}{\sqrt{k \, (1 - p)}} \] La distribución de\(Z\) converge a la distribución normal estándar como\(k \to \infty\).

    Así, si\(k\) es grande (y no necesariamente un entero), entonces la distribución de\(W\) es aproximadamente normal con media\(k \frac{1 - p}{p}\) y varianza\(k \frac{1 - p}{p^2}\).

    Familias Especiales

    La distribución binomial negativa en\( \N \) pertenece a varias familias especiales de distribuciones. En primer lugar, se deduce del resultado anterior sobre las sumas que podemos descomponer una variable binomial negativa\( \N \) en la suma de un número arbitrario de variables independientes, distribuidas idénticamente. Esta propiedad especial se conoce como divisibilidad infinita, y se estudia con más detalle en el capítulo sobre Distribuciones Especiales.

    La distribución binomial negativa\( \N \) es infinitamente divisible.

    Prueba

    Supongamos que\( V \) tiene la distribución binomial negativa\( \N \) encendida con parámetros\( k \in (0, \infty) \) y\( p \in (0, 1) \). Del resultado anterior se deduce que para cualquiera\( n \in \N_+ \), se\( V \) puede representar como\( V = \sum_{i=1}^n V_i \) donde\( (V_1, V_2, \ldots, V_n) \) son independientes, y cada uno tiene la distribución binomial negativa encendida\( \N \) con parámetros\( k/n \) y\( p \).

    Se dice que una suma aleatoria distribuida en Poisson de variables aleatorias independientes, distribuidas idénticamente, tiene distribuciones de Poisson compuestas; estas distribuciones se estudian con más detalle en el capítulo sobre el Proceso de Poisson. Un teorema de William Feller afirma que una distribución infinita divisible sobre Poisson\( \N \) debe ser compuesta. De ahí que del resultado anterior se deduce que la distribución binomial negativa en\( \N \) pertenece a esta familia. Aquí está el resultado explícito:

    Vamos\( p, \, k \in (0, \infty) \). Supongamos que\( \bs{X} = (X_1, X_2, \ldots) \) es una secuencia de variables independientes, teniendo cada una la distribución de serie logarítmica con el parámetro shape\( 1 - p \). Supongamos también que\( N \) es independiente\( \bs{X} \) y tiene la distribución de Poisson con parámetro\( - k \ln(p) \). Entonces\( W = \sum_{i=1}^N X_i \) tiene la distribución binomial negativa encendida\( \N \) con parámetros\( k \) y\( p \).

    Prueba

    De la teoría general de las distribuciones compuestas de Poisson, la función generadora de probabilidad de\( W \)\( \lambda \) es\( P(t) = \exp\left( \lambda [Q(t) - 1]\right) \) donde está el parámetro de la variable de Poisson\( N \) y\( Q(t) \) es el PGF común de los términos en la suma. Usando el PGF de la distribución de series logarítmicas, y los valores particulares de los parámetros, tenemos\[ P(t) = \exp \left[-k \ln(p) \left(\frac{\ln[1 - (1 - p)t]}{\ln(p)} - 1\right)\right], \quad \left|t\right| \lt \frac{1}{1 - p} \] Usando propiedades de logaritmos y álgebra simple, esto reduce a\[ P(t) = \left(\frac{p}{1 - (1 - p)t}\right)^k, \quad \left|t\right| \lt \frac{1}{1 - p} \] lo que es el PGF de la distribución binomial negativa con parámetros\( k \) y\( p \).

    Como caso especial (\( k = 1 \)), se deduce que la distribución geométrica on\( \N \) es infinitamente divisible y compuesta Poisson.

    A continuación, la distribución binomial negativa en\( \N \) pertenece a la familia exponencial general. Esta familia es importante en la estadística inferencial y se estudia con más detalle en el capítulo sobre Distribuciones Especiales.

    Supongamos que\( W \) tiene la distribución binomial negativa\( \N \) encendida con parámetros\( k \in (0, \infty) \) y\( p \in (0, 1) \). Para fijo\( k \),\( W \) tiene una distribución exponencial de un parámetro con estadística natural\( W \) y parámetro natural\( \ln(1 - p) \).

    Prueba

    El PDF de se\( W \) puede escribir de manera\[ f(n) = \binom{n + k - 1}{n} p^k \exp\left[n \ln(1 - p)\right], \quad n \in \N \] que el resultado se deduce de la definición de la familia exponencial general.

    Finalmente, la distribución binomial negativa\( \N \) es una distribución en serie de potencia. Muchas distribuciones discretas especiales pertenecen a esta familia, la cual se estudia con más detalle en el capítulo sobre Distribuciones Especiales.

    Para fijo\( k \in (0, \infty) \), la distribución binomial negativa activa\( \N \) con parámetros\( k \) y\( p \in (0, 1) \) es una distribución en serie de potencia correspondiente a la función\( g(\theta) = 1 \big/ (1 - \theta)^k \) para\( \theta \in (0, 1) \), donde\( \theta = 1 - p \).

    Prueba

    En cuanto al nuevo parámetro\( \theta \), el pdf binomio negativo tiene la forma\( f(n) = \frac{1}{g(\theta)} \binom{n + k - 1}{n} \theta^n\) para\( n \in \N \), y\( \sum_{n=0}^\infty \binom{n + k - 1}{n} \theta^n = g(\theta) \).

    Ejercicios Computacionales

    Supongamos que\(W\) tiene la distribución binomial negativa con parámetros\(k = \frac{15}{2}\) y\(p = \frac{3}{4}\). Calcular cada uno de los siguientes:

    1. \(\P(W = 3)\)
    2. \(\E(W)\)
    3. \(\var(W)\)
    Contestar
    1. \(\P(W = 3) = 0.1823\)
    2. \(\E(W) = \frac{5}{2}\)
    3. \(\var(W) = \frac{10}{3}\)

    Supongamos que\(W\) tiene la distribución binomial negativa con parámetros\(k = \frac{1}{3}\) y\(p = \frac{1}{4}\). Calcular cada uno de los siguientes:

    1. \(\P(W \le 2)\)
    2. \(\E(W)\)
    3. \(\var(W)\)
    Contestar
    1. \(\P(W \le 2) = \frac{11}{8 \sqrt[3]{4}}\)
    2. \(\E(W) = 1\)
    3. \(\var(W) = 4\)

    Supongamos que\(W\) tiene la distribución binomial negativa con parámetros\(k = 10 \, \pi\) y\(p = \frac{1}{3}\). Calcular cada uno de los siguientes:

    1. \(\E(W)\)
    2. \(\var(W)\)
    3. La aproximación normal a\(\P(50 \le W \le 70)\)
    Contestar
    1. \(\E(W) = 20 \, \pi\)
    2. \(\var(W) = 60 \, \pi\)
    3. \(\P(50 \le W \le 70) \approx 0.5461\)

    This page titled 11.4: La distribución binomial negativa is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.