Saltar al contenido principal
LibreTexts Español

3.1: Distribuciones Discretas

  • Page ID
    151613
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \(\renewcommand{\P}{\mathbb{P}}\)\(\newcommand{\R}{\mathbb{R}}\)\(\newcommand{\N}{\mathbb{N}}\)\(\newcommand{\bs}{\boldsymbol}\)

    Teoría Básica

    Definiciones y Propiedades Básicas

    Como es habitual, nuestro punto de partida es un experimento aleatorio modelado por un espacio de probabilidad\((S, \mathscr S, \P)\). Entonces, para revisar,\(S\) es el conjunto de resultados,\(\mathscr S\) la recolección de eventos, y\(\P\) la medida de probabilidad en el espacio muestral\((S, \mathscr S)\). Utilizamos los términos medida de probabilidad y distribución de probabilidad como sinónimos en este texto. Además, dado que usamos una definición general de variable aleatoria, cada medida de probabilidad puede ser pensada como la distribución de probabilidad de una variable aleatoria, por lo que siempre podemos tomar este punto de vista si queremos. De hecho, la mayoría de las medidas de probabilidad tienen naturalmente variables aleatorias asociadas a ellas.

    Recordemos que el espacio muestral\((S, \mathscr S)\) es discreto si\(S\) es contable y\(\mathscr S = \mathscr P(S)\) es la colección de todos los subconjuntos de\(S\). En este caso,\(\P\) es una distribución discreta y\((S, \mathscr S, \P)\) es un espacio de probabilidad discreto.

    Para el resto o nuestra discusión asumimos que\((S, \mathscr S, \P)\) es un espacio de probabilidad discreto. En la imagen de abajo, los puntos azules están destinados a representar puntos de probabilidad positiva.

    Una distribución discreta
    Figura\(\PageIndex{1}\): Una distribución discreta

    Es muy sencillo describir una distribución de probabilidad discreta con la función que asigna probabilidades a los puntos individuales en\(S\).

    La función\(f\) on\(S\) definida por\( f(x) = \P(\{x\}) \) for\( x \in S \) es la función de densidad de probabilidad de\(\P\), y satisface las siguientes propiedades:

    1. \(f(x) \ge 0, \; x \in S\)
    2. \(\sum_{x \in S} f(x) = 1\)
    3. \(\sum_{x \in A} f(x) = \P(A)\)para\( A \subseteq S\)
    Prueba

    Estas propiedades se derivan de los axiomas de una medida de probabilidad.

    1. \( f(x) = \P(\{x\}) \ge 0 \)ya que las probabilidades no son negativas.
    2. \(\sum_{x \in S} f(x) = \sum_{x \in S} \P(\{x\}) = \P(S) = 1\)por el axioma de aditividad contable.
    3. \(\sum_{x \in A} f(x) = \sum_{x \in A} \P(\{x\}) = \P(A)\)pues de\(A \subseteq S\) nuevo, por el axioma de aditividad contable.

    La propiedad (c) es particularmente importante ya que muestra que una distribución de probabilidad discreta está completamente determinada por su función de densidad de probabilidad. Por el contrario, cualquier función que satisfaga las propiedades (a) y (b) se puede utilizar para construir una distribución de probabilidad discreta en la propiedad\(S\) via (c).

    Una función no negativa\(f\) en\(S\) que satisface\(\sum_{x \in S} f(x) = 1\) es una función de densidad de probabilidad (discreta) on\(S\), y luego\(\P\) se define de la siguiente manera es una medida de probabilidad on\(S\). \[\P(A) = \sum_{x \in A} f(x), \quad A \subseteq S\]

    Prueba
    1. \(\P(A) = \sum_{x \in A} f(x) \ge 0\)ya que no\(f\) es negativo.
    2. \(\P(S) = \sum_{x \in S} f(x) = 1\)\) por propiedad (b)
    3. Supongamos que\(\{A_i: i \in I\}\) es una colección contable, disjunta de subconjuntos de\(S\), y let\(A = \bigcup_{i \in I} A_i\). Entonces\[\P(A) = \sum_{x \in A} f(x) = \sum_{i \in I} \sum_{x \in A_i} f(x) = \sum_{i \in I} \P(A_i)\] Tenga en cuenta que dado que no\(f\) es negativo, el orden de los términos en la suma no importa.

    Técnicamente,\(f\) es la densidad de\(\P\) relativo a contar medida\(\#\) en\(S\). Los tecnicismos se discuten en detalle en la sección avanzada sobre continuidad absoluta y funciones de densidad.

    Una distribución discreta
    Figura\(\PageIndex{2}\): Una distribución discreta está completamente determinada por su función de densidad de probabilidad.

    El conjunto de resultados\(S\) suele ser un subconjunto contable de algunos conjuntos más grandes, como\(\R^n\) para algunos\(n \in \N_+\). Pero no siempre. Es posible que queramos considerar una variable aleatoria con valores en una baraja de cartas, o un conjunto de palabras, o alguna otra población discreta de objetos. Por supuesto, siempre podemos mapear un conjunto contable\( S \) uno a uno en un conjunto euclidiano, pero puede ser ideado o antinatural hacerlo. En cualquier caso, si\( S \) es un subconjunto de un conjunto mayor, siempre podemos extender una función de densidad de probabilidad\(f\), si queremos, al conjunto más grande definiendo\(f(x) = 0\) for\(x \notin S\). En ocasiones esta extensión simplifica las fórmulas y la notación. Dicho de otra manera, el conjunto de valores suele ser un conjunto de conveniencia que incluye los puntos con probabilidad positiva, pero quizás otros puntos también.

    Supongamos que\(f\) es una función de densidad de probabilidad en\(S\). Entonces\(\{x \in S: f(x) \gt 0\}\) está el conjunto de soporte de la distribución.

    Los valores\( x \) que maximizan la función de densidad de probabilidad son lo suficientemente importantes como para merecer un nombre.

    Supongamos de nuevo que\(f\) es una función de densidad de probabilidad en\(S\). Un elemento\(x \in S\) que maximiza\(f\) es un modo de distribución.

    Cuando solo hay un modo, a veces se usa como medida del centro de la distribución.

    Una distribución de probabilidad discreta definida por una función de densidad de probabilidad\(f\) es equivalente a una distribución de masa discreta, con masa total 1. En esta analogía,\(S\) es el conjunto (contable) de masas puntuales, y\(f(x)\) es la masa del punto at\(x \in S\). Propiedad (c) en (2) anterior simplemente significa que la masa de un conjunto se\(A\) puede encontrar sumando las masas de los puntos en\(A\).

    Pero consideremos una interpretación probabilística, más que una de la física. Comenzamos con una variable aleatoria básica\(X\) para un experimento, definida en un espacio de probabilidad\((\Omega, \mathscr F, \P)\). Supongamos que\(X\) tiene una distribución discreta\(S\) con función de densidad de probabilidad\(f\). Entonces en este escenario,\(f(x) = \P(X = x)\) para\(x \in S\). Creamos un nuevo experimento compuesto realizando repeticiones independientes del experimento original. Entonces en el experimento compuesto, tenemos una secuencia de variables aleatorias independientes\((X_1, X_2, \ldots)\) cada una con la misma distribución que\(X\); en términos estadísticos, estamos muestreando a partir de la distribución de\(X\). Definir\[f_n(x) = \frac{1}{n} \#\left\{ i \in \{1, 2, \ldots, n\}: X_i = x\right\} = \frac{1}{n} \sum_{i=1}^n \bs{1}(X_i = x), \quad x \in S\] Tenga en cuenta que\(f_n(x)\) es la frecuencia relativa del resultado\(x \in S\) en las primeras\(n\) ejecuciones. Obsérvese también que\(f_n(x)\) es una variable aleatoria para el experimento compuesto para cada uno\(x \in S\). Por la ley de los grandes números,\(f_n(x)\) deben converger para\(f(x)\), en cierto sentido, como\(n \to \infty\). La función\(f_n\) se denomina función de densidad de probabilidad empírica, y de hecho es una función de densidad de probabilidad (aleatoria), ya que satisface las propiedades (a) y (b) de (2). Las funciones de densidad de probabilidad empírica se muestran en la mayoría de las aplicaciones de simulación que tratan con variables discretas.

    Es fácil construir funciones de densidad de probabilidad discretas a partir de otras funciones no negativas definidas en un conjunto contable.

    Supongamos que\(g\) es una función no negativa definida en\(S\), y let\[c = \sum_{x \in S} g(x)\] Si\(0 \lt c \lt \infty\), entonces la función\(f\) definida por\(f(x) = \frac{1}{c} g(x)\) for\(x \in S\) es una función de densidad de probabilidad discreta en\(S\).

    Prueba

    Claramente\( f(x) \ge 0 \) para\( x \in S \). también\[ \sum_{x \in S} f(x) = \frac{1}{c} \sum_{x \in S} g(x) = \frac{c}{c} = 1 \]

    Tenga en cuenta que ya que estamos asumiendo que\(g\) es no negativo,\(c = 0\) si y solo si\(g(x) = 0\) por cada\(x \in S\). En el otro extremo, sólo\(c = \infty\) podría ocurrir si\(S\) es infinito (y la serie infinita diverge). Cuando\(0 \lt c \lt \infty\) (para que podamos construir la función de densidad de probabilidad\(f\)), a veces\(c\) se llama la constante normalizadora. Este resultado es útil para construir funciones de densidad de probabilidad con las propiedades funcionales deseadas (dominio, forma, simetría, etc.).

    Densidades Condicionales

    Supongamos nuevamente que\(X\) es una variable aleatoria en un espacio de probabilidad\((\Omega, \mathscr F, \P)\) y que\(X\) toma valores en nuestro conjunto discreto\(S\). La distributionn de\(X\) (y por lo tanto la función de densidad de probabilidad de\(X\)) se basa en la medida de probabilidad subyacente en el espacio muestral\((\Omega, \mathscr F)\). Esta medida podría ser una medida de probabilidad condicional, condicionada a un evento dado\(E \in \mathscr F\) (con\(\P(E) \gt 0\)). La función de densidad de probabilidad en este caso es\[f(x \mid E) = \P(X = x \mid E), \quad x \in S\] Excepto por notación, no hay conceptos nuevos involucrados. Por lo tanto, todos los resultados que se mantienen para las funciones de densidad de probabilidad discreta en general tienen analogías para las funciones de densidad de probabilidad discreta condicional.

    Para fijo\(E \in \mathscr F\) con\(\P(E) \gt 0\) la función\(x \mapsto f(x \mid E)\) es una función de densidad de probabilidad discreta en Es\(S\) decir,

    1. \( f(x \mid E) \ge 0 \)para\( x \in S \).
    2. \( \sum_{x \in S} f(x \mid E) = 1 \)
    3. \(\sum_{x \in A} f(x \mid E) = \P(X \in A \mid E)\)para\(\subseteq S\)
    Prueba

    Esto es consecuencia del hecho de que\( A \mapsto \P(A \mid E) \) es una medida de probabilidad sobre\((\Omega, \mathscr F)\). La función\( x \mapsto f(x \mid E) \) juega el mismo papel para la medida de probabilidad condicional que\( f \) para la medida de probabilidad original\( \P \).

    En particular, el evento\( E \) podría ser un evento definido en términos de la\( X \) propia variable aleatoria.

    Supongamos que\(B \subseteq S\) y\(\P(X \in B) \gt 0\). La función de densidad de probabilidad condicional de\(X\) dada\(X \in B\) es la función en\(B\) definida por\[f(x \mid X \in B) = \frac{f(x)}{\P(X \in B)} = \frac{f(x)}{\sum_{y \in B} f(y)}, \quad x \in B \]

    Prueba

    Esto se desprende del teorema anterior. \( f(x \mid X \in B) = \P(X = x, X \in B) \big/ \P(X \in B) \). El numerador es\( f(x) \) si\( x \in B \) y es 0 si\( x \notin B \).

    Tenga en cuenta que el denominador es simplemente la constante normalizadora para\( f \) restringido a\( B \). Por supuesto,\(f(x \mid B) = 0\) para\(x \in B^c\).

    Acondicionamiento y teorema de Bayes

    Supongamos nuevamente que\(X\) es una variable aleatoria definida en un espacio de probabilidad\((\Omega, \mathscr F, \P)\) y que\(X\) tiene una distribución discreta encendida\(S\), con función de densidad de probabilidad\(f\). Suponemos que\( f(x) \gt 0 \) para\( x \in S \) para que la distribución tenga soporte\(S\). Las versiones de la ley de probabilidad total y del teorema de Bayes dadas en los siguientes teoremas siguen inmediatamente de los resultados correspondientes en el apartado de Probabilidad Condicional. Sólo la notación es diferente.

    Ley de Probabilidad Total. Si\(E \in \mathscr F\) es un evento entonces\[\P(E) = \sum_{x \in S} f(x) \P(E \mid X = x)\]

    Prueba

    Tenga en cuenta que\(\{\{X = x\}: x \in S\}\) es una partición contable del espacio de muestra\(\Omega\). Es decir, estos eventos son disjuntos y su unión es todo el espacio muestral\(\Omega\). De ahí\[ \P(E) = \sum_{x \in S} \P(E \cap \{X = x\}) = \sum_{x \in S} \P(X = x) \P(E \mid X = x) = \sum_{x \in S} f(x) \P(E \mid X = x) \]

    Este resultado es útil, naturalmente, cuando se conoce la distribución de\(X\) y la probabilidad condicional de\(E\) dados los valores de\(X\). Cuando calculamos\(\P(E)\) de esta manera, decimos que estamos condicionando\(X\). Obsérvese que\( \P(E) \), como lo expresa la fórmula, es un promedio ponderado de\( \P(E \mid X = x) \), con factores de peso\( f(x) \), sobre\( x \in S \).

    Teorema de Bayes. Si\(E \in \mathscr F\) es un evento con\(\P(E) \gt 0\) entonces\[f(x \mid E) = \frac{f(x) \P(E \mid X = x)}{\sum_{y \in S} f(y) \P(E \mid X = y)}, \quad x \in S\]

    Prueba

    Tenga en cuenta que el numerador de la fracción de la derecha es\( \P(X = x) \P(E \mid X = x) = \P(\{X = x\} \cap E) \). El denominador es\( \P(E) \) por el teorema anterior. De ahí que la relación sea\( \P(X = x \mid E) = f(x \mid E) \).

    El teorema de Bayes, llamado así por Thomas Bayes, es una fórmula para la función de densidad de probabilidad condicional de\(X\) dado\(E\). Nuevamente, es útil cuando se conocen las cantidades de la derecha. En el contexto del teorema de Bayes, la distribución (incondicional) de\(X\) se denomina distribución previa y la distribución condicional como distribución posterior. Tenga en cuenta que el denominador en la fórmula de Bayes es\(\P(E)\) y es simplemente la constante normalizadora para la función\(x \mapsto f(x) \P(E \mid X = x)\).

    Ejemplos y Casos Especiales

    Comenzamos con algunas distribuciones discretas simples (aunque algo artificiales). Después de eso, estudiamos tres modelos paramétricos especiales: la distribución uniforme discreta, las distribuciones hipergeométricas y los ensayos de Bernoulli. Estos modelos son muy importantes, por lo que al trabajar los problemas computacionales que siguen, trate de ver si el problema se ajusta a uno de estos modelos. Como siempre, asegúrate de probar los problemas tú mismo antes de mirar las respuestas y pruebas en el texto.

    Distribuciones discretas simples

    Dejar\(g\) ser la función definida por\(g(n) = n (10 - n)\) for\(n \in \{1, 2, \ldots, 9\}\).

    1. Encuentra la función de densidad de probabilidad\(f\) que es proporcional a\(g\) como in.
    2. Esboza la gráfica de\(f\) y encuentra el modo de distribución.
    3. Encuentra\(\P(3 \le N \le 6)\) dónde\(N\) tiene función de densidad de probabilidad\(f\).
    Contestar
    1. \(f(n) = \frac{1}{165} n (10 - n)\)para\(n \in \{1, 2, \ldots, 9\}\)
    2. modo\(n = 5\)
    3. \(\frac{94}{165}\)

    Dejar\(g\) ser la función definida por\(g(n) = n^2 (10 -n)\) for\(n \in \{1, 2 \ldots, 10\}\).

    1. Encuentra la función de densidad de probabilidad\(f\) que es proporcional a\(g\).
    2. Esboza la gráfica de\(f\) y encuentra el modo de distribución.
    3. Encuentra\(\P(3 \le N \le 6)\) dónde\(N\) tiene función de densidad de probabilidad\(f\).
    Contestar
    1. \(f(n) = \frac{1}{825} n^2 (10 - n)\)para\(n \in \{1, 2, \ldots, 9\}\)
    2. modo\(n = 7\)
    3. \(\frac{428}{825}\)

    Dejar\(g\) ser la función definida por\(g(x, y) = x + y\) for\((x, y) \in \{1, 2, 3\}^2\).

    1. Esbozar el dominio de\(g\).
    2. Encuentra la función de densidad de probabilidad\(f\) que es proporcional a\(g\).
    3. Encuentra el modo de distribución.
    4. Encuentra\(\P(X \gt Y)\) dónde\((X, Y)\) tiene función de densidad de probabilidad\(f\).
    Contestar
    1. \(f(x,y) = \frac{1}{36} (x + y)\)para\((x,y) \in \{1, 2, 3\}^2\)
    2. modo\((3, 3)\)
    3. \(\frac{2}{9}\)

    Dejar\(g\) ser la función definida por\(g(x, y) = x y\) for\((x, y) \in \{(1, 1), (1,2), (1, 3), (2, 2), (2, 3), (3, 3)\}\).

    1. Esbozar el dominio de\(g\).
    2. Encuentra la función de densidad de probabilidad\(f\) que es proporcional a\(g\).
    3. Encuentra el modo de distribución.
    4. Encuentra\(\P\left[(X, Y) \in \left\{(1, 2), (1, 3), (2, 2), (2, 3)\right\}\right]\) dónde\((X, Y)\) tiene función de densidad de probabilidad\(f\).
    Contestar
    1. \(f(x,y) = \frac{1}{25} x y\)para\((x,y) \in \{(1,1), (1,2), (1,3), (2,2), (2,3), (3,3)\}\)
    2. modo\((3,3)\)
    3. \(\frac{3}{5}\)

    Considera el siguiente juego: Una urna contiene inicialmente una bola roja y una verde. Se selecciona una pelota al azar, y si la pelota es verde, el juego ha terminado. Si la pelota es roja, la pelota se devuelve a la urna, se agrega otra bola roja, y el juego continúa. En cada etapa, se selecciona una pelota al azar, y si la pelota es verde, el juego ha terminado. Si la pelota es roja, la pelota se devuelve a la urna, se agrega otra bola roja, y el juego continúa. Dejar\( X \) denotar la duración del juego (es decir, el número de selecciones requeridas para obtener una bola verde). Encuentra la función de densidad de probabilidad de\( X \).

    Solución

    Tenga en cuenta que\(X\) toma valores en\(\N_+\). Usando la regla de multiplicación para probabilidades condicionales, el PDF\(f\) de\(X\) está dado por\[f(1) = \frac{1}{2} = \frac{1}{1 \cdot 2}, \; f(2) = \frac{1}{2} \frac{1}{3} = \frac{1}{2 \cdot 3}, \; f(3) = \frac{1}{2} \frac{2}{3} \frac{1}{4} = \frac{1}{3 \cdot 4}\] y en general,\(f(x) = \frac{1}{x (x + 1)}\) para\(x \in \N_+\). Por fracciones parciales,\(f(x) = \frac{1}{x} - \frac{1}{x + 1}\) para\(x \in \N_+\) así podemos comprobar que\(f\) es un PDF válido:\[\sum_{x=1}^\infty \left(\frac{1}{x} - \frac{1}{x+1}\right) = \lim_{n \to \infty} \sum_{x=1}^n \left(\frac{1}{x} - \frac{1}{x+1}\right) = \lim_{n \to \infty} \left(1 - \frac{1}{n+1}\right) = 1\]

    Distribuciones Uniformes Discretas

    Un elemento\(X\) se elige al azar de un conjunto finito\(S\). La distribución de\(X\) es la distribución uniforme discreta en\(S\).

    1. \(X\)tiene función de densidad de probabilidad\(f\) dada por\(f(x) = 1 \big/ \#(S)\) for\(x \in S\).
    2. \(\P(X \in A) = \#(A) \big/ \#(S)\)para\(A \subseteq S\).
    Prueba

    La frase al azar significa que todos los resultados son igualmente probables.

    Muchas variables aleatorias que surgen en experimentos de muestreo o combinatorios son transformaciones de variables distribuidas uniformemente. Los siguientes ejercicios revisan los métodos estándar de muestreo de una población finita. Los parámetros\(m\) y\(n\) son inteters positivos.

    Supongamos que\(n\) los elementos se eligen al azar, con reemplazo de un conjunto\(D\) por\(m\) elementos. Dejar\(\bs{X}\) denotar la secuencia ordenada de elementos elegidos. Luego\(\bs{X}\) se distribuye uniformemente en el conjunto de potencias cartesianas\(S = D^n\), y tiene la función de densidad de probabilidad\(f\) dada por\[f(\bs{x}) = \frac{1}{m^n}, \quad \bs{x} \in S\]

    Prueba

    Recordemos eso\( \#(D^n) = m^n \).

    Supongamos que\(n\) los elementos se eligen al azar, sin reemplazo de un conjunto\(D\) con\(m\) elementos (so\(n \le m\)). Dejar\(\bs{X}\) denotar la secuencia ordenada de elementos elegidos. Luego\(\bs{X}\) se distribuye uniformemente en el conjunto\(S\) de permutaciones de tamaño\(n\) elegido de\(D\), y tiene la función de densidad de probabilidad\(f\) dada por\[f(\bs{x}) = \frac{1}{m^{(n)}}, \quad \bs{x} \in S\]

    Prueba

    Recordemos que el número de permutaciones de tamaño\( n \) de\( D \) es\( m^{(n)} \).

    Supongamos que\(n\) los elementos se eligen al azar, sin reemplazo, de un conjunto\(D\) con\(m\) elementos (so\(n \le m\)). Dejar\(\bs{W}\) denotar el conjunto desordenado de elementos elegidos. Luego\(\bs{W}\) se distribuye uniformemente en el conjunto\(T\) de combinaciones de tamaño\(n\) elegido de\(D\), y tiene la función de densidad de probabilidad\(f\) dada por\[f(\bs{w}) = \frac{1}{\binom{m}{n}}, \quad \bs{w} \in T\]

    Prueba

    Recordemos que el número de combinaciones de tamaño\( n \) de\( D \) es\( \binom{m}{n} \).

    Supongamos que\(X\) se distribuye uniformemente en un conjunto finito\(S\) y que\(B\) es un subconjunto no vacío de\(S\). Entonces la distribución condicional de\(X\) dado\(X \in B\) es uniforme en\(B\).

    Prueba

    De (7), la función de densidad de probabilidad condicional de\( X \) dado\( X \in B \) es\[ f(x \mid B) = \frac{f(x)}{\P(X \in B)} = \frac{1 \big/ \#(S)}{\#(B) \big/ \#(S)} = \frac{1}{\#(B)}, \quad x \in B \]

    Modelos Hipergeométricos

    Supongamos que una población dicotómica consiste en\(m\) objetos de dos tipos diferentes:\(r\) de los objetos son tipo 1 y\(m - r\) son tipo 0. Aquí hay algunos ejemplos típicos:

    • Los objetos son personas, cada una de ellas masculinas o femeninas.
    • Los objetos son los votantes, cada uno ya sea demócrata o republicano.
    • Los objetos son dispositivos de algún tipo, cada uno bueno o defectuoso.
    • Los objetos son peces en un lago, cada uno ya sea etiquetado o sin etiquetar.
    • Los objetos son bolas en una urna, cada una roja o verde.

    Se elige una muestra de\(n\) objetos al azar (sin reemplazo) de la población. Recordemos que esto significa que las muestras, ya sean ordenadas o desordenadas, son igualmente probables. Tenga en cuenta que este modelo de probabilidad tiene tres parámetros: el tamaño de la población\(m\), el número de objetos\(r\) tipo 1 y el tamaño de la muestra\(n\). Cada uno es un entero no negativo con\(r \le m\) y\(n \le m\). Ahora, supongamos que hacemos un seguimiento del orden, y vamos a\(X_i\) denotar el tipo del objeto\(i\) th elegido, para\(i \in \{1, 2, \ldots, n\}\). Así,\(X_i\) es una variable indicadora (es decir, una variable que solo toma los valores 0 y 1).

    \(\bs{X} = (X_1, X_2, \ldots, X_n) \)tiene la función de densidad de probabilidad\( f \) dada por\[ f(x_1, x_2, \ldots, x_n) = \frac{r^{(y)} (m - r)^{(n-y)}}{m^{(n)}}, \quad (x_1, x_2, \ldots, x_n) \in \{0, 1\}^n \text{ where } y = x_1 + x_2 + \cdots + x_n \]

    Prueba

    Recordemos nuevamente que las muestras ordenadas son igualmente probables, y existen\( m^{(n)} \) tales muestras. El número de formas de seleccionar los objetos\( y \) tipo 1 y colocarlos en las posiciones donde\( x_i = 1 \) está\( r^{(y)} \). El número de formas de seleccionar los objetos\( n - y \) tipo 0 y colocarlos en las posiciones donde\( x_i = 0 \) está\( (m - r)^{(n - y)} \). Así, el resultado se desprende del principio de multiplicación.

    Tenga en cuenta que el valor de\( f(x_1, x_2, \ldots, x_n) \) depende sólo de\( y = x_1 + x_2 + \cdots + x_n \), y por lo tanto no se modifica si\( (x_1, x_2, \ldots, x_n) \) se permuta. Esto significa que\((X_1, X_2, \ldots, X_n) \) es intercambiable. En particular, la distribución de\( X_i \) es la misma que la distribución de\( X_1 \), entonces\( \P(X_i = 1) = \frac{r}{m} \). Así, las variables se distribuyen de manera idéntica. También la distribución de\( (X_i, X_j) \) es la misma que la distribución de\( (X_1, X_2) \), entonces\( \P(X_i = 1, X_j = 1) = \frac{r (r - 1)}{m (m - 1)} \). Así,\( X_i \) y no\( X_j \) son independientes, y de hecho están correlacionados negativamente.

    Ahora vamos a\(Y\) denotar el número de objetos tipo 1 en la muestra. Tenga en cuenta que\(Y = \sum_{i=1}^n X_i\). Cualquier variable de conteo puede escribirse como una suma de variables indicadoras.

    \(Y\)tiene función de densidad de probabilidad\( g \) dada por.

    \[g(y) = \frac{\binom{r}{y} \binom{m - r}{n - y}}{\binom{m}{n}}, \quad y \in \{0, 1, \ldots, n\}\]
    1. \(g(y - 1) \lt g(y)\)si y sólo si\(y \lt t\) donde\(t = (r + 1) (n + 1) / (m + 2)\).
    2. Si no\(t\) es un entero positivo, hay un modo único en\(\lfloor t \rfloor\).
    3. Si\(t\) es un entero positivo, entonces hay dos modos, at\(t - 1\) y\(t\).
    Prueba

    Recordemos nuevamente que las muestras desordenadas de tamaño\( n \) elegidas de la población son igualmente probables. Por el principio de multiplicación, el número de muestras con exactamente\( y \) tipo 1 objetos y\( n - y \) tipo 0 objetos es\( \binom{m}{y} \binom{m - r}{n - y} \). El número total de muestras es\( \binom{m}{n} \).

    1. Tenga en cuenta que\( g(y - 1) \lt g(y) \) si y solo si\( \binom{r}{y - 1} \binom{m - r}{n + 1 - y} \lt \binom{r}{y} \binom{m - r}{n - y} \). Escribir los coeficientes binomiales en términos de factoriales y términos de cancelación da\( g(y - 1) \lt g(y) \) si y sólo si\( y \lt t \), donde\( t \) se da anteriormente.
    2. Por el mismo argumento,\( f(y - 1) = f(y) \) si y sólo si\( y = t \). Si no\( t \) es un entero entonces esto no puede suceder. Dejando\( z = \lfloor t \rfloor \), se deduce de (a) que\( g(y) \lt g(z) \) si\( y \lt z \) o\( y \gt z \).
    3. Si\( t \) es un entero positivo, entonces por (b),\( g(t - 1) = g(t) \) y por (a)\( g(y) \lt g(t - 1) \) if\( y \lt t - 1 \) y\( g(y) \lt g(t) \) if\( y \gt t \).

    La distribución definida por la función de densidad de probabilidad en el último resultado son las distribuciones hipergeométricas con parámetros\(m\),\(r\), y\(n\). El término hipergeométrico proviene de una cierta clase de funciones especiales, pero no es particularmente útil en términos de recordar el modelo. No obstante, estamos atrapados con ello. El conjunto de valores\( \{0, 1, \ldots, n\} \) es un conjunto de conveniencia: contiene todos los valores que tienen probabilidad positiva, pero dependiendo de los parámetros, algunos de los valores pueden tener probabilidad 0. Recordemos nuestra convención para los coeficientes binomiales: para\( j, \; k \in \N_+ \),\( \binom{k}{j} = 0 \) si\( j \gt k \). Obsérvese también que la distribución hipergeométrica es unimodal: la función de densidad de probabilidad aumenta y luego disminuye, ya sea con un solo modo o con dos modos adyacentes.

    Podemos extender el modelo hipergeométrico a una población de tres tipos. Así, supongamos que nuestra población consiste en\(m\) objetos;\(r\) de los objetos son tipo 1,\(s\) son tipo 2, y\(m - r - s\) son tipo 0. Aquí hay algunos ejemplos:

    • Los objetos son votantes, cada uno demócrata, republicano o independiente.
    • Los objetos son cigarras, cada una de tres especies: tredecula, tredecassini o tredecim
    • Los objetos son melocotones, cada uno clasificado como pequeño, mediano o grande.
    • Los objetos son miembros de la facultad de una universidad, cada uno un profesor asistente, o un profesor asociado, o un profesor titular.

    Una vez más, se elige una muestra de\(n\) objetos al azar (sin reemplazo). El modelo de probabilidad ahora tiene cuatro parámetros: el tamaño de la población\(m\), los tamaños de tipo\(r\) y\(s\), y el tamaño de la muestra\(n\). Todos son enteros no negativos con\(r + s \le m\) y\(n \le m\). Además, ahora necesitamos dos variables aleatorias para realizar un seguimiento de los recuentos de los tres tipos en la muestra. Dejar\(Y\) denotar el número de objetos tipo 1 en la muestra y\(Z\) el número de objetos tipo 2 en la muestra.

    \((Y, Z)\)tiene la función de densidad de probabilidad\( h \) dada por\[h(y, z) = \frac{\binom{r}{y} \binom{s}{z} \binom{m - r - s}{n - y - z}}{\binom{m}{n}}, \quad (y, z) \in \{0, 1, \ldots, n\}^2 \text{ with } y + z \le n\]

    Prueba

    Una vez más, por el principio de multiplicación, el número de muestras\( n \) de tamaño de la población con exactamente\( y \) tipo 1 objetos,\( z \) tipo 2 objetos y\( n - y - z \) tipo 0 objetos es\( \binom{r}{y} \binom{s}{z} \binom{m - r - s}{n - y - z} \). El número total de muestras de tamaño\( n \) es\( \binom{m}{n} \).

    La distribución definida por la función de densidad en la última exericse es la distribución hipergeométrica bivariada con parámetros\(m\),\(r\),\(s\), y\(n\). Una vez más, el dominio dado es un conjunto de conveniencia; incluye el conjunto de puntos con probabilidad positiva, pero dependiendo de los parámetros, puede incluir puntos con probabilidad 0. Claramente, el mismo patrón general se aplica a poblaciones con aún más tipos. Sin embargo, debido a todos los parámetros, las fórmulas no merecen recordarse en detalle; más bien, solo anotar el patrón, y recordar el significado combinatorio del coeficiente binomial. El modelo hipergeométrico se revisará más adelante en este capítulo, en la sección sobre distribuciones conjuntas y en la sección sobre distribuciones condicionales. La distribución hipergeométrica y la distribución hipergeométrica multivariada se estudian en detalle en el capítulo Modelos de Muestreo Finito. Este capítulo contiene una variedad de distribuciones que se basan en distribuciones uniformes discretas.

    Juicios de Bernoulli

    Una secuencia de ensayos de Bernoulli es una secuencia\((X_1, X_2, \ldots)\) de variables indicadoras independientes, distribuidas idénticamente. Variable aleatoria\(X_i\) es el resultado del ensayo\(i\), donde en la terminología habitual de confiabilidad, 1 denota éxito mientras que 0 denota fracaso, El proceso lleva el nombre de Jacob Bernoulli. Vamos a\(p = \P(X_i = 1) \in [0, 1]\) denotar el parámetro de éxito del proceso. Obsérvese que las variables indicadoras en el modelo hipergeométrico satisfacen uno de los supuestos de los ensayos de Bernoulli (distribuciones idénticas) pero no el otro (independencia).

    \(\bs{X} = (X_1, X_2, \ldots, X_n)\)tiene la función de densidad de probabilidad\( f \) dada por\[f(x_1, x_2, \ldots, x_n) = p^y (1 - p)^{n - y}, \quad (x_1, x_2, \ldots, x_n) \in \{0, 1\}^n, \text{ where } y = x_1 + x_2 + \cdots + x_n\]

    Prueba

    Por definición,\( \P(X_i = 1) = p \) y\( \P(X_i = 0) = 1 - p \). Equivalentemente,\( \P(X_i = x) = p^x (1 - p)^{1-x} \) para\( x \in \{0, 1\} \). La fórmula para\( f \) entonces sigue por independencia.

    Ahora vamos a\(Y\) denotar el número de éxitos en los primeros\(n\) ensayos. Tenga en cuenta que\(Y = \sum_{i=1}^n X_i\), así vemos de nuevo que una variable aleatoria complicada se puede escribir como una suma de las más simples. En particular, una variable de conteo siempre se puede escribir como una suma de variables indicadoras.

    \(Y\)tiene la función de densidad de probabilidad\( g \) dada por\[g(y) = \binom{n}{y} p^y (1 - p)^{n-y}, \quad y \in \{0, 1, \ldots, n\}\]

    1. \(g(y - 1) \lt g(y)\)si y sólo si\(y \lt t\), donde\(t = (n + 1) p\).
    2. Si no\(t\) es un entero positivo, hay un modo único en\(\lfloor t \rfloor\).
    3. Si\(t\) es un entero positivo, entonces hay dos modos, at\(t - 1\) y\(t\).
    Prueba

    Del resultado anterior, cualquier secuencia particular de ensayos de\( n \) Bernoulli con\( y \) éxitos y\( n - y \) fracasos tiene probabilidad\( p^y (1 - p)^{n - y}\). El número de tales secuencias es\( \binom{n}{y} \), por lo que la fórmula para\( g \) sigue por la aditividad de probabilidad.

    1. Tenga en cuenta que\( g(y - 1) \lt g(y) \) si y solo si\( \binom{n}{y - 1} p^{y-1} (1 - p)^{n + 1 - y} \lt \binom{n}{y} p^y ( 1- p)^{n-y} \). Escribir los coeficientes binomiales en términos de factoriales y cancelación da\( g(y - 1) \lt g(y) \) si y sólo si\( y \lt t \) dónde\( t = (n + 1) p\).
    2. Por el mismo argumento,\( g(y - 1) = g(y) \) si y sólo si\( y = t \). Si no\( t \) es un entero, esto no puede suceder. Dejando\( z = \lfloor t \rfloor \), se deduce de (a) que\( g(y) \lt g(z) \) si\( y \lt z \) o\( y \gt z \).
    3. Si\( t \) es un entero positivo, entonces por (b),\( g(t - 1) = g(t) \) y por (a)\( g(y) \lt g(t - 1) \) if\( y \lt t - 1 \) y\( g(y) \lt g(t) \) if\( y \gt t \).

    La distribución definida por la función de densidad de probabilidad en el último teorema se denomina distribución binomial con parámetros\(n\) y\(p\). La distribución es unimodal: la función de densidad de probabilidad al principio aumenta y luego disminuye, ya sea con un solo modo o con dos modos adyacentes. La distribución binomial se estudia en detalle en el capítulo sobre los ensayos de Bernoulli.

    Supongamos eso\(p \gt 0\) y vamos a\(N\) denotar el número de prueba del primer éxito. Entonces\(N\) tiene la función de densidad de probabilidad\(h\) dada por\[h(n) = (1 - p)^{n-1} p, \quad n \in \N_+\] La función de densidad de probabilidad\( h \) es decreciente y el modo es\( n = 1 \).

    Prueba

    Porque\( n \in \N_+ \), el suceso\( \{N = n\} \) significa que los primeros\( n - 1 \) juicios fueron fracasos y el juicio\( n \) fue un éxito. Cada ensayo resulta en fracaso con probabilidad\( 1 - p \) y éxito con probabilidad\( p \), y los ensayos son independientes, entonces\( \P(N = n) = (1 - p)^{n - 1} p \). Usando series geométricas, podemos verificar que\[\sum_{n=1}^\infty h(n) = \sum_{n=1}^\infty p (1 - p)^{n-1} = \frac{p}{1-(1-p)} = 1\]

    La distribución definida por la función de densidad de probabilidad en el último ejercicio es la distribución geométrica on\(\N_+\) con parámetro\(p\). La distribución geométrica se estudia en detalle en el capítulo sobre los ensayos de Bernoulli.

    Problemas de muestreo

    En los siguientes ejercicios, asegúrese de verificar si el problema se ajusta a uno de los modelos generales anteriores.

    Una urna contiene 30 bolas rojas y 20 verdes. Se selecciona una muestra de 5 bolas al azar, sin reemplazo. Dejar\(Y\) denotar el número de bolas rojas en la muestra.

    1. Calcular la función de densidad de probabilidad de\(Y\) explícitamente e identificar la distribución por nombre y valores de parámetros.
    2. Grafique la función de densidad de probabilidad e identifique el/los modo (s).
    3. Encuentra\(\P(Y \gt 3)\).
    Responder
    1. \(f(0) = 0.0073\),\(f(1) = 0.0686\),\(f(2) = 0.2341\),\(f(3) = 0.3641\),\(f(4) = 0.2587\),\(f(5) = 0.0673\). Hipergeométrica con\( m = 50 \)\( r = 30 \),\( n = 5 \)
    2. modo:\(y = 3\)
    3. \(\P(Y \gt 3) = 0.3260\)

    En el experimento de bola y urna, seleccione muestreo sin reemplazo y conjunto\(m = 50\),\(r = 30\), y\(n = 5\). Ejecute el experimento 1000 veces y anote la concordancia entre la función de densidad empírica\(Y\) y la función de densidad de probabilidad.

    Una urna contiene 30 bolas rojas y 20 verdes. Se selecciona una muestra de 5 bolas al azar, con reemplazo. Dejar\(Y\) denotar el número de bolas rojas en la muestra.

    1. Calcular la función de densidad de probabilidad de\(Y\) explícitamente e identificar la distribución por nombre y valores de parámetros.
    2. Grafique la función de densidad de probabilidad e identifique el/los modo (s).
    3. Encuentra\(\P(Y \gt 3)\).
    Responder
    1. \(f(0) = 0.0102\),\(f(1) = 0.0768\),\(f(2) = 0.2304\),\(f(3) = 0.3456\),\(f(4) = 0.2592\),\(f(5) = 0.0778\). Binomial con\( n = 5 \),\( p = 3/5 \)
    2. modo:\(y = 3\)
    3. \(\P(Y \gt 3) = 0.3370\)

    En el experimento de bola y urna, seleccione muestreo con reemplazo y conjunto\(m = 50\),\(r = 30\), y\(n = 5\). Ejecute el experimento 1000 veces y anote la concordancia entre la función de densidad empírica\(Y\) y la función de densidad de probabilidad.

    Un grupo de votantes está formado por 50 demócratas, 40 republicanos y 30 independientes. Se elige al azar una muestra de 10 electores, sin reemplazo. Vamos a\(X\) denotar el número de demócratas en la muestra y\(Y\) el número de republicanos en la muestra.

    1. Dar la función de densidad de probabilidad de\(X\).
    2. Dar la función de densidad de probabilidad de\(Y\).
    3. Dar la función de densidad de probabilidad de\((X, Y)\).
    4. Encuentra la probabilidad de que la muestra tenga al menos 4 demócratas y al menos 4 republicanos.
    Responder
    1. \(g(x) = \frac{\binom{50}{x} \binom{70}{10-x}}{\binom{120}{10}}\)para\(x \in \{0, 1, \ldots, 10\}\). Esta es la distribución hipergeométrica con parámetros\(m = 120\),\(r = 50\) y\(n = 10\).
    2. \(h(y) = \frac{\binom{40}{y} \binom{80}{10-y}}{\binom{120}{10}}\)para\(y \in \{0, 1, \ldots, 10\}\). Esta es la distribución hipergeométrica con parámetros\(m = 120\),\(r = 40\) y\(n = 10\).
    3. \(f(x,y) = \frac{\binom{50}{x} \binom{40}{y} \binom{30}{10 - x - y}}{\binom{120}{10}}\)para\((x,y) \in \{0, 1, \ldots, 10\}^2\) con\( x + y \le 10 \). Esta es la distribución hipergeométrica bivariada con parámetros\(m = 120\),\(r = 50\),\(s = 40\) y\(n = 10\).
    4. \(\P(X \ge 4, Y \ge 4) = \frac{15\,137\,200}{75\,597\,113} \approx 0.200\)

    El Club de Matemáticas de Enormous State University (ESU) cuenta con 20 estudiantes de primer año, 40 estudiantes de segundo año, 30 juniors y 10 seniors. Se elige al azar un comité de 8 miembros del club, sin reemplazo para organizar actividades\(\pi\) de día. Dejar\(X\) denotar el número de estudiantes de primer año en\(Y\) la muestra, el número de estudiantes de segundo año, y\(Z\) el número de juniors.

    1. Dar la función de densidad de probabilidad de\(X\).
    2. Dar la función de densidad de probabilidad de\(Y\).
    3. Dar la función de densidad de probabilidad de\(Z\).
    4. Dar la función de densidad de probabilidad de\((X, Y)\).
    5. Dar la función de densidad de probabilidad de\((X, Y, Z)\).
    6. Encuentra la probabilidad de que el comité no tenga adultos mayores.
    Responder
    1. \(f_X(x) = \frac{\binom{20}{x} \binom{80}{8-x}}{\binom{100}{8}}\)para\(x \in \{0, 1, \ldots, 8\}\). Esta es la distribución hipergeométrica con parámetros\(m = 100\),\(r = 20\), y\(n = 8\).
    2. \(f_Y(y) = \frac{\binom{40}{y} \binom{60}{8-y}}{\binom{100}{8}}\)para\(y \in \{0, 1, \ldots, 8\}\). Esta es la distribución hipergeométrica con parámetros\(m = 100\),\(r = 40\), y\(n = 8\).
    3. \(f_Z(z) = \frac{\binom{30}{z} \binom{70}{8-z}}{\binom{100}{8}}\)para\(z \in \{0, 1, \ldots, 8\}\). Esta es la distribución hipergeométrica con parámetros\(m = 100\),\(r = 30\), y\(n = 8\).
    4. \(f_{X,Y}(x,y) = \frac{\binom{20}{x} \binom{40}{y} \binom{40}{8-x-y}}{\binom{100}{8}}\)para\((x,y) \in \{0, 1, \ldots, 8\}^2 \) con\(x + y \le 8\). Esta es la distribución hipergeométrica bivariada con parámetros\(m = 100\),\(r = 20\),\(s = 40\) y\(n = 10\).
    5. \(f_{X,Y,Z}(x,y,z) = \frac{\binom{20}{x} \binom{40}{y} \binom{30}{z} \binom{10}{8-x-y-z}}{\binom{100}{8}}\)para\((x,y,z) \in \{0, 1, \ldots, 8\}^3\) con\(x + y + z \le 8\). Esta es la distribución hipergeométrica trivariable con parámetros\(m = 100\)\(r = 20\),\(s = 40\),\(t = 30\), y\(n = 8\).
    6. \(\P(X + Y + Z = 8) = \frac{156\,597\,013}{275\,935\,140} \approx 0.417\)

    Monedas y dados

    Supongamos que una moneda con probabilidad de cabezas\(p\) se lanza repetidamente, y se registra la secuencia de cabezas y colas.

    1. Identificar el modelo de probabilidad subyacente por nombre y parámetro.
    2. Vamos a\(Y\) denotar el número de cabezas en los primeros\(n\) tirados. Dar la función de densidad de probabilidad\(Y\) e identificar la distribución por nombre y parámetros.
    3. Vamos a\(N\) denotar el número de tiradas necesarias para obtener la primera cabeza. Dar la función de densidad de probabilidad\(N\) e identificar la distribución por nombre y parámetro.
    Responder
    1. Ensayos de Bernoulli con parámetro de éxito\(p\).
    2. \(f(k) = \binom{n}{k} p^k (1 - p)^{n-k}\)para\(k \in \{0, 1, \ldots, n\}\). Esta es la distribución binomial con parámetro de ensayo\(n\) y parámetro de éxito\(p\).
    3. \(g(n) = p (1 - p)^{n-1}\)para\(n \in \N_+\). Este es el parámetro de distribución geométrica con éxito\(p\).

    Supongamos que una moneda con probabilidad de cabezas\(p = 0.4\) es arrojada 5 veces. Vamos a\(Y\) denotar el número de cabezas.

    1. Calcular la función de densidad de probabilidad de\(Y\) explícitamente.
    2. Grafica la función de densidad de probabilidad e identifica el modo.
    3. Encuentra\(\P(Y \gt 3)\).
    Responder
    1. \(f(0) = 0.0778\),\(f(1) = 0.2592\),\(f(2) = 0.3456\),\(f(3) = 0.2304\),\(f(4) = 0.0768\),\(f(5) = 0.0102\)
    2. modo:\(k = 2\)
    3. \(\P(Y \gt 3) = 0.0870\)

    En el experimento binomial de monedas, set\(n = 5\) y\(p = 0.4\). Ejecutar el experimento 1000 veces y comparar la función de densidad empírica de\(Y\) con la función de densidad de probabilidad.

    Supongamos que una moneda con probabilidad de cabezas\(p = 0.2\) es arrojada hasta que se producen cabezas. Vamos a\(N\) denotar el número de lanzamientos.

    1. Encuentra la función de densidad de probabilidad de\(N\).
    2. Encuentra\(\P(N \le 5)\).
    Responder
    1. \(f(n) = (0.8)^{n-1} 0.2\)para\( n \in \N_+ \)
    2. \(\P(N \le 5) = 0.67232\)

    En el experimento binomial negativo, conjunto\(k = 1\) y\(p = 0.2\). Ejecute el experimento 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Supongamos que se lanzan dos dados justos y estándar y se\((X_1, X_2)\) registra la secuencia de puntuaciones. Dejar\(Y = X_1 + X_2\) denotar la suma de las puntuaciones,\(U = \min\{X_1, X_2\}\) la puntuación mínima y\(V = \max\{X_1, X_2\}\) la puntuación máxima.

    1. Encuentra la función de densidad de probabilidad de\((X_1, X_2)\). Identificar la distribución por nombre.
    2. Encuentra la función de densidad de probabilidad de\(Y\).
    3. Encuentra la función de densidad de probabilidad de\(U\).
    4. Encuentra la función de densidad de probabilidad de\(V\).
    5. Encuentra la función de densidad de probabilidad de\((U, V)\).
    Responder

    Denotamos los PDF por\(f\),\(g\),\(h_1\)\(h_2\), y\(h\) respectivamente.

    1. \(f(x_1, x_2) = \frac{1}{36}\)para\((x_1,x_2) \in \{1, 2, 3, 4, 5, 6\}^2\). Esta es la distribución uniforme en\(\{1, 2, 3, 4, 5, 6\}^2\).
    2. \(g(2) = g(12) = \frac{1}{36}\),\(g(3) = g(11) = \frac{2}{36}\),\(g(4) = g(10) = \frac{3}{36}\),\(g(5) = g(9) = \frac{4}{36}\),\(g(6) = g(8) = \frac{5}{36}\),\(g(7) = \frac{6}{36}\)
    3. \(h_1(1) = \frac{11}{36}\),\(h_1(2) = \frac{9}{36}\),\(h_1(3) = \frac{7}{36}\),\(h_1(4) = \frac{5}{36}\),\(h_1(5) = \frac{3}{36}\),\(h_1(6) = \frac{1}{36}\)
    4. \(h_2(1) = \frac{1}{36}\),\(h_2(2) = \frac{3}{36}\),\(h_2(3) = \frac{5}{36}\),\(h_2(4) = \frac{7}{36}\),\(h_2(5) = \frac{9}{36}\),\(h_2(6) = \frac{11}{36}\)
    5. \(h(u,v) = \frac{2}{36}\)si\(u \lt v\),\(h(u, v) = \frac{1}{36}\) si\(u = v\) donde\((u, v) \in \{1, 2, 3, 4, 5, 6\}^2\) con\(u \le v\)

    Obsérvese que\((U, V)\) en el último ejercicio podría servir como resultado del experimento que consiste en lanzar dos dados estándar si no nos molestamos en registrar orden. Observe del ejercicio anterior que este vector aleatorio no tiene una distribución uniforme cuando los dados son justos. La idea equivocada de que este vector debería tener la distribución uniforme fue la causa de dificultades en el desarrollo temprano de la probabilidad.

    En el experimento de dados, seleccione dados\(n = 2\) justos. Seleccione las siguientes variables aleatorias y anote la forma y ubicación de la función de densidad de probabilidad. Ejecuta el experimento 1000 veces. Para cada una de las siguientes variables, compare la función de densidad empírica con la función de densidad de probabilidad.

    1. \(Y\), la suma de los puntajes.
    2. \(U\), la puntuación mínima.
    3. \(V\), la puntuación máxima.

    En el experimento de troquelado, se enrolla un dado estándar justo y luego se lanza una moneda justa el número de veces que se muestra en el dado. Dejar\(N\) denotar la puntuación del dado y\(Y\) el número de cabezas.

    1. Encuentra la función de densidad de probabilidad de\(N\). Identificar la distribución por nombre.
    2. Encuentra la función de densidad de probabilidad de\(Y\).
    Responder
    1. \(g(n) = \frac{1}{6}\)para\(n \in \{1, 2, 3, 4, 5, 6\}\). Esta es la distribución uniforme en\(\{1, 2, 3, 4, 5, 6\}\).
    2. \(h(0) = \frac{63}{384}\),\(h(1) = \frac{120}{384}\),\(h(2) = \frac{90}{384}\),\(h(3) = \frac{64}{384}\),\(h(4) = \frac{29}{384}\),\(h(5) = \frac{8}{384}\),\(h(6) = \frac{1}{384}\)

    Ejecuta el experimento de troquelado 1000 veces. Para el número de cabezas, compare la función de densidad empírica con la función de densidad de probabilidad.

    Supongamos que una bolsa contiene 12 monedas: 5 son justas, 4 están sesgadas con probabilidad de cabezas\(\frac{1}{3}\); y 3 son de dos cabezas. Una moneda se elige al azar de la bolsa y se lanza 5 veces. Dejar\(V\) denotar la probabilidad de cabezas de la moneda seleccionada y dejar\(Y\) denotar el número de cabezas.

    1. Encuentra la función de densidad de probabilidad de\(V\).
    2. Encuentra la función de densidad de probabilidad de\(Y\).
    Responder
    1. \(g(1/2) = 5/12\),\(g(1/3) = 4/12\),\(g(1) = 3/12\)
    2. \(h(0) = 5311/93312\),\(h(1) = 16315/93312\),\(h(2) = 22390/93312\),\(h(3) = 17270/93312\),\(h(4) = 7355/93312\),\(h(5) = 24671/93312\)

    Compara el experimento de troquelado con el experimento de bolsa de monedas. En el primer experimento, lanzamos una moneda con una probabilidad fija de cabezas un número aleatorio de veces. En el segundo experimento, lanzamos efectivamente una moneda con una probabilidad aleatoria de cabezas un número fijo de veces. En ambos casos, podemos pensar en comenzar con una distribución binomial y aleatorizar uno de los parámetros.

    En el experimento de troqueles de monedas, se lanza una moneda justa. Si la moneda aterriza colas, se enrolla un dado justo. Si la moneda aterriza cabezas, se lanza un troquel plano ace-seis (las caras 1 y 6 tienen probabilidad\(\frac{1}{4}\) cada una, mientras que las caras 2, 3, 4, 5 tienen probabilidad\(\frac{1}{8}\) cada una). Encuentra la función de densidad de probabilidad de la puntuación de troqueles\(Y\).

    Responder

    \(f(y) = 5/24\)para\( y \in \{1,6\}\),\(f(y) = 7/24\) para\(y \in \{2, 3, 4, 5\}\)

    Ejecuta el experimento de troqueles 1000 veces, con los ajustes del ejercicio anterior. Comparar la función de densidad empírica con la función de densidad de probabilidad.

    Supongamos que un dado estándar es arrojado 10 veces. Dejar\(Y\) denotar el número de veces que ocurrió un as o un seis. Indique la función de densidad de probabilidad\(Y\) e identifique la distribución por nombre y valores de parámetros en cada uno de los siguientes casos:

    1. El dado es justo.
    2. El dado es un plano de ace-seis.
    Responder
    1. \(f(k) = \binom{10}{k} \left(\frac{1}{3}\right)^k \left(\frac{2}{3}\right)^{10-k}\)para\(k \in \{0, 1, \ldots, 10\}\). Esta es la distribución binomial con parámetro de ensayo\(n = 10\) y parámetro de éxito\(p = \frac{1}{3}\)
    2. \(f(k) = \binom{10}{k} \left(\frac{1}{2}\right)^{10}\)para\(k \in \{0, 1, \ldots, 10\}\). Esta es la distribución binomial con parámetro de ensayo\(n = 10\) y parámetro de éxito\(p = \frac{1}{2}\)

    Supongamos que se lanza un dado estándar hasta que se produce un as o un seis. Vamos a\(N\) denotar el número de lanzamientos. Indique la función de densidad de probabilidad\(N\) e identifique la distribución por nombre y valores de parámetros en cada uno de los siguientes casos:

    1. El dado es justo.
    2. El dado es un plano de ace-seis.
    Responder
    1. \(g(n) = \left(\frac{2}{3}\right)^{n-1} \frac{1}{3}\)para\(n \in \N_+\). Este es el parámetro de distribución geométrica con éxito\(p = \frac{1}{3}\)
    2. \(g(n) = \left(\frac{1}{2}\right)^n\)para\(n \in \N_+\). Este es el parámetro de distribución geométrica con éxito\(p = \frac{1}{2}\)

    Fred y Wilma se turnan para lanzar una moneda con probabilidad de cabezas\(p \in (0, 1)\): Fred primero, luego Wilma, luego Fred otra vez, y así sucesivamente. La primera persona en lanzar cabezas gana el juego. Vamos a\(N\) denotar el número de tiradas, y\(W\) el evento que gana Wilma.

    1. Dar la función de densidad de probabilidad\(N\) e identificar la distribución por nombre.
    2. Calcular\(\P(W)\) y bosquejar la gráfica de esta probabilidad en función de\(p\).
    3. Encuentra la función de densidad de probabilidad condicional de\(N\) dado\(W\).
    Responder
    1. \(f(n) = p(1 - p)^{n-1}\)para\(n \in \N_+\). Este es el parámetro de distribución geométrica con éxito\(p\).
    2. \(\P(W) = \frac{1-p}{2-p}\)
    3. \(f(n \mid W) = p (2 - p) (1 - p)^{n-2}\)para\(n \in \{2, 4, \ldots\}\)

    El juego alternante de lanzamiento de monedas se estudia con más detalle en la sección sobre La distribución geométrica en el capítulo sobre los ensayos de Bernoulli.

    Supongamos que cada\(k\) jugador tiene una moneda con probabilidad de cabezas\(p\), dónde\(k \in \{2, 3, \ldots\}\) y dónde\(p \in (0, 1)\).

    1. Supongamos que los jugadores lanzan sus monedas al mismo tiempo. Encuentra la probabilidad de que haya un hombre extraño, es decir, un jugador con un resultado diferente al resto.
    2. Supongamos ahora que los jugadores repiten el procedimiento en la parte (a) hasta que haya un hombre extraño. Encuentra la función de densidad de probabilidad de\(N\), el número de rondas jugadas e identifica la distribución por nombre.
    Responder
    1. La probabilidad es\(2 p (1 - p)\) si\(k = 2\), y es\(k p (1 - p)^{k-1} + k p^{k-1} (1 - p)\) si\(k \gt 2\).
    2. Dejar\(r_k\) denotar la probabilidad en la parte (a). \(N\)tiene PDF\(f(n) = (1 - r_k)^{n-1} r_k\) para\(n \in \N\), y tiene la distribución geométrica con parámetro\( r_k \).

    El extraño juego de man out se trata con más detalle en la sección sobre la Distribución Geométrica en el capítulo sobre Ensayos de Bernoulli.

    Tarjetas

    Recordemos que una mano de póquer consiste en 5 cartas elegidas al azar y sin reemplazo de una baraja estándar de 52 cartas. Dejar\(X\) denotar el número de espadas en la mano y\(Y\) el número de corazones en la mano. Indique la función de densidad de probabilidad de cada una de las siguientes variables aleatorias e identifique la distribución por su nombre:

    1. \(X\)
    2. \(Y\)
    3. \((X, Y)\)
    Responder
    1. \(g(x) = \frac{\binom{13}{x} \binom{39}{5-x}}{\binom{52}{5}}\)para\(x \in \{0, 1, 2, 3, 4, 5\}\). Esta es la distribución hipergeométrica con tamaño de población\(m = 52\)\(r = 13\), parámetro de tipo y tamaño de muestra\(n = 5\)
    2. \(h(y) = \frac{\binom{13}{y} \binom{39}{5-y}}{\binom{52}{5}}\)para\(y \in \{0, 1, 2, 3, 4, 5\}\). Esta es la misma distribución hipergeométrica que en la parte (a).
    3. \(f(x, y) = \frac{\binom{13}{x} \binom{13}{y} \binom{26}{5-x-y}}{\binom{52}{5}}\)para\((x,y) \in \{0, 1, 2, 3, 4, 5\}^2\) con\(x + y \le 5\). Se trata de una distribución hipergeométrica bivariada.

    Recordemos que una mano de puente consiste en 13 cartas elegidas al azar y sin reemplazo de una baraja estándar de 52 cartas. Una tarjeta de honor es una tarjeta de denominación as, rey, reina, jota o 10. Dejar\(N\) denotar el número de tarjetas de honor en la mano.

    1. Encuentra la función de densidad de probabilidad\(N\) e identifica la distribución por nombre.
    2. Encuentra la probabilidad de que la mano no tenga tarjetas de honor. Una mano de este tipo es conocida como Yarborough, en honor al Segundo Conde de Yarborough.
    Responder
    1. \(f(n) = \frac{\binom{20}{n} \binom{32}{13-n}}{\binom{52}{13}}\)para\(n \in \{0, 1, \ldots, 13\}\). Esta es la distribución hipergeométrica con tamaño de población\(m = 52\), parámetro de tipo\(r = 20\) y tamaño de muestra\(n = 13\).
    2. 0.00547

    En el sistema de puntos altos de carta más común en bridge, un as vale 4 puntos, un rey vale 3 puntos, una reina vale 2 puntos, y un gato vale 1 punto. Encuentra la función de densidad de probabilidad de\(V\), el valor de punto de una mano de puente aleatorio.

    Confiabilidad

    Supongamos que en un lote de 500 componentes, 20 son defectuosos y el resto son buenos. Se selecciona al azar una muestra de 10 componentes y se prueba. Dejar\(X\) denotar el número de defectivos en la muestra.

    1. Encuentre la función de densidad de probabilidad\(X\) e identifique la distribución por nombre y valores de parámetros.
    2. Encuentra la probabilidad de que la muestra contenga al menos un componente defectuoso.
    Responder
    1. \(f(x) = \frac{\binom{20}{x} \binom{480}{10-x}}{\binom{500}{10}}\)para\(x \in \{0, 1, \ldots, 10\}\). Esta es la distribución hipergeométrica con el tamaño de la población\(m = 500\), el parámetro\(r = 20\) tipo y el tamaño de la muestra\(n = 10\).
    2. \(\P(X \ge 1) = 1 - \frac{\binom{480}{10}}{\binom{500}{10}} \approx = 0.3377\)

    Una planta cuenta con 3 líneas de montaje que producen cierto tipo de componente. La línea 1 produce el 50% de los componentes y tiene una tasa de defectos del 4%; la línea 2 produce el 30% de los componentes y tiene una tasa de defectos del 5%; la línea 3 produce el 20% de los componentes y tiene una tasa de defectos del 1%. Un componente se elige al azar de la planta y se prueba.

    1. Encuentra la probabilidad de que el componente esté defectuoso.
    2. Dado que el componente es defectuoso, encuentre la función de densidad de probabilidad condicional de la línea que produjo el componente.
    Responder

    Dejar\(D\) el evento de que el artículo es defectuoso, y\(f(\cdot \mid D)\) el PDF del número de línea dado\(D\).

    1. \(\P(D) = 0.037\)
    2. \(f(1 \mid D) = 0.541\),\(f(2 \mid D) = 0.405\),\(f(3 \mid D) = 0.054\)

    Recordemos que en el modelo estándar de confiabilidad estructural, un sistema consta de\(n\) componentes, cada uno de los cuales, independientemente de los demás, está funcionando por fallido. Dejar\(X_i\) denotar el estado del componente\(i\), donde 1 significa trabajar y 0 significa fallido. Así, el vector de estado es\(\bs{X} = (X_1, X_2, \ldots, X_n)\). El sistema en su conjunto también está funcionando o falló, dependiendo únicamente de los estados de los componentes. Así, el estado del sistema es una variable aleatoria indicadora\(U = u(\bs{X})\) que depende de los estados de los componentes según una función de estructura\(u: \{0,1\}^n \to \{0, 1\}\). En un sistema en serie, el sistema funciona si y solo si todos los componentes funcionan. En un sistema paralelo, el sistema funciona si y solo si al menos un componente funciona. En un sistema \(k\)fuera de\(n\) sistema, el sistema funciona si y solo si al menos\(k\) de los\(n\) componentes funcionan.

    La fiabilidad de un dispositivo es la probabilidad de que esté funcionando. Dejar\(p_i = \P(X_i = 1)\) denotar la confiabilidad del componente\(i\), por lo que ese\(\bs{p} = (p_1, p_2, \ldots, p_n)\) es el vector de las fiabilidades de los componentes. Debido al supuesto de independencia, la confiabilidad del sistema depende únicamente de las fiabilidades de los componentes, de acuerdo con una función de confiabilidad\(r(\bs{p}) = \P(U = 1)\). Tenga en cuenta que cuando todas las fiabilidades de los componentes tienen el mismo valor\(p\), los estados de los componentes forman una secuencia de ensayos de\(n\) Bernoulli. En este caso, la confiabilidad del sistema es, por supuesto, una función de la confiabilidad de los componentes comunes\(p\).

    Supongamos que todas las fiabilidades de los componentes tienen el mismo valor\(p\). Dejar\(\bs{X}\) denotar el vector de estado y\(Y\) denotar el número de componentes de trabajo.

    1. Dar la función de densidad de probabilidad de\(\bs{X}\).
    2. Dar la función de densidad de probabilidad\(Y\) e identificar la distribución por nombre y parámetro.
    3. Encuentre la confiabilidad del sistema\(k\) fuera del\(n\) sistema.
    Responder
    1. \(f(x_1, x_2, \ldots, x_n) = p^y (1 - p)^{n-y}\)para\((x_1, x_2, \ldots, x_n) \in \{0, 1\}^n\) donde\(y = x_1 + x_2 \cdots + x_n\)
    2. \(g(k) = \binom{n}{y} p^y (1 - p)^{n-y}\)para\(y \in \{0, 1, \ldots, n\}\). Esta es la distribución binomial con parámetro de ensayo\(n\) y parámetro de éxito\(p\).
    3. \(r(p) = \sum_{i=k}^n \binom{n}{i} p^i (1 - p)^{n-i}\)

    Supongamos que tenemos 4 componentes independientes, con confiabilidad común\(p = 0.8\). Dejar\(Y\) denotar el número de componentes de trabajo.

    1. Encuentra la función de densidad de probabilidad de\(Y\) explícitamente.
    2. Encuentre la confiabilidad del sistema paralelo.
    3. Encuentre la confiabilidad del sistema 2 de 4.
    4. Encuentre la confiabilidad del sistema 3 de 4.
    5. Encuentre la confiabilidad del sistema en serie.
    Responder
    1. \(g(0) = 0.0016\),\(g(1) = 0.0256\),\(g(2) = 0.1536\),\(g(3) = g(4) = 0.4096\)
    2. \(r_{4,1} = 0.9984\)
    3. \(r_{4,2} = 0.9729\)
    4. \(r_{4,3} = 0.8192\)
    5. \(r_{4,4} = 0.4096\)

    Supongamos que tenemos 4 componentes independientes, con fiabilidades\(p_1 = 0.6\)\(p_2 = 0.7\),\(p_3 = 0.8\), y\(p_4 = 0.9\). Dejar\(Y\) denotar el número de componentes de trabajo.

    1. Encuentra la función de densidad de probabilidad de\(Y\).
    2. Encuentre la confiabilidad del sistema paralelo.
    3. Encuentre la confiabilidad del sistema 2 de 4.
    4. Encuentre la confiabilidad del sistema 3 de 4.
    5. Encuentre la confiabilidad del sistema en serie.
    Responder
    1. \(g(0) = 0.0024\),\(g(1) = 0.0404\),\(g(2) = 0.2.144\),\(g(3) = 0.4404\),\(g(4) = 0.3024\)
    2. \(r_{4,1} = 0.9976\)
    3. \(r_{4,2} = 0.9572\)
    4. \(r_{4,3} = 0.7428\)
    5. \(r_{4,4} = 0.3024\)

    La distribución de Poisson

    Supongamos que\( a \gt 0 \). Definir\( f \) por\[f(n) = e^{-a} \frac{a^n}{n!}, \quad n \in \N\]

    1. \(f\)es una función de densidad de probabilidad.
    2. \(f(n - 1) \lt f(n)\)si y sólo si\(n \lt a\).
    3. Si no\(a\) es un entero positivo, hay un modo único en\(\lfloor a \rfloor\)
    4. Si\(a\) es un entero positivo, hay dos modos en\(a - 1\) y\(a\).
    Prueba
    1. Recordar del cálculo, la serie exponencial\[ \sum_{n=0}^\infty \frac{a^n}{n!} = e^a \] Por lo tanto,\( f \) es una función de densidad de probabilidad.
    2. Tenga en cuenta que\( f(n - 1) \lt f(n) \) si y solo\( \frac{a^{n-1}}{(n - 1)!} \lt \frac{a^n}{n!} \) si y solo si\( 1 \lt \frac{a}{n} \).
    3. Por el mismo argumento,\( f(n - 1) = f(n) \) si y sólo si\( a = n \). Si no\( a \) es un entero positivo esto no puede suceder. De ahí, dejando\( k = \lfloor a \rfloor\), se deduce de (b) que\( f(n) \lt f(k) \) si\( n \lt k \) o\( n \gt k \).
    4. Si\( a \) es un entero positivo, entonces\( f(a - 1) = f(a) \). De (b),\( f(n) \lt f(a - 1) \) si\( n \lt a - 1 \) y\( f(n) \lt f(a) \) si\( n \gt a \).

    La distribución definida por la función de densidad de probabilidad en el ejercicio anterior es la distribución de Poisson con parámetro\(a\), que lleva el nombre de Simeon Poisson. Tenga en cuenta que al igual que las otras distribuciones nombradas que estudiamos anteriormente (hipergeométricas y binomiales), la distribución de Poisson es unimodal: la función de densidad de probabilidad al principio aumenta y luego disminuye, ya sea con un solo modo o con dos modos adyacentes. La distribución de Poisson se estudia en detalle en el Capítulo sobre Procesos de Poisson, y se utiliza para modelar el número de puntos aleatorios en una región de tiempo o espacio, bajo ciertas condiciones ideales. El parámetro\(a\) es proporcional al tamaño de la región de tiempo o espacio.

    Supongamos que los clientes llegan a una estación de servicio según el modelo Poisson, a una tarifa promedio de 4 por hora. Así, el número de clientes\(N\) que llegan en un periodo de 2 horas tiene la distribución de Poisson con el parámetro 8.

    1. Encuentra los modos.
    2. Encuentra\(\P(N \ge 6)\).
    Responder
    1. modos: 7, 8
    2. \(\P(N \gt 6) = 0.8088\)

    En el experimento de Poisson, set\(r = 4\) y\(t = 2\). Ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

    Supongamos que el número de defectos\(N\) en una pieza de tela de cierto tamaño tiene la distribución de Poisson con el parámetro 2.5.

    1. Encuentra el modo.
    2. Encuentra\(\P(N \gt 4)\).
    Responder
    1. modo: 2
    2. \(\P(N \gt 4) = 0.1088\)

    Supongamos que el número de pasas\(N\) en un trozo de pastel tiene la distribución de Poisson con el parámetro 10.

    1. Encuentra los modos.
    2. Encuentra\(\P(8 \le N \le 12)\).
    Responder
    1. modos: 9, 10
    2. \(\P(8 \le N \le 12) = 0.5713\)

    A Zeta Distribución

    Dejar\(g\) ser la función definida por\(g(n) = \frac{1}{n^2}\) for\(n \in \N_+\).

    1. Encuentra la función de densidad de probabilidad\(f\) que es proporcional a\(g\).
    2. Encuentra el modo de distribución.
    3. Encuentra\(\P(N \le 5)\) dónde\(N\) tiene función de densidad de probabilidad\(f\).
    Responder
    1. \(f(n) = \frac{6}{\pi^2 n^2}\)para\(n \in \N_+\). Recordemos que\(\sum_{n=1}^\infty \frac{1}{n^2} = \frac{\pi^2}{6}\)
    2. Modo\(n = 1\)
    3. \(\P(N \le 5) = \frac{5269}{600 \pi^2}\)

    La distribución definida en el ejercicio anterior es un miembro de la familia zeta de distribuciones. Las distribuciones Zeta se utilizan para modelar tamaños o rangos de ciertos tipos de objetos, y se estudian con más detalle en el capítulo sobre Distribuciones especiales.

    Ley de Benford

    Dejar\(f\) ser la función definida por\(f(d) = \log(d + 1) - \log(d) = \log\left(1 + \frac{1}{d}\right)\) for\(d \in \{1, 2, \ldots, 9\}\). (La función logaritmo es el logaritmo común base 10, no el logaritmo\(e\) natural base).

    1. Mostrar que\(f\) es una función de densidad de probabilidad.
    2. Calcular los valores de\(f\) explícitamente, y bosquejar la gráfica.
    3. Encuentra\(\P(X \le 3)\) dónde\(X\) tiene función de densidad de probabilidad\(f\).
    Responder
    1. Tenga en cuenta que\( \sum_{d=1}^9 f(d) = \log(10) = 1 \). La suma colapsa.
    2. \(d\) 1 2 3 4 5 6 7 8 9
      \(f(d)\) 0.3010 0.1761 0.1249 0.0969 0.0792 0.0669 0.0580 0.0512 0.0458
    3. \(\log(4) \approx 0.6020\)

    La distribución definida en el ejercicio anterior se conoce como ley de Benford, y lleva el nombre del físico e ingeniero estadounidense Frank Benford. Esta distribución gobierna el dígito principal en muchos conjuntos reales de datos. La ley de Benford se estudia con más detalle en el capítulo de Distribuciones Especiales.

    Ejercicios de Análisis de Datos

    En los datos de M&M, vamos a\(R\) denotar el número de caramelos rojos y\(N\) el número total de caramelos. Calcular y graficar la función de densidad de probabilidad empírica de cada uno de los siguientes:

    1. \(R\)
    2. \(N\)
    3. \(R\)dado\(N \gt 57\)
    Responder

    Denotamos el PDF de\(R\) by\(f\) y el PDF de\(N\) by\(g\)

    1. \(r\) 3 4 5 6 8 9 10 11 12 14 15 20
      \(f(r)\) \(\frac{1}{30}\) \(\frac{3}{30}\) \(\frac{3}{30}\) \(\frac{2}{30}\) \(\frac{4}{30}\) \(\frac{5}{30}\) \(\frac{2}{30}\) \(\frac{1}{30}\) \(\frac{3}{30}\) \(\frac{3}{30}\) \(\frac{3}{30}\) \(\frac{1}{30}\)
    2. \(n\) 50 53 54 55 56 57 58 59 60 61
      \(g(n)\) \(\frac{1}{30}\) \(\frac{1}{30}\) \(\frac{1}{30}\) \(\frac{4}{30}\) \(\frac{4}{30}\) \(\frac{3}{30}\) \(\frac{9}{30}\) \(\frac{3}{30}\) \(\frac{2}{30}\) \(\frac{2}{30}\)
    3. \(r\) 3 4 6 8 9 11 12 14 15
      \(f(r \mid N \gt 57)\) \(\frac{1}{16}\) \(\frac{1}{16}\) \(\frac{1}{16}\) \(\frac{3}{16}\) \(\frac{3}{16}\) \(\frac{1}{16}\) \(\frac{1}{16}\) \(\frac{3}{16}\) \(\frac{2}{16}\)

    En los datos de Cicada, let\(G\) denota género, tipo de\(S\) especie y peso\(W\) corporal (en gramos). Calcular la función de densidad de probabilidad empírica de cada uno de los siguientes:

    1. \(G\)
    2. \(S\)
    3. \((G, S)\)
    4. \(G\)dados\(W \gt 0.20\) gramos.
    Responder

    Denotamos el PDF de\(G\) por\(g\), el PDF de\(S\) por\(h\) y el PDF de\((G, S)\) por\(f\).

    1. \(g(0) = \frac{59}{104}\),\(g(1) = \frac{45}{104}\)
    2. \(h(0) = \frac{44}{104}\),\(h(1) = \frac{6}{104}\),\(h(2) = \frac{54}{104}\)
    3. \(f(0, 0) = \frac{16}{104}\),\(f(0, 1) = \frac{3}{104}\),\(f(0, 2) = \frac{40}{104}\),\(f(1, 0) = \frac{28}{104}\),\(f(1, 1) = \frac{3}{104}\),\(f(1, 2) = \frac{14}{104}\)
    4. \(g(0 \mid W \gt 0.2) = \frac{31}{73}\),\(g(1 \mid W \gt 0.2) = \frac{42}{73}\)

    This page titled 3.1: Distribuciones Discretas is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.