Saltar al contenido principal

# 5.21: La distribución uniforme en un intervalo

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
$$\newcommand{\R}{\mathbb{R}}$$$$\newcommand{\N}{\mathbb{N}}$$$$\newcommand{\E}{\mathbb{E}}$$$$\newcommand{\P}{\mathbb{P}}$$$$\newcommand{\var}{\text{var}}$$$$\newcommand{\sd}{\text{sd}}$$$$\newcommand{\cov}{\text{cov}}$$$$\newcommand{\cor}{\text{cor}}$$$$\newcommand{\skw}{\text{skew}}$$$$\newcommand{\kur}{\text{kurt}}$$$$\newcommand{\bs}{\boldsymbol}$$

La distribución uniforme continua en un intervalo de$$\R$$ es una de las distribuciones de probabilidad más simples, pero sin embargo muy importante. En particular, las distribuciones uniformes continuas son las herramientas básicas para simular otras distribuciones de probabilidad. La distribución uniforme corresponde a escoger un punto al azar del intervalo. La distribución uniforme en un intervalo es un caso especial de la distribución uniforme general con respecto a una medida, en este caso Lebesgue medida (medida de longitud) on$$\R$$.

## La distribución uniforme estándar

### Definición

La distribución uniforme continua en el intervalo$$[0, 1]$$ se conoce como la distribución uniforme estándar. Así, si$$U$$ tiene la distribución uniforme estándar entonces$\P(U \in A) = \lambda(A)$ para cada (Borel mensurable) subconjunto$$A$$ de$$[0, 1]$$, donde$$\lambda$$ es Lebesgue (longitud) medida.

Una simulación de una variable aleatoria con la distribución uniforme estándar se conoce en informática como un número aleatorio. Todos los lenguajes de programación tienen funciones para calcular números aleatorios, al igual que las calculadoras, las hojas de cálculo y los paquetes de software matemáticos y estadísticos.

### Funciones de distribución

Supongamos que$$U$$ tiene la distribución uniforme estándar. Por definición, la función de densidad de probabilidad es constante en$$[0, 1]$$.

$$U$$tiene función de densidad de probabilidad$$g$$ dada por$$g(u) = 1$$ for$$u \in [0, 1]$$.

Dado que la función de densidad es constante, el modo no es significativo.

Abra el Simulador de Distribución Especial y seleccione la distribución uniforme continua. Mantener los valores predeterminados de los parámetros. Ejecute la simulación 1000 veces y compare la función de densidad empírica y la función de densidad de probabilidad.

La función de distribución es simplemente la función de identidad encendida$$[0, 1]$$.

$$U$$tiene función de distribución$$G$$ dada por$$G(u) = u$$ for$$u \in [0, 1]$$.

Prueba

Tenga en cuenta que$$\P(U \le u) = \lambda[0, u] = u$$ para$$u \in [0, 1]$$. Recordemos nuevamente que$$\lambda$$ es la medida de la longitud.

La función cuantil es la misma que la función de distribución.

$$U$$tiene función cuantil$$G^{-1}$$ dada por$$G^{-1}(p) = p$$ for$$p \in [0, 1]$$. Los cuartiles son

1. $$q_1 = \frac{1}{4}$$, el primer cuartil
2. $$q_2 = \frac{1}{2}$$, la mediana
3. $$q_3 = \frac{3}{4}$$, el tercer cuartil
Prueba

$$G^{-1}$$es el inverso ordinario de$$G$$ sobre el intervalo$$[0, 1]$$, que es en$$G$$ sí mismo ya que$$G$$ es la función de identidad.

Abra la Calculadora de Distribución Especial y seleccione la distribución uniforme continua. Mantener los valores predeterminados de los parámetros. Calcular algunos valores de la función de distribución y la función cuantil.

### Momentos

Supongamos nuevamente que$$U$$ tiene la distribución uniforme estándar. Los momentos (alrededor de 0) son simples.

Para$$n \in \N$$,$\E\left(U^n\right) = \frac{1}{n + 1}$

Prueba

Dado que el PDF es 1 en adelante$$[0, 1]$$,$\E\left(U^n\right) = \int_0^1 u^n \, du = \frac{1}{n + 1}$

La media y varianza siguen fácilmente desde la fórmula general del momento.

La media y varianza$$U$$ de

1. $$\E(U) = \frac{1}{2}$$
2. $$\var(U) = \frac{1}{12}$$

Abra el Simulador de Distribución Especial y seleccione la distribución uniforme continua. Mantener los valores predeterminados de los parámetros. Ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media verdadera y la desviación estándar.

A continuación están la asimetría y curtosis.

La asimetría y curtosis$$U$$ de

1. $$\skw(U) = 0$$
2. $$\kur(U) = \frac{9}{5}$$
Prueba
1. Esto se desprende de la simetría de la distribución sobre la media$$\frac{1}{2}$$.
2. Esto se desprende de la fórmula habitual para la curtosis en términos de los momentos, o directamente, desde$$\sigma^4 = \frac{1}{144}$$ y$\E\left[\left(U - \frac{1}{2}\right)^4\right] = \int_0^1 \left(x - \frac{1}{2}\right)^4 dx = \frac{1}{80}$

Así, el exceso de curtosis es$$\kur(U) - 3 = -\frac{6}{5}$$

Por último, le damos la función de generación de momento.

La función$$m$$ de generación de momento$$U$$ está dada por$$m(0) = 1$$ y$m(t) = \frac{e^t - 1}{t}, \quad t \in \R \setminus \{0\}$

Prueba

Nuevamente, ya que el PDF es 1 en$$[0, 1]$$$\E\left(e^{t U}\right) = \int_0^1 e^{t u} du = \frac{e^t - 1}{t}, \quad t \ne 0$ Trivialmente$$m(0) = 1$$.

La distribución uniforme estándar está conectada a cualquier otra distribución de probabilidad$$\R$$ por medio de la función cuantil de la otra distribución. Cuando la función quantile tiene una simple expresión de forma cerrada, este resultado forma el método primario de simular la otra distribución con un número aleatorio.

Supongamos que$$F$$ es la función de distribución para una distribución de probabilidad en$$\R$$, y que$$F^{-1}$$ es la función cuantil correspondiente. Si$$U$$ tiene la distribución uniforme estándar, entonces$$X = F^{-1}(U)$$ tiene función de distribución$$F$$.

Prueba

Una propiedad básica de las funciones cuantiles es que$$F(x) \le p$$ si y solo si$$x \le F^{-1}(p)$$ para$$x \in \R$$ y$$p \in (0, 1)$$. De ahí que, de la función de distribución de$$U$$,$\P(X \le x) = \P\left[F^{-1}(U) \le x\right] = \P[U \le F(x)] = F(x), \quad x \in \R$

Abre el Experimento de Cuantil Aleatorio. Para cada distribución, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad de la distribución seleccionada. Observe cómo los cuantiles aleatorios simulan la distribución.

Para una distribución continua en un intervalo de$$\R$$, la conexión va en sentido contrario.

Supongamos que$$X$$ tiene una distribución continua en un intervalo$$I \subseteq \R$$, con función de distribución$$F$$. Después$$U = F(X)$$ tiene la distribución uniforme estándar.

Prueba

Para$$u \in (0, 1)$$ recordar eso$$F^{-1}(u)$$ es un cuantil de orden$$u$$. Ya que$$X$$ tiene una distribución continua,$\P(U \ge u) = \P[F(X) \ge u] = \P[X \ge F^{-1}(u)] = 1 - F[F^{-1}(u)] = 1 - u$ por lo tanto$$U$$ se distribuye uniformemente en$$(0, 1)$$.

La distribución uniforme estándar es un caso especial de la distribución beta.

La distribución beta con parámetro izquierdo$$a = 1$$ y parámetro derecho$$b = 1$$ es la distribución uniforme estándar.

Prueba

La distribución beta con parámetros$$a \gt 0$$ y$$b \gt 0$$ tiene PDF$x \mapsto \frac{1}{B(a, b)} x^{a-1} (1 - x)^{b-1}, \quad x \in (0, 1)$ donde$$B$$ está la función beta. Con$$a = b = 1$$, el PDF es el PDF uniforme estándar.

La distribución uniforme estándar es también el bloque de construcción de las distribuciones Irwin-Hall.

## La distribución uniforme en un intervalo general

### Definición

La distribución uniforme estándar se generaliza mediante la adición de parámetros de escala de ubicación.

Supongamos que$$U$$ tiene la distribución uniforme estándar. Para$$a \in \R$$ y variable$$w \in (0, \infty)$$ aleatoria$$X = a + w U$$ tiene la distribución uniforme con parámetro de ubicación$$a$$ y parámetro de escala$$w$$.

### Funciones de distribución

Supongamos que$$X$$ tiene la distribución uniforme con parámetro de ubicación$$a \in \R$$ y parámetro de escala$$w \in (0, \infty)$$.

$$X$$tiene función de densidad de probabilidad$$f$$ dada por$$f(x) = 1/w$$ for$$x \in [a, a + w]$$.

Prueba

Recordemos que$$f(x) = \frac{1}{w} g\left(\frac{x - a}{w}\right)$$ para$$x \in [a, a + w]$$, donde$$g$$ esta el uniforme estándar PDF. Pero$$g(u) = 1$$ para$$u \in [0, 1]$$, así sigue el resultado.

El último resultado muestra que$$X$$ realmente tiene una distribución uniforme, ya que la función de densidad de probabilidad es constante en el intervalo de soporte. Además, podemos parametrizar claramente la distribución por los puntos finales de este intervalo, es decir$$a$$ y$$b = a + w$$, en lugar de por la ubicación, parámetros de escala$$a$$ y$$w$$. De hecho, la distribución se conoce más comúnmente como la distribución uniforme en el intervalo$$[a, b]$$. Sin embargo, es útil saber que la distribución es la familia ubicación-escala asociada a la distribución uniforme estándar. En cuanto a la parametrización del punto final,$f(x) = \frac{1}{b - a}, \quad x \in [a, b]$

Abra el Simulador de Distribución Especial y seleccione la distribución uniforme. Varíe los parámetros de ubicación y escala y anote la gráfica de la función de densidad de probabilidad. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la función de densidad empírica con la función de densidad de probabilidad.

$$X$$tiene función de distribución$$F$$ dada por$F(x) = \frac{x - a}{w}, \quad x \in [a, a + w]$

Prueba

Recordemos que$$F(x) = G\left(\frac{x - a}{w}\right)$$ para$$x \in [a, a + w]$$, donde$$G$$ esta la norma uniforme CDF. Pero$$G(u) = u$$ para$$u \in [0, 1]$$ eso sigue el resultado. Por supuesto, una prueba directa usando el PDF también es fácil.

En cuanto a la parametrización del punto final,$F(x) = \frac{x - a}{b - a}, \quad x \in [a, b]$

$$X$$tiene función cuantil$$F^{-1}$$ dada por$$F^{-1}(p) = a + p w = (1 - p) a + p b$$ for$$p \in [0, 1]$$. Los cuartiles son

1. $$q_1 = a + \frac{1}{4} w = \frac{3}{4} a + \frac{1}{4} b$$, el primer cuartil
2. $$q_2 = a + \frac{1}{2} w = \frac{1}{2} a + \frac{1}{2} b$$, la mediana
3. $$q_3 = a + \frac{3}{4} w = \frac{1}{4} a + \frac{3}{4} b$$, el tercer cuartil
Prueba

Recordemos que$$F^{-1}(p) = a + w G^{-1}(p)$$ donde$$G^{-1}$$ está la función cuantil uniforme estándar. Pero$$G^{-1}(p) = p$$ para$$p \in [0, 1]$$ eso sigue el resultado. Por supuesto una prueba directa del CDF también es fácil.

Abra la Calculadora de Distribución Especial y seleccione la distribución uniforme. Varíe los parámetros y anote la gráfica de la función de distribución. Para valores seleccionados de los parámetros, compute algunos valores de la función de distribución y la función cuantil.

### Momentos

Nuevamente asumimos que$$X$$ tiene la distribución uniforme en el intervalo$$[a, b]$$ donde$$a, \, b \in \R$$ y$$a \lt b$$. Así, el parámetro de ubicación es$$a$$ y el parámetro de escala$$w = b - a$$.

Los momentos de$$X$$ son$\E(X^n) = \frac{b^{n+1} - a^{n+1}}{(n + 1)(b - a)}, \quad n \in \N$

Prueba

Para$$n \in \N$$,$\E(X^n) = \int_a^b x^n \frac{1}{b - a} dx = \frac{b^{n+1} - a^{n+1}}{(n + 1)(b - a)}$

La media y varianza$$X$$ de

1. $$\E(X) = \frac{1}{2}(a + b)$$
2. $$\var(X) = \frac{1}{12}(b - a)^2$$

Abra el Simulador de Distribución Especial y seleccione la distribución uniforme. Varíe los parámetros y anote la ubicación y el tamaño de la barra de desviación$$\pm$$ estándar media. Para valores seleccionados de los parámetros, ejecute la simulación 1000 veces y compare la media empírica y la desviación estándar con la media de distribución y la desviación estándar.

La asimetría y curtosis$$X$$ de

1. $$\skw(X) = 0$$
2. $$\kur(X) = \frac{9}{5}$$
Prueba

Recordemos que la asimetría y la curtosis se definen en términos de la puntuación estándar y por lo tanto son invariantes bajo transformaciones de escala de ubicación.

Una vez más, el exceso de curtosis es$$\kur(X) - 3 = -\frac{6}{5}$$.

La función$$M$$ de generación de momento$$X$$ está dada por$$M(0) = 1$$ y$M(t) = \frac{e^{b t} - e^{a t}}{t(b - a)}, \quad t \in \R \setminus \{0\}$

Prueba

Recordemos que$$M(t) = e^{a t} m(w t)$$ donde$$m$$ está el uniforme estándar MGF. Sustituir da el resultado.

Si$$h$$ es una función de valor real on$$[a, b]$$, entonces$$\E[h(X)]$$ es el valor promedio de$$h$$ on$$[a, b]$$, como se define en el cálculo:

Si$$h: [a, b] \to \R$$ es integrable, entonces$\E[h(X)] = \frac{1}{b - a} \int_a^b h(x) \, dx$

Prueba

Esto se desprende de la fórmula de cambio de variables para el valor esperado:$$\E[h(X)] = \int_a^b h(x) f(x) \, dx$$.

La entropía de la distribución uniforme en un intervalo depende únicamente de la longitud del intervalo.

La entropía de$$X$$ es$$H(X) = \ln(b - a)$$.

Prueba$H(X) = \E\{-\ln[f(X)]\} = \int_a^b -\ln\left(\frac{1}{b - a}\right) \frac{1}{b - a} \, dx = -\ln\left(\frac{1}{b - a}\right) = \ln(b - a)$

Dado que la distribución uniforme es una familia de escala de ubicación, se cierra trivialmente bajo transformaciones a escala de ubicación.

Si$$X$$ tiene la distribución uniforme con parámetro de ubicación$$a$$ y parámetro de escala$$w$$, y si$$c \in \R$$ y$$d \in (0, \infty)$$, entonces$$Y = c + d X$$ tiene la distribución uniforme con parámetro de ubicación$$c + d a$$ y parámetro de escala$$d w$$.

Prueba

De la definición, podemos tomar$$X = a + w U$$ donde$$U$$ tiene la distribución uniforme estándar. De ahí$$Y = c + d X = (c + d a) + (d w) U$$.

Como vimos anteriormente, la distribución uniforme estándar es una herramienta básica en el método de simulación de cuantiles aleatorios. Las distribuciones uniformes en intervalos también son básicas en el método de rechazo de simulación. Esbozamos el método en el siguiente párrafo; ver la sección sobre distribuciones uniformes generales para más teoría.

Supongamos que$$h$$ es una función de densidad de probabilidad para una distribución continua con valores en un intervalo delimitado$$(a, b) \subseteq \R$$. Supongamos también que$$h$$ está acotado, para que haya salidas de$$c \gt 0$$ tal manera que$$h(x) \le c$$ para todos$$x \in (a, b)$$. Dejar$$\bs{X} = (X_1, X_2, \ldots)$$ ser una secuencia de variables independientes, cada una uniformemente distribuida en$$(a, b)$$, y dejar$$\bs{Y} = (Y_1, Y_2, \ldots)$$ ser una secuencia de variables independientes, cada una uniformemente distribuida en$$(0, c)$$. Por último, supongamos que$$\bs{X}$$ y$$\bs{Y}$$ son independientes. Entonces$$((X_1, Y_1), (X_2, Y_2), \ldots))$$ es una secuencia de variables independientes, cada una distribuida uniformemente en$$(a, b) \times (0, c)$$. Vamos$$N = \min\{n \in \N_+: 0 \lt Y_n \lt h(X_n)\}$$. Entonces$$(X_N, Y_N)$$ se distribuye uniformemente sobre$$R = \{(x, y) \in (a, b) \times (0, c): y \lt h(x)\}$$ (la región bajo la gráfica de$$h$$), y por lo tanto$$X_N$$ tiene función de densidad de probabilidad$$h$$. En palabras, generamos puntos uniformes en la región rectangular$$(a, b) \times (0, c)$$ hasta que obtenemos un punto debajo de la gráfica de$$h$$. La$$x$$ coordenada de ese punto es nuestro valor simulado. El método de rechazo se puede utilizar para simular aproximadamente variables aleatorias cuando la región bajo la función de densidad no está delimitada.

Abra el simulador de método de rechazo. Para cada distribución, seleccione un conjunto de valores de parámetros. Ejecuta el experimento 2000 veces y observa cómo funciona el método de rechazo. Comparar la función de densidad empírica, la media y la desviación estándar con sus contrapartes distribucionales.

This page titled 5.21: La distribución uniforme en un intervalo is shared under a CC BY 2.0 license and was authored, remixed, and/or curated by Kyle Siegrist (Random Services) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.