Saltar al contenido principal
LibreTexts Español

32.2: Probabilidad y Estadística

  • Page ID
    79723
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Una variable aleatoria X puede tener más de un valor x como resultado. El valor que tiene la variable en un caso particular es una cuestión de azar y no puede predecirse aparte de que asociamos una probabilidad al resultado. Probabilidad\(p\) es un número entre 0 y 1 que indica la probabilidad de que la variable\(X\) tenga un resultado particular\(x\). El conjunto de resultados y sus probabilidades forman una distribución de probabilidad. Hay dos tipos de distribuciones:

    1. discretos
    2. continuos

    La probabilidad total siempre debe sumar a la unidad.

    Distribuciones Discretas

    Un buen ejemplo de una distribución discreta es una moneda verdadera. La variable aleatoria X puede tener dos valores:

    1. cabezas (0)
    2. colas (1)

    Ambos tienen igual probabilidad y como la suma debe ser igual a la unidad, la probabilidad debe ser ½ para cada uno. 'La probabilidad de que x=cabezas' se escribe formalmente como:

    \[Pr(X=heads) = Pr(X=0) = 0.5 \nonumber \]

    La función aleatoria se escribe como una combinación de tres declaraciones.

    • Pr (X=0) = ½
    • Pr (X=1) = ½
    • en otra parte Pr = 0

    Distribuciones continuas

    Ahora considera un dado esférico. Se podría decir que tiene un número infinito de facetas en las que puede aterrizar. Así el número de resultados\(n = ∞\), esto hace que cada probabilidad

    \[p = 1/∞=0. \nonumber \]

    Esto crea un poco de problema matemático, porque ¿cómo podemos obtener una probabilidad total de unidad sumando ceros? También, si dividimos la esfera en un hemisferio norte y otro sur claramente la probabilidad de que aterrice en un punto en digamos, el norte debería ser ½. Aún así, p = 0 para todos los puntos. Introducimos un nuevo concepto: densidad de probabilidad sobre la cual integramos más que suma. Asignamos una densidad igual a cada punto de la esfera y nos aseguramos de que si nos integramos sobre un hemisferio obtengamos ½. (Esto implica dos ángulos θ y φ y una integración sobre ellos y no voy a entrar en eso).

    Un ejemplo un poco más simple de una distribución continua que la matriz esférica es la distribución uniforme 1D. Es el que produce la función Excel =RAND () a una buena aproximación. Su densidad de probabilidad se define como

    • f (x) = 1 para 0<1>
    • f (x) = 0 en otra parte

    La figura muestra una distribución uniforme (bivariada).

    La probabilidad de que el resultado sea menor a 0.5 se escribe como Pr (X<0.5) y se encuentra integrando de 0 a 0.5 sobre f (x).

    Pr (X<0.5) = ∫ f (x) .dx de 0 a 0.5 = ∫ 1 .dx de 0 a 0.5 = [x] 0.5 - [x] 0 = 0.5

    Observe que en cada resultado individual b la probabilidad es efectivamente cero porque una integral de b a b es siempre cero, aunque la densidad de probabilidad f (b) no sea cero. Claramente la probabilidad y la densidad de probabilidad no son las mismas. Desafortunadamente, la distinción entre probabilidad y densidad de probabilidad a menudo no se hace adecuadamente en las ciencias físicas. Los momentos también se pueden calcular para distribuciones continuas integrando sobre la densidad de probabilidad alt

    Otra distribución continua bien conocida es la distribución normal (o gaussiana), definida como:

    \[f(x) = 1/[√(2π)σ] * exp(-½[(x-μ)/σ]2) \nonumber \]

    (Notice the normalization factor 1/[√(2π)σ])

    We can also compute moments of continuous distribution. Instead of using a summation we now have to evaluate an integral:

    \[ \langle X \rangle = \int [f(x)^*x] dx \nonumber \]

    \[ \langle X^2 \rangle =\int [f(x)^*x^2] dx \nonumber \]

    For the normal distribution \(\langle X \rangle = μ\)

    Exercise

    Compute 2> and 3> for the uniform distribution. answer>

    Indistinguishable Outcomes

    When flipping two coins we could get four outcomes: two heads (0), heads plus tails (1), tails plus heads (1), two tails (2)

    Each outcome is equally likely, this implies a probability of ¼ for each:

    Xtot = X1 + X2 = 0 + 0 = 0 p=¼
    Xtot = X1 + X2 = 0 + 1 = 1 p=¼
    Xtot = X1 + X2 = 1 + 0 = 1 p=¼
    Xtot = X1 + X2 = 1 + 1 = 2 p=¼

    The probability of a particular outcome is often abbreviated simply to p. The two middle outcomes collapse into one with p=¼+¼= ½ if the coins are indistinguishable. We will see that this concept has very important consequences in statistical thermodynamics.

    If we cannot distinguish the two outcomes leading to Xtot=1 we get the following random function:

    • Pr(Xtot=0) = ¼
    • Pr(Xtot=1) = ½
    • Pr(Xtot=2) = ¼
    • elsewhere Pr = 0

    Notice that it is quite possible to have a distribution where the probabilities differ from outcome to outcome. Often the p values are given as f(x), a function of x. An example:

    X3 defined as:

    • f(x) = (x+1)/6 for x=0,1,2;
    • f(x) =0 elsewhere;

    The factor 1/6 makes sure the probabilities add up to unity. Such a factor is known as a normalization factor. Again this concept is of prime importance in statistical thermodynamics.

    Another example of a discrete distribution is a die. If it has 6 sides (the most common die) there are six outcomes, each with p= 1/6. There are also dice with n=4, 12 or 20 sides. Each outcome will then have p= 1/n.

    Moments of Distributions

    In important aspect of probability distributions are the moments of the distribution. They are values computed by summing over the whole distribution.

    The zero order moment is simply the sum of all p and that is unity:

    0> = ΣX0*p= Σ1*p= 1

    The first moment multiplies each outcome with its probability and sums over all outcomes:

    = ΣX*p

    This moment is known as the average or mean. (It is what we have done to your grades for years...)

    For one coin is ½, for two coins is 1. (Exercise: verify this)

    The second moment is computed by summing the product of the square of X and p:

    2> = ΣX2*p
    For one coin we have 2> = ½,
    For two coins 2>= [0*¼ + 1*½ + 4*¼] = 1.5
    What is 2> for X3? answer

    The notation is used a lot in quantum mechanics, often in the form <ψ*ψ> or <ψ*|h|ψ>. The <.. part is known as the bra, the ..> part as the ket. (Together bra(c)ket)

    Intermezzo: The strange employer

    You have a summer job but your employer likes games of chance. At the end of every day he rolls a die and pays you the square of the outcome in dollars per hour. So on a lucky day you'd make $36.- per hour, but on a bad day $1.-. Is this a bad deal? What would you make on the average over a longer period?

    To answer this we must compute the second moment 2> of the distribution:

    2> = 1/6 *[1+4+9+16+25+36] = 91/6 = $15.17 per hour.

    (I have taken p=1/6 out of brackets because the value is the same for all six outcomes)

    As you see in the intermezzo, the value of the second moment is in this case what you expect to be making on the long term. Moments are examples of what is know as expectation values. Another term you may run into that of a functional. A functional is a number computed by some operation (such as summation or integration) over a whole function. Moments are clearly an example of that too.


    32.2: Probabilidad y Estadística is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.