Saltar al contenido principal
LibreTexts Español

2.1: Conjunto estadístico y probabilidad

  • Page ID
    130097
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Como ya se ha discutido en la Sec. 1.1, la física estadística trata situaciones en las que las condiciones iniciales desconocidas, o la complejidad del sistema, o las leyes de su movimiento (como en el caso de la mecánica cuántica) no permiten una predicción definitiva de los resultados de medición. El formalismo principal para el análisis de tales sistemas es la teoría de la probabilidad, así que permítanme comenzar con una breve revisión de sus conceptos básicos, utilizando un lenguaje informal “físico” —menos riguroso pero (ojalá) más transparente que los tratamientos matemáticos estándar, 1 y bastante suficiente para nuestro propósitos.

    Considerar experimentos similares\(N >> 1\) independientes realizados con sistemas aparentemente similares (es decir, sistemas con parámetros macroscópicos idénticos como volumen, presión, etc.), pero aún dando, por cualquiera de las razones enumeradas anteriormente, diferentes resultados de mediciones. Tal colección de experimentos, junto con un método fijo de procesamiento de resultados, es un buen ejemplo de conjunto estadístico. Partimos del caso en el que los experimentos pueden tener\(M\) diferentes resultados discretos, y el número de experimentos que dan los resultados diferentes correspondientes es\(N_1, N_2,..., N_M\), de manera que

    \[\sum^{M}_{m=1} N_m = N.\label{1}\]

    La probabilidad de cada resultado, para el conjunto estadístico dado, se define entonces como

    Probabilidad:

    \[\boxed{W_m \equiv \lim_{N\rightarrow \infty} \frac{N_m}{N}. } \label{2}\]

    Aunque esta definición es tan cercana a nuestra experiencia cotidiana que es casi evidente por sí misma, algunas observaciones pueden seguir siendo relevantes.

    En primer lugar, las probabilidades\(W_m\) dependen del conjunto estadístico exacto para el que se definan, incluyendo notablemente el método de procesamiento de resultados. Como ejemplo más sencillo, considera tirar los dados estándar en forma de cubículo muchas veces. Para el conjunto de todos los dados lanzados y contados, la probabilidad de cada resultado (digamos, “1”) es 1/6. Sin embargo, nada nos impide definir otro conjunto estadístico de experimentos de lanzamiento de dados en los que se descuentan todos los resultados “1”. Evidentemente, la probabilidad de encontrar resultados “1” en este conjunto modificado (pero legítimo) es 0, mientras que para los otros cinco resultados (“2” a “6”), es 1/5 en lugar de 1/6.

    \[\langle N_m \rangle \equiv W_m N , \label{3}\]

    con las desviaciones relativas disminuyendo como\(\sim 1/\langle N_m\rangle^{1/2}\), es decir, como\(1/N^{1/2}\).

    Ahora déjame enumerar esas propiedades de probabilidades que necesitaremos de inmediato. Primero, dividiendo ambos lados de la Ecuación (\ ref {1}) por\(N\) y siguiendo el límite\(N \rightarrow \infty \), obtenemos la conocida condición de normalización

    \[\sum^{M}_{m=1} W_m = 1; \label{4}\]

    solo recuerda que es cierto solo si cada experimento definitivamente arroja uno de los resultados\(N_1, N_2,..., N_M\).

    Segundo, si tenemos una función aditiva de los resultados,

    \[f = \frac{1}{N} \sum^{M}_{m=1} N_m f_m, \label{5}\]

    donde\(f_m\) hay algunos coeficientes definidos (deterministas), el promedio estadístico (también llamado valor de expectativa) de la función se define naturalmente como

    \[\langle f \rangle \equiv \lim_{N\rightarrow \infty} \frac{1}{N} \sum^M_{m=1} \langle N_m \rangle f_m, \label{6}\]

    para que usando la ecuación (\ ref {3}) obtengamos

    Valor de expectativa a través de probabilidades:

    \[\boxed{ \langle f \rangle = \sum^M_{m=1} W_m f_m. } \label{7}\]

    Observe que la Ecuación (\ ref {3}) puede ser considerada como la forma particular de este resultado general, cuando todos\(f_m = 1\).

    A continuación, el espectro de posibles resultados experimentales es frecuentemente continuo para todos los fines prácticos. (Piense, por ejemplo, en el conjunto de posiciones de las marcas dejadas por balas disparadas a un objetivo desde lejos). Las fórmulas anteriores pueden generalizarse fácilmente a este caso; partimos de la situación más simple en la que todos los resultados diferentes pueden ser descritos por una sola variable\(q\) escalar continua, que reemplaza el índice discreto\(m\) en Eqs. (\ ref {1}) - (\ ref {7}). La relación básica para este caso es el hecho evidente de que la probabilidad\(dW\) de tener un resultado dentro de un intervalo pequeño\(dq\) cerca de algún punto\(q\) es proporcional a la magnitud de ese intervalo:

    \[ dW = w(q)dq , \label{8}\]

    donde\(w(q)\) hay alguna función de\(q\), de la cual no depende\(dq\). Esta función se llama densidad de probabilidad. Ahora todas las fórmulas anteriores pueden ser refundidas reemplazando las probabilidades\(W_m\) con los productos (\ ref {8}), y la suma sobre\(m\), con la integración terminada\(q\). En particular, en lugar de Ecuación (\ ref {4}) la condición de normalización ahora se convierte en

    \[ \int w(q)dq = 1, \label{9}\]

    donde la integración debe extenderse a todo el rango de posibles valores de\(q\). Del mismo modo, en lugar de los valores discretos\(f_m\) que participan en la Ecuación (\ ref {5}), es natural considerar una función\(f(q)\). Entonces, en lugar de Ecuación (\ ref {7}), el valor de expectativa de la función puede calcularse como

    Valor de expectativa a través de densidad de probabilidad:

    \[\boxed{ \langle f \rangle = \int w(q) f (q)dq. } \label{10}\]

    También es sencillo generalizar estas fórmulas al caso de más variables. Por ejemplo, el estado de una partícula clásica con tres grados de libertad puede describirse completamente por la densidad de probabilidad w definida en el espacio 6D de su radio-vector generalizado\(\mathbf{q}\) e impulso\(\mathbf{p}\). Como resultado, el valor de expectativa de una función de estas variables puede expresarse como una integral 6D

    \[\langle f \rangle = \int w(\mathbf{q},\mathbf{p}) f(\mathbf{q},\mathbf{p})d^3qd^3p. \label{11}\]

    Algunos sistemas considerados en este curso consisten en componentes cuyas propiedades cuánticas no pueden ignorarse, así que discutamos cómo se\(\langle f \rangle\) debe calcular en este caso. Si por\(f_m\) nos referimos a resultados de medición, entonces la Ecuación (\ ref {7}) (y sus generalizaciones) sigue siendo válida, pero dado que estos números en sí mismos pueden verse afectados por la incertidumbre intrínseca cuántico-mecánica, puede tener sentido tener una mirada un poco más profunda en esta situación. La mecánica cuántica nos dice 4 que la expresión más general para el valor de expectativa de un observable\(f\) en cierto conjunto de sistemas macroscópicamente similares es

    \[\langle f \rangle = \sum_{m,m'} W_{mm'}f_{m'm} \equiv \text{Tr(Wf)}. \label{12}\]

    Aquí\(f_{mm’}\) están los elementos matriciales del operador cuánto-mecánico\(\hat{f}\) correspondientes a lo observable\(f\), en base completa de estados ortonormales\(m\),

    \[f_{mm'} = \langle m | \hat{f} | m' \rangle , \label{13}\]

    mientras que los coeficientes\(W_{mm’}\) son los elementos de la llamada matriz de densidad\(W\), que representa, en la misma base, el operador de densidad\(\hat{W}\) que describe las propiedades de este conjunto. La ecuación (\ ref {12}) es evidentemente más general que la ecuación (\ ref {7}), y se reduce a ella solo si la matriz de densidad es diagonal:

    \[ W_{mm'} = W_m \delta_{mm'} \label{14}\]

    (donde\(\delta_{mm’}\) está el símbolo Kronecker), cuando los elementos diagonales\(W_m\) juegan el papel de probabilidades de los estados correspondientes.

    Así formalmente, la mayor diferencia entre la descripción cuántica y la clásica es la presencia, en la Ecuación (\ ref {12}), de los elementos fuera de la diagonal de la matriz de densidad. Tienen los valores más grandes en el conjunto puro (también llamado “coherente”), en el que el estado del sistema puede describirse con vectores de estado, por ejemplo, el vector ket-vector

    \[|\alpha \rangle = \sum_m \alpha_m | m \rangle \label{15}\]

    donde\(\alpha_m\) están algunos coeficientes (generalmente, complejos). En este caso, los elementos de la matriz de densidad son meramente

    \[W_{mm'} = \alpha^*_m \alpha_{m'}, \label{16}\]

    de manera que los elementos fuera de la diagonal son del mismo orden que los elementos diagonales. Por ejemplo, en el caso particular muy importante de un sistema de dos niveles, la matriz de densidad de estado puro es

    \[W = \begin{pmatrix} \alpha_1^* \alpha_1 & \alpha_1^* \alpha_2 \\ \alpha_2^* \alpha_1 & \alpha_2^* \alpha_2 \end{pmatrix}, \label{17}\]

    de manera que el producto de sus componentes fuera de diagonal sea tan grande como el de los componentes diagonales.

    En la base más importante de los estados estacionarios, es decir, los estados propios del hamiltoniano independiente del tiempo del sistema, los coeficientes\(\alpha_m\) oscilan en el tiempo como 5

    \[\alpha_{m}(t)=\alpha_{m}(0) \exp \left\{-i \frac{E_{m}}{\hbar} t\right\} \equiv\left|\alpha_{m}\right| \exp \left\{-i \frac{E_{m}}{\hbar} t+i \varphi_{m}\right\}, \label{18}\]

    donde\(E_m\) están las energías propias correspondientes, y\(\varphi_m\) son desplazamientos de fase constantes. Esto significa que mientras los términos diagonales de la matriz de densidad (\ ref {16}) permanecen constantes, sus componentes fuera de la diagonal son funciones oscilantes del tiempo:

    \[W_{m m^{\prime}}=\alpha_{m^{\prime}}^{*} \alpha_{m}=\left|\alpha_{m^{\prime}} \alpha_{m}\right| \exp \left\{i \frac{E_{m}-E_{m^{\prime}}}{\hbar} t\right\} \exp \left\{i\left(\varphi_{m^{\prime}}-\varphi_{m}\right)\right\} \label{19}\]

    Debido a la extrema pequeñez de la constante de Planck (en la escala humana de las cosas), las minúsculas perturbaciones aleatorias de las energías propias son equivalentes a cambios aleatorios sustanciales de los multiplicadores de fase, por lo que el promedio de tiempo de cualquier elemento de matriz fuera de la diagonal tiende a cero. Además, incluso si nuestro conjunto estadístico consiste en sistemas con exactamente los mismos\(E_m\), pero diferentes valores\(\varphi_m\) (que suelen ser difíciles de controlar en la preparación inicial del sistema), los valores promedio de todos\(W_{mm’}\) (con\(m \neq m’\)) desaparecen de nuevo.

    Es por ello que, además de algunos casos muy especiales, los conjuntos estadísticos típicos de partículas cuánticas están lejos de ser puros, y en la mayoría de los casos (ciertamente incluyendo el equilibrio termodinámico), una buena aproximación para su descripción viene dada por el límite opuesto de la llamada mezcla clásica , en el que todos los elementos de matriz fuera de diagonal de la matriz de densidad son iguales a cero, y sus elementos diagonales\(W_{mm}\) son meramente las probabilidades\(W_m\) de los autoestados correspondientes. En este caso, para los observables compatibles con la energía, la Ecuación (\ ref {12}) se reduce a Ecuación (\ ref {7}),\(f_m\) siendo los valores propios de la variable\(f\), para que podamos basar nuestra discusión posterior en esta relación clave y sus continuas extensiones (\ ref {10}) - (\ ref {11}).


    This page titled 2.1: Conjunto estadístico y probabilidad is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Konstantin K. Likharev via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.