Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

1.S: Resumen

( \newcommand{\kernel}{\mathrm{null}\,}\)

Template:MathJaxArovas

Referencias

  • C. Gardiner, Métodos estocásticos (4thedición, Springer-Verlag, 2010) Texto muy claro y completo sobre métodos estocásticos con muchas aplicaciones.
  • J. M. Bernardo y A. F. M. Smith, Teoría Bayesiana (Wiley, 2000) Un minucioso libro de texto sobre métodos bayesianos.
  • D. Williams, Pesando las probabilidades: un curso en probabilidad y estadística (Cambridge, 2001) Un buen libro de texto de estadísticas generales, según un colega matemático.
  • E. T. Jaynes, Probability Theory (Cambridge, 2007) Una presentación extensa, descriptiva y altamente opinionada, con un enfoque fuertemente bayesiano.
  • A. N. Kolmogorov, Fundamentos de la Teoría de la Probabilidad (Chelsea, 1956) El Urtext de la teoría matemática de probabilidad.

Resumen

Distribuciones discretas: Permiten etiquetar los distintos resultados posibles de un proceso aleatorio discreto, y dejar quep\nsn sea la probabilidad de resultadon. DejarA ser una cantidad que toma valores de los que dependenn,A\nsn siendo el valor deA debajo del resultadon. Entonces el valor esperado deA esA=np\nsnA\nsn, donde la suma es sobre todos los posibles valores permitidos den. Debemos tener que que la distribución esté normalizada,1=np\nsn=1.

Distribuciones continuas: Cuando la variable aleatoria\Bvphi toma un continuo de valores, definimos que la densidad de probabilidadP(\Bvphi) sea tal queP(\Bvphi)dμ sea la probabilidad de que el resultado se encuentre dentro de un volumen diferencial dμde\Bvphi, dondedμ=W(\Bvphi)ni=1d\vphi\nsi, were\Bvphi es un vectorn -componente en el espacio de configuración\ROmega, y donde la función daW(\Bvphi) cuenta de la posibilidad de diferentes medidas de espacio de configuración. Entonces siA(\Bvphi) hay alguna función encendida\ROmega, el valor esperado deA esA=\ROmegadμP(\Bvphi)A(\Bvphi).

Teorema del límite central: Si cada uno{x\ns1,,x\nsN} se distribuye independientemente segúnP(x), entonces la distribución de la sumaX=Ni=1x\nsi es\CP\nsN(X)=\impidx\ns1\impidx\nsNP(x\ns1)P(x\nsN)δ(XNi=1x\nsi)=\impidk2π[\HP(k)]NeikX , donde\HP(k)=dxP(x)eikx está la transformada de Fourier deP(x). Suponiendo que los momentos más bajos deP(x) existirln[\HP(k)]=iμk\halfσ2k2+\CO(k3),, dondeμ=x yσ2=x2x2 son la media y la desviación estándar. Entonces paraN,P\nsN(X)=(2πNσ2)1/2e(XNμ)2/2Nσ2 , que es un gaussiano con mediaX=Nμ y desviación estándarX2X2=Nσ. Así,X se distribuye como un gaussiano, aunque noP(x) sea un gaussiano en sí mismo.

Entropía: La entropía de una distribución estadística{p\nsn} esS=np\nsnlnp\nsn. (A veces se usa el logaritmo base 2, en cuyo caso la entropía se mide en bits). Esto tiene la interpretación del contenido de información por elemento de una secuencia aleatoria.

Distribuciones de máxima entropía: Dada una distribución{p\nsn} sujeta a(K+1) restricciones de la forma\CXa=nXanp\nsn cona{0,,K}, donde\CX0=X0n=1 (normalización), la distribución consistente con estas restricciones que maximiza la función de entropía es obtenidos al extremar la función multivariableS({p\nsn},{λ\nsa})=np\nsnlnp\nsnKa=0λ\nsa(nXanp\nsn\CXa) , con respecto a las probabilidades{p\nsn} y los multiplicadores Lagrange{λ\nsa}. Esto da como resultado una distribución de Gibbs,p\nsn=1Zexp{Ka=1λ\nsaXan} , dondeZ=e1+λ\ns0 está determinada por la normalización,np\nsn=1 (laa=0 restricción) y los multiplicadoresK restantes determinados por las restriccionesK adicionales.

Integral gaussiana multidimensional:\impidx\ns1\impidx\nsnexp(\halfx\nsiA\nsijx\nsj+b\nsix\nsi)=((2π)ndetA)1/2exp(\halfb\nsiA1ijb\nsj) .

Teorema de Bayes: QueA sea la probabilidad condicional paraB dadoP(B|A). Entonces dice el teorema de BayesP(A|B)=P(A)P(B|A)/P(B). Si el 'espacio de eventos' se particiona como{A\nsi}, entonces tenemos la forma extendida,P(A\nsi|B)=P(B|A\nsi)P(A\nsi)jP(B|A\nsj)P(A\nsj) . Cuando el espacio de eventos es una 'partición binaria'{A,¬A}, como suele ser el caso en campos como epidemiología (test positivo o test negativo), tenemosP(A|B)=P(B|A)P(A)P(B|A)P(A)+P(B|¬A)P(¬A) . Note queP(A|B)+P(¬A|B)=1 (que se desprende de ¬¬A=A).

Actualización de los antecedentes bayesianos: Dados datos en forma de valores observados\Bx={x\ns1,,x\nsN}\CX y una hipótesis en forma de parámetros\Btheta={θ\ns1,,θ\nsK}Θ, escribimos la probabilidad condicional (densidad) para observar\Bx dada\Btheta comof(\Bx|\Btheta). El teorema de Bayes dice que la distribución correspondienteπ(\Btheta|\Bx) para\Btheta condicionado\Bx esπ(\Btheta|\Bx)=f(\Bx|\Btheta)π(\Btheta)Θd\Bthetaf(\Bx|\Btheta)π(\Btheta) , Llamamosπ(\Btheta) al previo para\Btheta,f(\Bx|\Btheta) la probabilidad de\Bx dado\Btheta, y π(\Btheta|\Bx)el posterior para\Btheta dado\Bx. Podemos utilizar la posterior para encontrar la distribución de nuevos puntos de datos\By, denominada distribución predictiva posterior,f(\By|\Bx)=Θd\Bthetaf(\By|\Btheta)π(\Btheta|\Bx). Esta es la actualización de la distribución predictiva previa,f(\Bx)=Θd\Bthetaf(\Bx|\Btheta)π(\Btheta). Como ejemplo, considere la moneda volteando conf(\Bx|\Btheta)=θX(1θ)NX, dóndeN está el número de volteretas, yX=Nj=1x\nsj conx\nsj una variable discreta que es0 para colas y1 para cabezas. El parámetroθ[0,1] es la probabilidad de voltear cabezas. Elegimos un previoπ(θ)=θα1(1θ)β1/\SB(α,β) donde\SB(α,β)=\RGamma(α)\RGamma(β)/\RGamma(α+β) se encuentra la distribución Beta. Esto da como resultado un previo normalizado10dθπ(θ)=1. La distribución posterior paraθ es entoncesπ(θ|x\ns1,,x\nsN)=f(x\ns1,,x\nsN|θ)π(θ)10dθf(x\ns1,,x\nsN|θ)π(θ)=θX+α1(1θ)NX+β1\SB(X+α,NX+β) . El predictivo previo esf(\Bx)=10dθf(\Bx|θ)π(θ)=\SB(X+α,NX+β)/\SB(α,β), y el predictivo posterior para el número total de cabezasY enM volteretas esf(\By|\Bx)=10dθf(\By|θ)π(θ|\Bx)=\SB(X+Y+α,NX+MY+β)\SB(X+α,NX+β).


This page titled 1.S: Resumen is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Daniel Arovas.

Support Center

How can we help?