Saltar al contenido principal
LibreTexts Español

10.11: Aprendiendo de los Datos

  • Page ID
    150549
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Otra forma de pensar en la regla de Bayes es como una forma de actualizar nuestras creencias sobre la base de datos, es decir, aprender sobre el mundo usando datos. Volvamos a ver la regla de Bayes:

    P(B|A)=P(A|B)*P(B)P(A)P (B|A) =\ frac {P (A|B) *P (B)} {P (A)}

    Las diferentes partes de la regla de Bayes tienen nombres específicos, que se relacionan con su papel en el uso de la regla de Bayes para actualizar nuestras creencias. Comenzamos con una suposición inicial sobre la probabilidad de B (P(B)P (B)), a la que nos referimos como la probabilidad previa. En el ejemplo de PSA utilizamos la tasa base para el anterior, ya que era nuestra mejor suposición en cuanto a la probabilidad de cáncer del individuo antes de conocer el resultado de la prueba. Luego recogemos algunos datos, que en nuestro ejemplo fue el resultado de la prueba. El grado en que los datos A son consistentes con el resultado B viene dado porP(A|B)P (A|B), a la que nos referimos como la probabilidad. Se puede pensar en esto como cuán probables son los datos, dada la hipótesis particular que se está probando. En nuestro ejemplo, la hipótesis que se estaba probando fue si el individuo tenía cáncer, y la probabilidad se basó en nuestro conocimiento sobre la sensibilidad de la prueba (es decir, la probabilidad de cáncer dado un resultado positivo en la prueba). El denominador (P(A)P (A)) se conoce como la probabilidad marginal, porque expresa la verosimilitud general de los datos, promediada a través de todos los valores posibles de A (que en nuestro ejemplo fueron los resultados positivos y negativos de la prueba). El desenlace a la izquierda (P(B|A)P (B|A)) se conoce como el posterior - porque es lo que sale el extremo posterior del cómputo.

    Hay otra forma de escribir la regla de Bayes que hace que esto sea un poco más claro:

    P(B|A)=P(A|B)P(A)*P(B)P (B|A) =\ frac {P (A|B)} {P (A)} *P (B)

    La parte de la izquierda (P(A|B)P(A)\ frac {P (A|B)} {P (A)}) nos dice cuánto más o menos probable se dan los datos A B, en relación con la probabilidad general (marginal) de los datos, mientras que la parte del lado derecho (P(B)P (B)) nos dice lo probable que pensábamos que era B antes de saber algo sobre los datos. Esto deja más claro que el papel del teorema de Bayes es actualizar nuestros conocimientos previos con base en el grado en que los datos son más probables dados B de lo que serían en general. Si la hipótesis es más probable dados los datos de lo que sería en general, entonces aumentamos nuestra creencia en la hipótesis; si es menos probable dados los datos, entonces disminuimos nuestra creencia.


    This page titled 10.11: Aprendiendo de los Datos is shared under a not declared license and was authored, remixed, and/or curated by Russell A. Poldrack via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.