Saltar al contenido principal
LibreTexts Español

11.10: Resumen

  • Page ID
    151741
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    La prueba de hipótesis nula es uno de los elementos más ubicuos de la teoría estadística. La gran mayoría de los trabajos científicos reportan los resultados de alguna prueba de hipótesis u otra. En consecuencia es casi imposible salir adelante en la ciencia sin tener al menos una comprensión superficial de lo que significa un valor p, haciendo de éste uno de los capítulos más importantes del libro. Como de costumbre, terminaré el capítulo con un rápido resumen de las ideas clave de las que hemos hablado:

    • Hipótesis de investigación e hipótesis estadísticas. Hipótesis nulas y alternativas. (Sección 11.1).
    • Errores Tipo 1 y Tipo 2 (Sección 11.2)
    • Estadísticas de prueba y distribuciones de muestreo (Sección 11.3)
    • La prueba de hipótesis como proceso de toma de decisiones (Sección 11.4)
    • valores p como decisiones “blandas” (Sección 11.5)
    • Redacción de los resultados de una prueba de hipótesis (Sección 11.6)
    • Tamaño y potencia del efecto (Sección 11.8)
    • Algunas cuestiones a considerar en relación con las pruebas de hipótesis (Sección 11.9)

    Más adelante en el libro, en el capítulo 17, revisaré la teoría de las pruebas de hipótesis nulas desde una perspectiva bayesiana, e introduciré una serie de nuevas herramientas que puedes usar si no eres particularmente aficionado al enfoque ortodoxo. Pero por ahora, sin embargo, hemos terminado con la teoría estadística abstracta, y podemos comenzar a discutir herramientas específicas de análisis de datos.


    Referencias

    Cohen, J. 1988. Análisis Estadístico de Poder para las Ciencias del Comportamiento. 2a ed. Lawrence Erlbaum.

    Ellis, P. D. 2010. La Guía Esencial de Tamaños de Efecto: Poder Estadístico, MetaAnálisis e Interpretación de Resultados de Investigación. Cambridge, Reino Unido: Cambridge University Press.

    Lehmann, Erich L. 2011. Fisher, Neyman, y la creación de la estadística clásica. Springer.

    Gelman, A., y H. Stern. 2006. “La diferencia entre 'significativo' y 'no significativo' no es estadísticamente significativo en sí mismo”. El Estadístico Americano 60:328—31.


    1. La cita proviene del texto de Wittgenstein (1922), Tractatus Logico-Philosphicus.
    2. Una nota técnica. La siguiente descripción difiere sutilmente de la descripción estándar dada en muchos textos introductorios. La teoría ortodoxa de las pruebas de hipótesis nulas surgió de la obra de Sir Ronald Fisher y Jerzy Neyman a principios del siglo XX; pero Fisher y Neyman en realidad tenían puntos de vista muy diferentes sobre cómo debería funcionar. El tratamiento estándar de las pruebas de hipótesis que utilizan la mayoría de los textos es un híbrido de los dos enfoques. El tratamiento aquí es un poco más al estilo Neyman que la visión ortodoxa, especialmente en lo que respecta al significado del valor p.
    3. Mis disculpas a cualquiera que realmente crea en estas cosas, pero en mi lectura de la literatura sobre ESP, simplemente no es razonable pensar que esto es real. Para ser justos, sin embargo, algunos de los estudios están rigurosamente diseñados; por lo que en realidad es un área interesante para pensar en el diseño de investigación psicológica. Y claro que es un país libre, así que puedes dedicar tu propio tiempo y esfuerzo demostrando que me equivoco si quieres, pero no pensaría que ese es un uso terriblemente práctico de tu intelecto.
    4. Esta analogía sólo funciona si eres de un sistema jurídico contradictorio como Reino Unido/Estados Unidos/Australia. Según entiendo estas cosas, el sistema inquisitorial francés es bastante diferente.
    5. Un aparte con respecto al lenguaje que usas para hablar sobre las pruebas de hipótesis. En primer lugar, una cosa que realmente quieres evitar es la palabra “probar”: una prueba estadística realmente no prueba que una hipótesis sea verdadera o falsa. La prueba implica certeza, y como dice el refrán, las estadísticas significan nunca tener que decir que estás seguro. En ese punto casi todos estarían de acuerdo. Sin embargo, más allá de eso hay bastante confusión. Algunas personas argumentan que solo se le permite hacer declaraciones como “rechazó el nulo”, “no rechazó el nulo”, o posiblemente “retuvo el nulo”. Según esta línea de pensamiento, no se pueden decir cosas como “aceptar la alternativa” o “aceptar el nulo”. Personalmente creo que esto es demasiado fuerte: en mi opinión, esto combina las pruebas de hipótesis nulas con la visión falsificacionista de Karl Popper sobre el proceso científico. Si bien existen similitudes entre el falsificacionismo y las pruebas de hipótesis nulas, no son equivalentes. Sin embargo, si bien personalmente pienso que está bien hablar de aceptar una hipótesis (con la condición de que “aceptación” en realidad no significa que sea necesariamente cierto, especialmente en el caso de la hipótesis nula), mucha gente no estará de acuerdo. Y más al grano, debes ser consciente de que existe esta rareza particular, para que no te capte desprevenido al momento de escribir tus propios resultados.
    6. Estrictamente hablando, la prueba que acabo de construir tiene α=.057, que es un poco demasiado generosa. Sin embargo, si hubiera elegido 39 y 61 para ser los límites para la región crítica, entonces la región crítica solo cubre 3.5% de la distribución. Me imaginé que tiene más sentido usar 40 y 60 como mis valores críticos, y estar dispuesto a tolerar una tasa de error tipo I de 5.7%, ya que eso es lo más cercano que pueda llegar a un valor de α=.05.
    7. El internet parece bastante convencido de que Ashley dijo esto, aunque no puedo por mi vida encontrar a nadie dispuesto a dar una fuente para el reclamo.
    8. Eso es p=.00000000000000000000136 ¡para gente a la que no le gusta la notación científica!
    9. Tenga en cuenta que la p aquí no tiene nada que ver con un valor p. El argumento p en la función binom.test () corresponde a la probabilidad de hacer una respuesta correcta, según la hipótesis nula. En otras palabras, es el valor θ.
    10. Hay un paquete R llamado compute.es que se puede utilizar para calcular un rango muy amplio de medidas de tamaño de efecto; pero para los fines del libro actual no lo necesitaremos: todas las medidas de tamaño de efecto de las que voy a hablar aquí tienen funciones en el paquete lsr
    11. Aunque en la práctica un tamaño de efecto muy pequeño es preocupante, porque incluso fallas metodológicas muy menores podrían ser las responsables del efecto; y en la práctica ningún experimento es perfecto, por lo que siempre hay cuestiones metodológicas de las que preocuparse.
    12. Observe que el verdadero parámetro de población θ no corresponde necesariamente a un hecho inmutable de la naturaleza. En este contexto θ es solo la verdadera probabilidad de que la gente adivine correctamente el color de la tarjeta en la otra habitación. Como tal, el parámetro de población puede estar influenciado por todo tipo de cosas. ¡Por supuesto, todo esto es asumiendo que el ESP realmente existe!
    13. Aunque este libro describe tanto la definición de Neyman como la de Fisher del valor p, la mayoría no lo hace.La mayoría de los libros de texto introductorios solo te darán la versión Fisher.
    14. En este caso, la prueba chi-cuadrada de Pearson de independencia (Capítulo 12; chisq.test () en R) es lo que usamos; véase también la función prop.test ().

    This page titled 11.10: Resumen is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform.