Saltar al contenido principal

# 13.11: Resumen

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$
• Se utiliza una prueba t de una muestra para comparar una media de una sola muestra con un valor hipotético para la media poblacional. (Sección 13.2)
• Se utiliza una prueba t de muestras independientes para comparar las medias de dos grupos, y se prueba la hipótesis nula de que tienen la misma media. Viene en dos formas: la prueba de Student (Sección 13.3 asume que los grupos tienen la misma desviación estándar, la prueba de Welch (Sección 13.4) no.
• Se utiliza una prueba t de muestras emparejadas cuando se tienen dos puntuaciones de cada persona, y se quiere probar la hipótesis nula de que las dos puntuaciones tienen la misma media. Es equivalente a tomar la diferencia entre los dos puntajes para cada persona, y luego ejecutar una prueba t de una muestra sobre las puntuaciones de diferencia. (Sección 13.5)
• Los cálculos del tamaño del efecto para la diferencia entre medias se pueden calcular a través del estadístico d de Cohen. (Sección 13.8).
• Se puede verificar la normalidad de una muestra utilizando parcelas QQ y la prueba de Shapiro-Wilk. (Sección 13.9)
• Si tus datos no son normales, puedes usar pruebas de Wilcoxon en lugar de pruebas t. (Sección 13.10)

Referencias

Estudiante, A. 1908. “El Error Probable de una Media”. Biometrika 6:1—2.

Box, J. F. 1987. “Guinness, Gosset, Fisher y Muestras Pequeñas”. Ciencia Estadística 2:45—52.

Welch, B. L. 1947. “La generalización del problema 'estudiantil' cuando se involucran varias varianzas poblacionales diferentes”. Biometrika 34:28—35.

Cohen, J. 1988. Análisis Estadístico de Poder para las Ciencias del Comportamiento. 2a ed. Lawrence Erlbaum.

McGrath, R. E., y G. J. Meyer. 2006. “Cuando los tamaños de los efectos no están de acuerdo: El caso de r y d”. Métodos Psicológicos 11:386—401.

Coberturas, L. V. 1981. “Teoría de Distribución para Estimador de Tamaño de Efecto de Vidrio y Estimadores Relacionados”. Revista de Estadística Educativa 6:107—28.

Hedges, L. V., e I. Olkin. 1985. Métodos Estadísticos para MetaAnálisis. Nueva York: Prensa Académica.

Shapiro, S. S., y M. B. Wilk. 1965. “Una Prueba de Análisis de Varianza para la Normalidad (Muestras Completas)”. Biometrika 52:591—611.

1. No cubriremos múltiples predictores hasta el Capítulo 15
2. La experimentación informal en mi jardín sugiere que sí, lo hace. Los nativos australianos están adaptados a bajos niveles de fósforo en relación con cualquier otra parte de la Tierra, al parecer, así que si has comprado una casa con un montón de exóticos y quieres plantar nativos, no sigas mi ejemplo: mantenlos separados. Los nutrientes para las plantas europeas son veneno para las australianas. Probablemente haya una broma en eso, pero no puedo entender de qué se trata.
3. En realidad esto es demasiado fuerte. Estrictamente hablando la prueba z solo requiere que la distribución muestral de la media se distribuya normalmente; si la población es normal entonces necesariamente se deduce que la distribución muestral de la media también es normal. Sin embargo, como vimos al hablar del teorema del límite central, es bastante posible (incluso común) que la distribución muestral sea normal aunque la distribución poblacional en sí no sea normal. Sin embargo, a la luz de la pura ridiculez de la suposición de que se conoce la verdadera desviación estándar, ¡realmente no tiene mucho sentido entrar en detalles en este frente!
4. Bueno, algo así como. Según entiendo la historia, Gosset solo brindó una solución parcial: la solución general al problema la brindó Sir Ronald Fisher.
5. Más en serio, tiendo a pensar que lo contrario es cierto: me desconfío mucho de los informes técnicos que llenan sus secciones de resultados con nada excepto los números. Podría ser solo que soy un imbécil arrogante, pero a menudo me siento como un autor que no intenta explicar e interpretar su análisis al lector o no lo entiende por sí mismo, o está siendo un poco vago. Tus lectores son inteligentes, pero no infinitamente pacientes. No los molestes si puedes evitarlo.
6. A pesar de que es la más sencilla, por eso empecé con ella.
7. Casi siempre surge una pregunta graciosa en este punto: ¿a qué diablos se refiere la población en este caso? ¿Es el conjunto de estudiantes que realmente toman la clase del Dr. Harpo (los 33 de ellos)? ¿El conjunto de personas que podrían tomar la clase (un número desconocido) de ellas? ¿O algo más? ¿Importa cuál de estos escojamos? Es tradicional en una clase introductoria de estadísticas conductuales murmurar mucho en este momento, pero como mis alumnos me hacen esta pregunta todos los años, voy a dar una breve respuesta. Técnicamente sí, sí importa: si cambias tu definición de lo que realmente es la población del “mundo real”, entonces la distribución muestral de tu media observada ¯X cambia también. La prueba t se basa en la suposición de que las observaciones son muestreadas al azar de una población infinitamente grande; y en la medida en que la vida real no es así, entonces la prueba t puede estar equivocada. En la práctica, sin embargo, esto no suele ser gran cosa: aunque la suposición casi siempre es incorrecta, no conlleva mucho comportamiento patológico por parte de la prueba, por lo que tendemos a ignorarlo.
8. Sí, tengo una forma “favorita” de pensar en estimaciones de desviación estándar agrupadas. Entonces, ¿qué?
9. Se introducirá una notación más correcta en el Capítulo 14.
10. Bueno, supongo que puedes promediar manzanas y naranjas, y con lo que terminas es un delicioso batido de frutas. Pero nadie piensa realmente que un batido de frutas es una muy buena manera de describir las frutas originales, ¿verdad?
11. Este diseño es muy similar al de la Sección 12.8 que motivó la prueba McNemar. Esto no debería ser ninguna sorpresa. Ambos son diseños estándar de medidas repetidas que involucran dos mediciones. La única diferencia es que esta vez nuestra variable de resultado es la escala de intervalos (capacidad de memoria de trabajo) en lugar de una variable binaria de escala nominal (una pregunta de sí o no).
12. En este punto tenemos a los Dres Harpo, Chico y Zeppo. No hay premios por adivinar quién es el Dr. Groucho.
13. Esto es obviamente una clase que se imparte en una universidad muy pequeña o muy cara, o bien es una clase de posgrado. Nunca he enseñado una clase de intro stats con menos de 350 alumnos.
14. La función sortFrame () ordena variables de factor como id en orden alfabético, por lo que salta de “student1" a “student10”
15. Se trata de una simplificación excesiva masiva.
16. O eso, o la prueba de Kolmogorov-Smirnov, que probablemente sea más tradicional que la Shapiro-Wilk, aunque la mayoría de las cosas que he leído parecen sugerir que Shapiro-Wilk es la mejor prueba de normalidad; aunque Kolomogorov-Smirnov es una prueba de propósito general de equivalencia distribucional, por lo que se puede adaptar para manejar otro tipo de pruebas de distribución; en R se implementa a través de la función ks.test ().
17. En realidad, hay dos versiones diferentes del estadístico de prueba; se diferencian entre sí por un valor constante. La versión que he descrito es la que R calcula.

This page titled 13.11: Resumen is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.