Saltar al contenido principal
LibreTexts Español

10.7: Tamaños de efecto e intervalos de confianza

  • Page ID
    151032
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Hemos visto en capítulos anteriores que incluso un efecto estadísticamente significativo necesita ser interpretado junto con un tamaño de efecto para ver si es prácticamente significativo. También hemos visto que nuestras medias muestrales, como estimación puntual, no son perfectas y estarían mejor representadas por un rango de valores que llamamos intervalo de confianza. Al igual que con todos los demás temas, esto también es cierto para nuestras muestras independientes\(t\) -pruebas.

    Nuestro tamaño de efecto para la\(t\) prueba de muestras independientes sigue siendo el de Cohen\(d\), y sigue siendo solo nuestro efecto observado dividido por la desviación estándar. Recuerde que la desviación estándar es solo la raíz cuadrada de la varianza, y debido a que trabajamos con varianza agrupada en nuestro estadístico de prueba, usaremos la raíz cuadrada de la varianza agrupada como nuestro denominador en la fórmula para Cohen's\(d\). Esto nos da:

    \[d=\dfrac{\overline{X_{1}}-\overline{X_{2}}}{\sqrt{s_{p}^{2}}} \]

    Para nuestro ejemplo anterior, podemos calcular el tamaño del efecto para que sea:

    \[d=\dfrac{24.00-16.50}{\sqrt{144.48}}=\dfrac{7.50}{12.02}=0.62 \nonumber \]

    Interpretamos esto usando las mismas pautas que antes, por lo que consideraríamos esto un efecto moderado o moderadamente grande.

    Nuestros intervalos de confianza también toman la misma forma e interpretación que en el pasado. El valor que nos interesa es la diferencia entre las dos medias, por lo que nuestra estimación puntual es el valor de una media menos la otra, o xbar1 menos xbar2. Al igual que antes, este es nuestro efecto observado y es el mismo valor que el que colocamos en el numerador de nuestra estadística de prueba. Calculamos este valor y luego colocamos el margen de error —aún nuestro valor crítico multiplicado por nuestro error estándar— por encima y por debajo de él. Es decir:

    \[\text { Confidence Interval }=(\overline{X_{1}}-\overline{X_{2}}) \pm t^{*}\left(s_{\overline{X_{1}}-\overline{X_{2}}}\right) \]

    Debido a que nuestro ejemplo de prueba de hipótesis utilizó una prueba de una cola, sería inapropiado calcular un intervalo de confianza en esos datos (recuerde que solo podemos calcular un intervalo de confianza para una prueba de dos colas porque el intervalo se extiende en ambas direcciones). Digamos que encontramos estadísticas resumidas sobre la satisfacción media con la vida de personas de dos pueblos diferentes y queremos crear un intervalo de confianza para ver si la diferencia entre los dos en realidad podría ser cero.

    Nuestros datos de muestra son\(\overline{X_{1}}=28.65\; \mathrm{s}_{1}=12.40\; \mathrm{n}_{1}=40\) y\(\overline{X_{2}}=25.40 \mathrm{s}_{2}=15.68 \mathrm{n}_{2}=42\). Al pie de la letra, parece que las personas del primer pueblo tienen mayor satisfacción con la vida (28.65 vs. 25.40), pero tomará un intervalo de confianza (o proceso completo de prueba de hipótesis) para ver si eso es cierto o solo por casualidad aleatoria. Primero, queremos calcular la diferencia entre nuestras medias muestrales, que es 28.65 — 25.40 = 3.25. A continuación, necesitamos un valor crítico\(t\) de nuestra mesa. Si queremos probar al nivel normal de confianza del 95%, entonces nuestros tamaños de muestra producirán grados de libertad iguales a 40 + 42 — 2 = 80. De nuestra tabla, eso nos da un valor crítico de\(t*\) = 1.990. Por último, necesitamos nuestro error estándar. Recordemos que nuestro error estándar para una\(t\) prueba de muestras independientes utiliza varianza agrupada, que requiere la Suma de Cuadrados y grados de libertad. Hasta este punto, hemos calculado la Suma de Cuadrados utilizando datos brutos, pero en esta situación, no tenemos acceso a ella. Entonces, ¿qué vamos a hacer?

    Si tenemos datos resumidos como la desviación estándar y el tamaño de la muestra, es muy fácil calcular la varianza agrupada, y la clave radica en reorganizar las fórmulas para trabajar hacia atrás a través de ellas. Necesitamos la Suma de Cuadrados y grados de libertad para calcular nuestra varianza agrupada. Grados de libertad es muy sencillo: solo tomamos el tamaño de la muestra menos 1.00 para cada grupo. Obtener la Suma de Cuadrados también es fácil: recuerde que la varianza es desviación estándar al cuadrado y es la Suma de Cuadrados dividida por los grados de libertad. Es decir:

    \[s^{2}=(s)^{2}=\dfrac{S S}{d f} \]

    Para obtener la Suma de Cuadrados, simplemente multiplicamos ambos lados de la ecuación anterior para obtener:

    \[s^{2} * d f=S S \]

    Que es la desviación estándar cuadrada multiplicada por los grados de libertad (\(n-1\)) es igual a la Suma de Cuadrados.

    Usando nuestros datos de ejemplo:

    \[\begin{array}{c}{\left(s_{1}\right)^{2} * d f_{1}=S S_{1}} \\ {(12.40)^{2} *(40-1)=5996.64}\end{array} \nonumber \]

    \[\begin{array}{c}{\left(s_{2}\right)^{2} * d f_{2}=S S_{2}} \\ {(15.68)^{2} *(42-1)=10080.36}\end{array} \nonumber \]

    Y así nuestra varianza agrupada es igual a:

    \[s_{p}^{2}=\dfrac{S S_{1}+S S_{2}}{d f_{1}+d f_{2}}=\dfrac{5996.64+10080.36}{39+41}=\dfrac{16077}{80}=200.96 \nonumber \]

    Y nuestro error estándar es igual a:

    \[s_{\bar{x}_{1}-\bar{x}_{2}}=\sqrt{\frac{s_{p}^{2}}{n_{1}}+\frac{s_{p}^{2}}{n_{2}}}=\sqrt{\frac{200.96}{40}+\frac{200.96}{42}}=\sqrt{5.02+4.78}=\sqrt{9.89}=3.14 \nonumber \]

    Todos estos pasos son formas ligeramente diferentes de usar las mismas fórmulas, números e ideas con las que hemos trabajado hasta este momento. Una vez que salgamos el error estándar, es el momento de construir nuestro intervalo de confianza.

    \[95 \% C I=3.25 \pm 1.990(3.14) \nonumber \]

    \[\begin{aligned} \text {Upper Bound} &=3.25+1.990(3.14) \\ U B &=3.25+6.25 \\ U B &=9.50 \end{aligned} \nonumber \]

    \[\begin{array}{l}{\text { Lower Bound }=3.25-1.990(3.14)} \\ {\qquad \begin{aligned} L B=& 3.25-6.25 \\ L B &=-3.00 \end{aligned}}\end{array} \nonumber \]

    \[95 \% C I=(-3.00,9.50) \nonumber \]

    Nuestro intervalo de confianza, como siempre, representa un rango de valores que se considerarían razonables o plausibles en base a nuestros datos observados. En esta instancia, nuestro intervalo (-3.00, 9.50) sí contiene cero. Así, aunque los medios se vean un poco diferentes, muy bien puede darse el caso de que la satisfacción con la vida en ambos pueblos sea la misma. Demostrar lo contrario requeriría más datos.


    This page titled 10.7: Tamaños de efecto e intervalos de confianza is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Foster et al. (University of Missouri’s Affordable and Open Access Educational Resources Initiative) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.