Saltar al contenido principal
LibreTexts Español

2.7: Análisis de los datos

  • Page ID
    144688
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje
    1. Distinguir entre estadística descriptiva e inferencial
    2. Identificar los diferentes tipos de estadísticas descriptivas que utilizan los investigadores para resumir sus datos
    3. Describir el propósito de la estadística inferencial.
    4. Distinguir entre errores Tipo I y Tipo II.

    Una vez que el estudio está completo y se han realizado y registrado las observaciones, los investigadores necesitan analizar los datos y sacar sus conclusiones. Por lo general, los datos se analizan utilizando estadísticas descriptivas e inferenciales. Se utilizan estadísticas descriptivas para resumir los datos y se utilizan estadísticas inferenciales para generalizar los resultados de la muestra a la población. A su vez, se utilizan estadísticas inferenciales para sacar conclusiones sobre si una teoría ha sido apoyada, refutada o requiere modificación o no.

    Estadística Descriptiva

    Se utilizan estadísticas descriptivas para organizar o resumir un conjunto de datos. Los ejemplos incluyen porcentajes, medidas de tendencia central (media, mediana, modo), medidas de dispersión (rango, desviación estándar, varianza) y coeficientes de correlación.

    Se utilizan medidas de tendencia central para describir el típico, promedio y centro de una distribución de puntajes. El modo es el puntaje que ocurre con mayor frecuencia en una distribución. La mediana es el punto medio de una distribución de puntajes. La media es el promedio de una distribución de puntajes.

    Las medidas de dispersión también se consideran estadísticas descriptivas. Se utilizan para describir el grado de propagación en un conjunto de puntajes. Entonces, ¿todas las puntuaciones son similares y agrupadas alrededor de la media o hay mucha variabilidad en las puntuaciones? El rango es una medida de dispersión que mide la distancia entre las puntuaciones más altas y más bajas en una distribución. La desviación estándar es una medida de dispersión más sofisticada que mide la distancia promedio de las puntuaciones a la media. La varianza es solo la desviación estándar al cuadrado. Por lo que también mide la distancia de las puntuaciones a la media pero en una unidad de medida diferente.

    Normalmente se calculan medias y desviaciones estándar para estudios de investigación experimental en los que se manipuló una variable independiente para producir dos o más grupos y se midió cuantitativamente una variable dependiente. Las medias de cada grupo experimental o condición se calculan por separado y se comparan para ver si difieren.

    Para investigaciones no experimentales, se pueden computar porcentajes simples para describir el porcentaje de personas que se involucraron en algún comportamiento o tenían alguna creencia. Pero más comúnmente la investigación no experimental implica computar la correlación entre dos variables. Un coeficiente de correlación describe la fuerza y dirección de la relación entre dos variables. Los valores de un coeficiente de correlación pueden variar de −1.00 (la relación negativa más fuerte posible) a +1.00 (la relación positiva más fuerte posible). Un valor de 0 significa que no hay relación entre las dos variables. Los coeficientes de correlación positiva indican que a medida que aumentan los valores de una variable, también lo hacen los valores de la otra variable. Un buen ejemplo de correlación positiva es la correlación entre altura y peso, ya que a medida que aumenta la altura el peso también tiende a aumentar. Los coeficientes de correlación negativos indican que a medida que aumenta el valor de una variable, los valores de la otra variable disminuyen. Un ejemplo de correlación negativa es la correlación entre los eventos estresantes de la vida y la felicidad; porque a medida que aumenta el estrés, es probable que disminuya la felicidad.

    Estadísticas Inferenciales

    Como aprendiste en la sección de este capítulo sobre muestreo, normalmente los investigadores toman muestras de una población pero en última instancia quieren poder generalizar sus resultados de la muestra a una población más amplia. Los investigadores suelen querer inferir cómo es la población con base en la muestra que estudiaron. Para ello se utilizan estadísticas inferenciales. Las estadísticas inferenciales permiten a los investigadores sacar conclusiones sobre una población a partir de datos de una muestra. Las estadísticas inferenciales son cruciales porque los efectos (es decir, las diferencias en las medias o el coeficiente de correlación) que los investigadores encuentran en un estudio pueden deberse simplemente a la variabilidad aleatoria al azar o pueden deberse a un efecto real (es decir, pueden reflejar una relación real entre variables o una real efecto de una variable independiente sobre una variable dependiente).

    Los investigadores utilizan estadísticas inferenciales para determinar si sus efectos son estadísticamente significativos. Un efecto estadísticamente significativo es aquel que es poco probable debido a la probabilidad aleatoria y por lo tanto probablemente representa un efecto real en la población. Más específicamente, los resultados que tienen menos de un 5% de probabilidad de ser debidos a un error aleatorio se consideran típicamente estadísticamente significativos. Cuando un efecto es estadísticamente significativo es apropiado generalizar los resultados de la muestra a la población. En contraste, si las estadísticas inferenciales revelan que hay más de un 5% de probabilidad de que un efecto pueda deberse solo a un error casual, entonces el investigador debe concluir que su resultado no es estadísticamente significativo.

    Es importante tener en cuenta que las estadísticas son de naturaleza probabilística. Permiten a los investigadores determinar si las posibilidades son bajas de que sus resultados se deban a un error aleatorio, pero no proporcionan ninguna certeza absoluta. Ojalá, cuando concluimos que un efecto es estadísticamente significativo es un efecto real que encontraríamos si analizáramos a toda la población. Y ojalá cuando concluyamos que un efecto no es estadísticamente significativo realmente no hay efecto y si probamos a toda la población no encontraríamos ningún efecto. Y ese umbral del 5% se fija en el 5% para asegurar que haya una alta probabilidad de que tomemos una decisión correcta y que nuestra determinación de significancia estadística sea un reflejo exacto de la realidad.

    Pero siempre se pueden cometer errores. Específicamente, se pueden cometer dos tipos de errores. En primer lugar, los investigadores pueden cometer un error Tipo I, que es un falso positivo. Es cuando un investigador concluye que sus resultados son estadísticamente significativos (por lo que dicen que hay un efecto en la población) cuando en realidad no hay un efecto real en la población y los resultados son solo por casualidad (son una casualidad). Cuando el umbral se establece en 5%, que es la convención, entonces el investigador tiene un 5% de probabilidad o menos de cometer un error de Tipo I. Quizás te preguntes por qué los investigadores no lo establecen aún más bajo para reducir las posibilidades de cometer un error de Tipo I. El motivo es que cuando se reducen las posibilidades de cometer un error de Tipo I, se incrementan las posibilidades de cometer un error de Tipo II. Un error Tipo II es una oportunidad perdida. Es cuando un investigador concluye que sus resultados no son estadísticamente significativos cuando en realidad hay un efecto real en la población y simplemente se perdió detectarlo. Una vez más, es más probable que estos errores de Tipo II ocurran cuando el umbral se establece demasiado bajo (por ejemplo, se establece en 1% en lugar de 5%) y/o cuando la muestra era demasiado pequeña.


    This page titled 2.7: Análisis de los datos is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Rajiv S. Jhangiani, I-Chant A. Chiang, Carrie Cuttler, & Dana C. Leighton.