Saltar al contenido principal
LibreTexts Español

10.6: Resumen

  • Page ID
    151445
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    En este capítulo he tratado dos temas principales. La primera mitad del capítulo habla sobre la teoría del muestreo, y la segunda parte habla sobre cómo podemos utilizar la teoría del muestreo para construir estimaciones de los parámetros poblacionales. El desglose de la sección se ve así:

    • Ideas básicas sobre muestras, muestreo y poblaciones (Sección 10.1)
    • Teoría estadística del muestreo: la ley de los grandes números (Sección 10.2), las distribuciones de muestreo y el teorema del límite central (Sección 10.3).
    • Estimación de medias y desviaciones estándar (Sección 10.4)
    • Estimación de un intervalo de confianza (Sección 10.5)

    Como siempre, hay muchos temas relacionados con el muestreo y la estimación que no están cubiertos en este capítulo, pero para una clase introductoria de psicología esto es bastante completo, creo. Para la mayoría de los investigadores aplicados no necesitarás mucha más teoría que esta. Una gran pregunta que no he tocado en este capítulo es qué haces cuando no tienes una simple muestra aleatoria. Hay mucha teoría estadística en la que puedes aprovechar para manejar esta situación, pero está mucho más allá del alcance de este libro.


    Referencias

    Stigler, S. M. 1986. La Historia de la Estadística. Cambridge, MA: Prensa de la Universidad de Harvard.

    Keynes, John Maynard. 1923. Un tratado sobre la reforma monetaria. Londres: Macmillan; Empresa.


    1. La adecuada definición matemática de aleatoriedad es extraordinariamente técnica, y mucho más allá del alcance de este libro. Aquí seremos no técnicos y diremos que un proceso tiene un elemento de aleatoriedad siempre que sea posible repetir el proceso y obtener diferentes respuestas cada vez.
    2. Nada en la vida es así de simple: no hay una división obvia de las personas en categorías binarias como “esquizofrénico” y “no esquizofrénico”. Pero este no es un texto de psicología clínica, así que por favor perdóname algunas simplificaciones aquí y allá.
    3. Técnicamente, la ley de grandes números pertenece a cualquier estadística muestral que pueda describirse como promedio de cantidades independientes. Eso es cierto para la media de la muestra. Sin embargo, también es posible escribir muchas otras estadísticas de muestra como promedios de una forma u otra. La varianza de una muestra, por ejemplo, puede reescribirse como una especie de promedio y así está sujeta a la ley de grandes números. El valor mínimo de una muestra, sin embargo, no puede escribirse como promedio de nada y por lo tanto no se rige por la ley de grandes números.
    4. Como siempre, estoy siendo un poco descuidado aquí. El teorema del límite central es un poco más general de lo que implica esta sección. Como la mayoría de los textos introductorios de estadísticas, he discutido una situación en la que se mantiene el teorema del límite central: cuando estás tomando un promedio a través de muchos eventos independientes extraídos de la misma distribución. Sin embargo, el teorema del límite central es mucho más amplio que este. Hay toda una clase de cosas llamadas “estadísticas U”, por ejemplo, todas las cuales satisfacen el teorema del límite central y, por lo tanto, se distribuyen normalmente para grandes tamaños de muestra. La media es una de esas estadísticas, pero no es la única.
    5. Ten en cuenta que si realmente estabas interesado en esta pregunta, tendrías que ser mucho más cuidadoso de lo que estoy aquí. No se puede simplemente comparar los puntajes de CI en Whyalla con Port Pirie y asumir que cualquier diferencia se debe a intoxicación por plomo. Aunque fuera cierto que las únicas diferencias entre los dos pueblos correspondían a las distintas refinerías (y no lo es, no por mucho tiempo), hay que dar cuenta de que la gente ya cree que la contaminación por plomo causa déficits cognitivos: si recuerdas de nuevo al Capítulo 2, esto significa que hay diferentes efectos de demanda para la muestra de Port Pirie que para la muestra de Whyalla. En otras palabras, podrías terminar con una diferencia de grupo ilusoria en tus datos, causada por el hecho de que la gente piensa que hay una diferencia real. Me parece bastante inverosímil pensar que los lugareños no serían muy conscientes de lo que estabas tratando de hacer si un grupo de investigadores aparecieran en Port Pirie con batas de laboratorio y pruebas de coeficiente intelectual, y aún menos plausible pensar que mucha gente estaría bastante resentida contigo por hacerlo. Esa gente no va a ser tan cooperativa en las pruebas. Otras personas en Port Pirie podrían estar más motivadas para hacerlo bien porque no quieren que su ciudad natal se vea mal. Es probable que los efectos motivacionales que aplicarían en Whyalla sean más débiles, porque las personas no tienen ningún concepto de “envenenamiento por mineral de hierro” de la misma manera que tienen un concepto de “envenenamiento por plomo”. La psicología es dura.
    6. Debo señalar que aquí estoy escondiendo algo. La falta de sesgo es una característica deseable para un estimador, pero hay otras cosas que importan además del sesgo. Sin embargo, está más allá del alcance de este libro discutir esto con todo detalle. Sólo quiero llamar su atención sobre el hecho de que aquí hay cierta complejidad oculta.
    7. , estoy escondiendo algo más aquí. En un giro extraño y contradictorio, ya que\(\hat{σ}\ ^2\) es un estimador imparcial de σ 2, se asumiría que tomar la raíz cuadrada estaría bien, y\(\hat{σ}\) sería un estimador imparcial de σ. ¿Correcto? De manera extraña, no lo es. En realidad hay un sutil, pequeño sesgo en\(\hat{σ}\). Esto es simplemente extraño:\(\hat{σ}\ ^2\) es y estimación imparcial de la varianza poblacional σ 2, pero cuando se toma la raíz cuadrada, resulta que ^σ es un estimador sesgado de la desviación estándar poblacional σ. Raro, raro, raro, ¿verdad? Entonces, ¿por qué está\(\hat{σ}\) sesgado? La respuesta técnica es “porque las transformaciones no lineales (por ejemplo, la raíz cuadrada) no se conmutan con expectativa”, pero eso solo suena como un galimatías para todos los que no han tomado un curso de estadística matemática. Afortunadamente, no importa para fines prácticos. El sesgo es pequeño, y en la vida real todo el mundo usa\(\hat{σ}\) y funciona bien. A veces las matemáticas son simplemente molestas.
    8. Esta cita aparece en una gran cantidad de camisetas y sitios web, e incluso recibe una mención en algunos trabajos académicos (por ejemplo,\ url {http://www.amstat.org/publications/jse/v10n3/friedman.html
    9. A partir de la redacción actual, estos son los únicos argumentos a la función. Sin embargo, estoy planeando agregar un poco más de funcionalidad a CiMean (). Sin embargo, independientemente de cómo se vean esos cambios futuros, los argumentos x y conf seguirán siendo los mismos, y los comandos utilizados en este libro seguirán funcionando.

    This page titled 10.6: Resumen is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Danielle Navarro via source content that was edited to the style and standards of the LibreTexts platform.