Saltar al contenido principal
LibreTexts Español

5.3: Juicio y Toma de Decisiones

  • Page ID
    146561
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Por Max H. Bazerman

    Universidad de Harvard

    Los humanos no son perfectos tomadores de decisiones. No sólo no somos perfectos, sino que nos apartamos de la perfección o racionalidad de manera sistemática y predecible. La comprensión de estas salidas sistemáticas y predecibles es fundamental para el campo del juicio y la toma de decisiones. Al comprender estas limitaciones, también podemos identificar estrategias para tomar mejores y más efectivas decisiones.

    objetivos de aprendizaje

    • Comprender los sesgos sistemáticos que afectan nuestro juicio y toma de decisiones.
    • Desarrollar estrategias para tomar mejores decisiones.
    • Experimente algunos de los sesgos a través de decisiones de muestra.

    Introducción

    Todos los días tienes la oportunidad de tomar innumerables decisiones: debes comer postre, hacer trampa en una prueba o asistir a un evento deportivo con tus amigos. Si reflexionas sobre tu propia historia de elecciones te darás cuenta de que varían en calidad; algunas son racionales y otras no. Este módulo proporciona una visión general de la toma de decisiones e incluye la discusión de muchos de los sesgos comunes involucrados en este proceso.

    En su obra ganadora del Premio Nobel, el psicólogo Herbert Simon (1957; March & Simon, 1958) argumentó que nuestras decisiones están limitadas en su racionalidad. De acuerdo con el marco de racionalidad acotada, los seres humanos tratan de tomar decisiones racionales (como sopesar los costos y beneficios de una elección) pero nuestras limitaciones cognitivas nos impiden ser completamente racionales. Las limitaciones de tiempo y costo limitan la cantidad y calidad de la información que tenemos a nuestro alcance. Además, solo conservamos una cantidad relativamente pequeña de información en nuestra memoria utilizable. Y las limitaciones en la inteligencia y las percepciones limitan la capacidad de incluso los tomadores de decisiones muy brillantes para tomar la mejor decisión con precisión en función de la información disponible.

    Unos 15 años después de la publicación de la obra seminal de Simon, Tversky y Kahneman (1973, 1974; Kahneman & Tversky, 1979) produjeron su propia investigación ganadora del Premio Nobel, la cual proporcionó información crítica sobre sesgos o errores específicos sistemáticos y predecibles que influyen en el juicio ( Kahneman recibió el premio tras la muerte de Tversky). El trabajo de Simon, Tversky y Kahneman allanó el camino a nuestra comprensión moderna del juicio y la toma de decisiones. Y sus dos premios Nobel señalaron la amplia aceptación del campo de la investigación de decisiones conductuales como un área madura de estudio intelectual.

    ¿Cómo sería una decisión racional?

    Imagina que durante tu último año en la universidad, aplicas a una serie de programas de doctorado, escuelas de derecho o escuelas de negocios (u otro conjunto de programas en el campo que más te interese). La buena noticia es que recibes muchas cartas de aceptación. Entonces, ¿cómo debes decidir a dónde ir? Bazerman y Moore (2013) describen los siguientes seis pasos que debes tomar para tomar una decisión racional: (1) definir el problema (es decir, seleccionar el programa de posgrado adecuado), (2) identificar los criterios necesarios para juzgar las múltiples opciones (ubicación, prestigio, facultad, etc.), (3) ponderar los criterios (clasificarlos en términos de importancia para ti), (4) generar alternativas (las escuelas que te admitieron), (5) calificar cada alternativa en cada criterio (calificar cada escuela en cada criterio que identificaste, y (6) computar la decisión óptima. Actuar racionalmente requeriría que sigas estos seis pasos de una manera totalmente racional.

    Tres puertas cerradas idénticas.
    Las personas a menudo tienen que usar información e intuición incompletas para tomar incluso la más importante de las decisiones. Una decisión totalmente racional requiere de un proceso cuidadoso y sistemático. [Imagen: CC0 Dominio público, goo.gl/m25gce]

    Aconsejo encarecidamente a la gente que piense en decisiones importantes como esta de una manera similar a este proceso. Desafortunadamente, muchas veces no lo hacemos Muchos de nosotros confiamos en nuestras intuiciones mucho más de lo que deberíamos. Y cuando tratamos de pensar sistemáticamente, la forma en que ingresamos datos en tales procesos formales de toma de decisiones suele estar sesgada.

    Afortunadamente, los psicólogos han aprendido mucho sobre los sesgos que afectan nuestro pensamiento. Este conocimiento sobre los errores sistemáticos y predecibles que incluso los mejores y los más brillantes cometen pueden ayudarte a identificar fallas en tus procesos de pensamiento y llegar a mejores decisiones.

    Sesgos en nuestro proceso de decisión

    El concepto de racionalidad acotada de Simon nos enseñó que el juicio se desvía de la racionalidad, pero no nos decía cómo es sesgado el juicio. La investigación de Tversky y Kahneman (1974) ayudó a diagnosticar los sesgos sistemáticos y direccionales específicos que afectan el juicio humano. Estos sesgos son creados por la tendencia a cortocircuitar un proceso de decisión racional al basarse en una serie de estrategias simplificadoras, o reglas generales, conocidas como heurísticas. La heurística nos permite hacer frente al complejo entorno que rodea nuestras decisiones. Desafortunadamente, también conducen a sesgos sistemáticos y predecibles.

    Para resaltar algunos de estos sesgos, responda los siguientes tres ítems del cuestionario:

    Problema 1 (adaptado de Alpert & Raiffa, 1969):

    A continuación se enumeran 10 cantidades inciertas. No busques ninguna información sobre estos artículos. Para cada uno, anota tu mejor estimación de la cantidad. A continuación, ponga un límite inferior y superior alrededor de su estimación, de tal manera que esté 98 por ciento seguro de que su rango rodea la cantidad real. Responde a cada uno de estos artículos aunque admitas conocer muy poco sobre estas cantidades.

    1. El primer año en que se otorgó el Premio Nobel de la Paz
    2. La fecha en que los franceses celebran el “Día de la Bastilla”
    3. La distancia de la Tierra a la Luna
    4. La altura de la Torre Inclinada de Pisa
    5. Número de estudiantes que asisten a la Universidad de Oxford (a 2014)
    6. Número de personas que han viajado al espacio (a partir de 2013)
    7. Presupuesto anual 2012-2013 para la Universidad de Pensilvania
    8. Esperanza de vida promedio en Bangladesh (a partir de 2012)
    9. Récord mundial de dominadas en un periodo de 24 horas
    10. Número de colegios y universidades en el área metropolitana de Boston

    Problema 2 (adaptado de Joyce & Biddle, 1981):

    Sabemos que el fraude ejecutivo ocurre y que se ha asociado con muchos escándalos financieros recientes. Y, sabemos que muchos casos de fraude gerencial pasan desapercibidos incluso cuando se realizan auditorías anuales. ¿Cree que la incidencia de fraude significativo en la gestión a nivel ejecutivo es de más de 10 de cada mil firmas (es decir, 1 por ciento) auditadas por firmas contables Big Four?

    1. Sí, más de 10 de cada 1,000 clientes de Big Four tienen un importante fraude de administración a nivel ejecutivo.
    2. No, menos de 10 de cada 1,000 clientes de Big Four tienen un importante fraude de administración a nivel ejecutivo.

    ¿Cuál es su estimación del número de clientes de Big Four por cada 1,000 que tienen un fraude significativo en la administración a nivel ejecutivo? (Rellena el espacio en blanco que aparece a continuación con el número correspondiente.)

    ________ en 1,000 clientes de Big Four tienen un importante fraude de administración a nivel ejecutivo.

    Problema 3 (adaptado de Tversky y Kahneman, 1981):

    Imagínese que Estados Unidos se está preparando para el brote de una inusual enfermedad aviar que se espera que mate a 600 personas. Se han propuesto dos programas alternativos para combatir la enfermedad. Supongamos que las estimaciones científicas exactas de las consecuencias de los programas son las siguientes.

    1. Programa A: Si se adopta el Programa A, se salvarán 200 personas.
    2. Programa B: Si se adopta el Programa B, existe una probabilidad de un tercio de que 600 personas sean salvadas y una probabilidad de dos tercios de que no se salve a ninguna gente.

    ¿Cuál de los dos programas favorecería?

    Exceso de confianza

    En el primer problema, si estableces tus rangos para que estuvieras justificadamente un 98 por ciento de confianza, debes esperar que aproximadamente 9.8, o nueve a 10, de tus rangos incluyan el valor real. Entonces, veamos las respuestas correctas:

    Una mano de poker muestra dos parejas.
    El exceso de confianza es una parte natural del proceso de toma de decisiones de la mayoría de las personas y esto puede meternos en problemas. ¿Es posible superar nuestro pensamiento defectuoso? Tal vez. Consulte la sección “Fijando nuestras decisiones” a continuación. [Imagen: Granero Imágenes, https://goo.gl/IYzbDV, CC BY 2.0, goo.gl/BRVSA7]
    1. 1901
    2. 14 de Julio
    3. 384.403 km (238.857 mi)
    4. 56.67 m (183 ft)
    5. 22,384 (a partir de 2014)
    6. 536 personas (a partir de 2013)
    7. $6.007 mil millones
    8. 70.3 años (a partir de 2012)
    9. 4,321
    10. 52

    Cuenta el número de tus rangos del 98% que realmente rodearon las cantidades verdaderas. Si rodeaste de nueve a 10, tenías confianza apropiada en tus juicios. Pero la mayoría de los lectores rodean solo entre tres (30%) y siete (70%) de las respuestas correctas, a pesar de afirmar que el 98% confía en que cada rango rodearía el verdadero valor. Como muestra este problema, los humanos tienden a estar demasiado confiados en sus juicios.

    Anclaje

    En cuanto al segundo problema, las personas varían mucho en su evaluación final del nivel de fraude de gestión a nivel ejecutivo, pero la mayoría piensa que 10 de cada mil es demasiado bajo. Cuando ejecuto este ejercicio en clase, la mitad de los alumnos responden a la pregunta que yo te pedí que respondieras. La otra mitad recibe un problema similar, pero en cambio se les pregunta si la respuesta correcta es mayor o menor que 200 en lugar de 10. La mayoría de la gente piensa que 200 es alto. Pero, nuevamente, la mayoría de la gente afirma que este “ancla” no afecta su estimación final. Sin embargo, en promedio, las personas a las que se les presenta la pregunta que se enfoca en el número 10 (de 1,000) dan respuestas que son aproximadamente la mitad del tamaño de las estimaciones de quienes enfrentan preguntas que utilizan un ancla de 200. Cuando estamos tomando decisiones, es probable que cualquier ancla inicial que enfrentemos influya en nuestros juicios, aunque el ancla sea arbitraria. Es decir, ajustamos insuficientemente nuestros juicios lejos del ancla.

    Enmarcado

    Pasando al Problema 3, la mayoría de la gente elige el Programa A, que seguro salva 200 vidas, sobre el Programa B. Pero, nuevamente, si estuviera frente a un aula, solo la mitad de mis alumnos recibiría este problema. La otra mitad habría recibido la misma configuración, pero con las siguientes dos opciones:

    1. Programa C: Si se adopta el Programa C, morirán 400 personas.
    2. Programa D: Si se adopta el Programa D, hay una probabilidad de un tercio de que nadie muera y una probabilidad de dos tercios de que mueran 600 personas.

    ¿Cuál de los dos programas favorecería?

    Una revisión cuidadosa de las dos versiones de este problema aclara que objetivamente son las mismas. Ahorrar a 200 personas (Programa A) significa perder 400 personas (Programa C), y los Programas B y D también son objetivamente idénticos. Sin embargo, en uno de los problemas más famosos en el juicio y la toma de decisiones, la mayoría de los individuos eligen el Programa A en el primer set y el Programa D en el segundo set (Tversky & Kahneman, 1981). La gente responde de manera muy diferente al ahorro en lugar de perder vidas, incluso cuando la diferencia se basa solo en el “encuadre” de las elecciones.

    El problema al que te pedí que respondieras estaba enmarcado en términos de salvar vidas, y el punto de referencia implícito fue el peor resultado de 600 muertes. La mayoría de nosotros, cuando tomamos decisiones que conciernen a ganancias, somos reacios al riesgo; como consecuencia, aseguramos la posibilidad de salvar 200 vidas con seguridad. En la versión alternativa, el problema se enmarca en términos de pérdidas. Ahora el punto de referencia implícito es el mejor resultado de la ausencia de muertes por la enfermedad aviar. Y en este caso, la mayoría de las personas buscan riesgos a la hora de tomar decisiones con respecto a pérdidas.

    Estos son solo tres de los muchos sesgos que afectan incluso a los más inteligentes entre nosotros. Otras investigaciones muestran que estamos sesgados a favor de la información que es fácil de recuperar para nuestras mentes, somos insensibles a la importancia de las tasas base y tamaños de muestra cuando estamos haciendo inferencias, asumir que los eventos aleatorios siempre se verán aleatorios, buscar información que confirme nuestras expectativas incluso cuando desconfirmar la información sería más informativa, reivindicar a priori conocimientos que no existían debido al sesgo de retrospectiva, y están sujetos a una serie de otros efectos que continúan desarrollándose en la literatura (Bazerman & Moore, 2013).

    Desarrollos Contemporáneos

    La racionalidad acotada sirvió como concepto integrador del campo de la investigación de decisiones conductuales durante 40 años. Entonces, en 2000, Thaler (2000) sugirió que la toma de decisiones está delimitada de dos maneras no capturadas precisamente por el concepto de racionalidad acotada. En primer lugar, argumentó que nuestra fuerza de voluntad está limitada y que, como consecuencia, damos mayor peso a las preocupaciones presentes que a las futuras. Nuestras motivaciones inmediatas a menudo son inconsistentes con nuestros intereses a largo plazo de diversas maneras, como la falta común de ahorrar adecuadamente para la jubilación o la dificultad que muchas personas tienen para mantenerse a dieta. Segundo, Thaler sugirió que nuestro interés propio está limitado de tal manera que nos preocupamos por los resultados de los demás. A veces valoramos positivamente los resultados de los demás, dándoles más bien de lo necesario por el deseo de ser justos, por ejemplo. Y, en contextos desafortunados, a veces estamos dispuestos a renunciar a nuestros propios beneficios por el deseo de dañar a los demás.

    Una mujer sonriente se sienta en un banco sosteniendo varias bolsas de compras.
    El concepto de fuerza de voluntad limitada puede explicar por qué muchos de nosotros somos mejores compradores que ahorradores. [Imagen: CC0 Dominio público, goo.gl/m25gce]

    Mis compañeros y yo hemos agregado recientemente otros dos límites importantes a la lista. Chugh, Banaji, y Bazerman (2005) y Banaji y Bhaskar (2000) introdujeron el concepto de ética acotada, que hace referencia a la noción de que nuestra ética es limitada en formas que ni siquiera somos conscientes de nosotros mismos. En segundo lugar, Chugh y Bazerman (2007) desarrollaron el concepto de conciencia acotada para referirse a la amplia gama de fallas de enfoque que afectan nuestro juicio, específicamente las muchas formas en las que no notamos información obvia e importante de la que disponemos.

    Un desarrollo final es la aplicación de la investigación de juicio y toma de decisiones a las áreas de economía conductual, finanzas conductuales y marketing conductual, entre otras. En cada caso, estos campos se han transformado aplicando y extendiendo la investigación a partir de la literatura de juicio y toma de decisiones.

    Fijando Nuestras Decisiones

    Amplia evidencia documenta que incluso las personas inteligentes se ven afectadas rutinariamente por prejuicios. Las primeras investigaciones demostraron, desafortunadamente, que la conciencia de estos problemas poco contribuye a reducir el sesgo (Fischhoff, 1982). La buena noticia es que investigaciones más recientes documentan intervenciones que sí nos ayudan a superar nuestro pensamiento defectuoso (Bazerman & Moore, 2013).

    Un camino crítico para corregir nuestros sesgos se proporciona en la distinción de Stanovich y West (2000) entre la toma de decisiones del Sistema 1 y el Sistema 2. El procesamiento del sistema 1 es nuestro sistema intuitivo, que suele ser rápido, automático, sin esfuerzo, implícito y emocional. El sistema 2 se refiere a la toma de decisiones que es más lenta, consciente, esfuerzo, explícita y lógica. Los seis pasos lógicos de toma de decisiones descritos anteriormente describen un proceso del Sistema 2.

    Claramente, no se requiere un proceso completo del Sistema 2 para cada decisión que tomemos. En la mayoría de las situaciones, nuestro pensamiento del Sistema 1 es bastante suficiente; sería poco práctico, por ejemplo, razonar lógicamente a través de cada elección que hacemos mientras compramos abarrotes. Pero, preferiblemente, la lógica del Sistema 2 debería influir en nuestras decisiones más importantes. Sin embargo, utilizamos nuestros procesos del Sistema 1 para la mayoría de las decisiones en la vida, confiando en él incluso cuando tomamos decisiones importantes.

    La clave para reducir los efectos del sesgo y mejorar nuestras decisiones es pasar de confiar en nuestro pensamiento intuitivo del Sistema 1 a participar más en el pensamiento deliberativo del Sistema 2. Desafortunadamente, cuanto más ocupada y apresurada esté la gente, más tienen en mente y más probabilidades tienen de confiar en el pensamiento del Sistema 1 (Chugh, 2004). El ritmo frenético de la vida profesional sugiere que los ejecutivos suelen confiar en el pensamiento del Sistema 1 (Chugh, 2004).

    Afortunadamente, es posible identificar condiciones en las que confiamos en la intuición a nuestro riesgo y sustituimos el pensamiento más deliberativo. Un ejemplo fascinante de esta sustitución viene del relato del periodista Michael Lewis (2003) de cómo Billy Beane, el gerente general de los Atléticos de Oakland, mejoró los resultados del equipo fallido de béisbol tras reconocer que la intuición de los ejecutivos del béisbol era limitada y sistemáticamente sesgada y que sus intuiciones se habían incorporado en decisiones importantes de manera que generaban enormes errores. Lewis (2003) documenta que los profesionales del béisbol tienden a generalizar en exceso a partir de sus experiencias personales, estar demasiado influenciados por las actuaciones muy recientes de los jugadores y sobreponderar lo que ven con sus propios ojos, a pesar de que los registros multianuales de los jugadores proporcionan datos mucho mejores. Al sustituir predictores válidos de desempeño futuro (System 2 thinking), los Atletismo pudieron superar las expectativas dada su muy limitada nómina.

    Un frasco de vidrio etiquetado como “retiro” se llena de efectivo.
    Los empujones se pueden utilizar para ayudar a las personas a tomar mejores decisiones sobre el ahorro para la jubilación. [Imagen: Créditos fiscales, https://goo.gl/YLuyth, CC BY 2.0, goo.gl/BRVSA7]

    Otra dirección importante para mejorar las decisiones viene del libro de Thaler y Sunstein (2008) Nudge: Improving Decisions about Health, Wealth, and Happiness. En lugar de dedicarse al juicio humano debias, Thaler y Sunstein esbozan una estrategia sobre cómo los “arquitectos de decisión” pueden cambiar los entornos de manera que tengan en cuenta el sesgo humano y desencadenen mejores decisiones como resultado. Por ejemplo, Beshears, Choi, Laibson y Madrian (2008) han demostrado que los cambios simples a los impagos pueden mejorar drásticamente las decisiones de las personas. Abordan el fracaso de muchas personas para ahorrar para la jubilación y muestran que un simple cambio puede influir significativamente en la inscripción en los programas 401 (k). En la mayoría de las empresas, cuando comienzas tu empleo, necesitas inscribirte proactivamente para unirte al plan de ahorro para el retiro de la compañía. Muchas personas tardan años antes de moverse para hacerlo. Cuando, en cambio, las empresas inscriben automáticamente a sus empleados en programas 401 (k) y les dan la oportunidad de “optar por no participar”, la tasa neta de inscripción aumenta significativamente. Al cambiar los impagos, podemos contrarrestar la tendencia humana a convivir con el status quo.

    De igual manera, el estudio transeuropeo de donación de órganos de Johnson y Goldstein (2003) revela que los países que tienen políticas de donación de órganos opt-in, donde el defecto no es cosechar órganos de las personas sin su consentimiento previo, sacrifican miles de vidas en comparación con las políticas de exclusión voluntaria, donde el defecto es órganos de cosecha. Estados Unidos y demasiados otros países requieren que los ciudadanos opten por la donación de órganos a través de un esfuerzo proactivo; como consecuencia, las tasas de consentimiento oscilan entre 4.25% — 44% en todos estos países. Por el contrario, cambiar la arquitectura de decisión a una política de exclusión voluntaria mejora las tasas de consentimiento de 85.9% a 99.98%. Diseñar el sistema de donación con conocimiento del poder de los impagos puede cambiar drásticamente las tasas de donación sin cambiar las opciones disponibles para los ciudadanos. En contraste, una estrategia más intuitiva, como la vigente en Estados Unidos, inspira impagos que resultan en muchas muertes innecesarias.

    Pensamientos Finales

    Nuestros días están llenos de decisiones que van desde las pequeñas (¿qué debo ponerme hoy?) a lo importante (¿deberíamos casarnos?). Muchos tienen consecuencias reales en nuestra salud, finanzas y relaciones. Simon, Kahneman y Tversky crearon un campo que resalta las sorprendentes y predecibles deficiencias de la mente humana a la hora de tomar decisiones. A medida que entendemos más sobre nuestros propios sesgos y deficiencias de pensamiento podemos comenzar a tomarlos en cuenta o a evitarlos. Sólo ahora hemos llegado a la frontera de usar este conocimiento para ayudar a las personas a tomar mejores decisiones.

    Recursos Externos

    Libro: Bazerman, M. H., & Moore, D. (2013). Juicio en la toma de decisiones gerenciales (8ª ed.). John Wiley & Sons Inc.
    Libro: Kahneman, D. (2011) Pensando, rápido y lento. Nueva York, NY: Farrar, Straus y Giroux.
    Libro: Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Mejorando las decisiones sobre salud, riqueza y felicidad. New Haven, CT: Prensa de la Universidad de Yale.

    Preguntas de Discusión

    1. ¿Los sesgos en este módulo son un problema en el mundo real?
    2. ¿Cómo usarías este módulo para ser un mejor tomador de decisiones?
    3. ¿Puedes ver algún sesgo en el diario de hoy?

    El vocabulario

    Anclaje
    El sesgo a ser afectado por un anclaje inicial, aunque el ancla sea arbitraria, y para ajustar insuficientemente nuestros juicios lejos de ese anclaje.
    Sesgos
    Los errores sistemáticos y predecibles que influyen en el juicio incluso de seres humanos muy talentosos.
    Conciencia acotada
    Las formas sistemáticas en las que no nos damos cuenta de la información obvia e importante de la que disponemos.
    Ética acotada
    Las formas sistemáticas en que nuestra ética se limita en formas que ni siquiera somos conscientes de nosotros mismos.
    Racionalidad acotada
    Modelo de comportamiento humano que sugiere que los humanos intentan tomar decisiones racionales pero están acotados por limitaciones cognitivas.
    Interés propio acotado
    Las formas sistemáticas y predecibles en las que nos preocupamos por los resultados de los demás.
    Fuerza de voluntad acotada
    La tendencia a dar mayor peso a las preocupaciones presentes que a las futuras.
    Enmarcado
    El sesgo a ser sistemáticamente afectado por la forma en que se presenta la información, manteniendo constante la información objetiva.
    Heurística
    estrategias cognitivas (o de pensamiento) que simplifican la toma de decisiones mediante el uso de atajos mentales
    Confiado en exceso
    El sesgo para tener mayor confianza en su juicio de lo que se justifica con base en una valoración racional.
    Sistema 1
    Nuestro sistema intuitivo de toma de decisiones, que suele ser rápido, automático, sin esfuerzo, implícito y emocional.
    Sistema 2
    Nuestro sistema de toma de decisiones más deliberativo, que es más lento, consciente, esfortuoso, explícito y lógico.

    Referencias

    • Alpert, M., & Raiffa, H. (1969). Un reporte de avance en la formación de evaluadores probabilísticos. Informe inédito.
    • Banaji, M. R., & Bhaskar, R. (2000). Estereotipos implícitos y memoria: La racionalidad acotada de las creencias sociales. En D. L. Schacter & E. Scare (Eds.), Memoria, cerebro y creencia (pp. 139—175). Cambridge, MA: Prensa de la Universidad de Harvard.
    • Bazerman, M. H., & Moore, D. (2013). Juicio en la toma de decisiones gerenciales (8ª ed.). John Wiley & Sons Inc.
    • Beshears, J., Choi, J. J., Laibson, D., & Madrian, B. C. (2008). La importancia de las opciones de incumplimiento para los resultados de ahorro para la jubilación: Evidencia de Estados Unidos. En S. J. Kay & T. Sinha (Eds.), Lecciones de la reforma de pensiones en las Américas (pp. 59—87). Oxford: Prensa de la Universidad de Oxford.
    • Chugh, D. (2004). Implicaciones sociales y gerenciales de la cognición social implícita: Por qué importan los milisegundos. Investigación en Justicia Social, 17 (2), 203—222.
    • Chugh, D., & Bazerman, M. H. (2007). Conciencia acotada: Lo que no veas puede lastimarte. Mente y sociedad, 6 (1), 1—18.
    • Chugh, D., Banaji, M. R., & Bazerman, M. H. (2005). La ética acotada como barrera psicológica para reconocer conflictos de interés. En D. Moore, D. M. Cain, G. Loewenstein, & M. H. Bazerman (Eds.), Conflictos de intereses (pp. 74—95). Nueva York, NY: Cambridge University Press.
    • Fischhoff, B. (1982). Debiasing. En D. Kahneman, P. Slovic, & A. Tversky (Eds.), Juicio bajo incertidumbre: heurística y sesgos (pp. 422—444). Nueva York, NY: Cambridge University Press.
    • Johnson, E. J., & Goldstein, D. (2003). ¿Los valores predeterminados salvan vidas? Ciencia 302 (5649), 1338—1339.
    • Joyce, E. J., & Biddle, G. C. (1981). ¿Los juicios de los auditores son suficientemente regresivos? Revista de Investigación Contable, 19 (2), 323—349.
    • Kahneman, D., & Tversky, A. (1979). Teoría del prospecto: Un análisis de la decisión bajo riesgo. Econometrica, 47 (2), 263—292.
    • Lewis, M. (2003). Moneyball: El arte de ganar un juego injusto. Nueva York, NY: W.W. Norton & Company Ltd.
    • March, J. G., & Simon, H. A. (1958). Organizaciones. Oxford: Wiley.
    • Simon, H. A. (1957). Modelos de hombre, sociales y racionales: Ensayos matemáticos sobre el comportamiento humano racional en un entorno social. Nueva York, NY: John Wiley & Sons.
    • Stanovich, K. E., & West, R. F. (2000). Diferencias individuales en el razonamiento: ¿implicaciones para el debate de racionalidad? Ciencias del Comportamiento y del Cerebro, 23, 645—726.
    • Thaler, R. H. (2000). Del homo economicus al homo sapiens. Revista de Perspectivas Económicas, 14, 133—141.
    • Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Mejorando las decisiones sobre salud, riqueza y felicidad. New Haven, CT: Prensa de la Universidad de Yale.
    • Tversky, A., & Kahneman, D. (1981). El encuadre de las decisiones y la psicología de la elección. Ciencia, Nueva Serie, 211 (4481), 453—458.
    • Tversky, A., & Kahneman, D. (1974). Juicio bajo incertidumbre: heurística y sesgos. Ciencia, Nueva Serie, 185 (4157), 1124—1131.
    • Tversky, A., & Kahneman, D. (1973). Disponibilidad: Una heurística para juzgar frecuencia y probabilidad. Psicología Cognitiva, 5 (2), 207—232.

    This page titled 5.3: Juicio y Toma de Decisiones is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by NOBA (The Noba Project) .