Daniel Kahneman. Experimentos psicológicos D

Nuestras acciones y hechos están determinados por nuestros pensamientos. ¿Pero siempre controlamos nuestro pensamiento? El premio Nobel Daniel Kahneman explica por qué a veces actuamos de forma irracional y cómo tomamos malas decisiones. Tenemos dos sistemas de pensamiento. El pensamiento “lento” se activa cuando solucionamos un problema o elegimos un producto en una tienda. Generalmente nos parece que controlamos con confianza estos procesos, pero no olvidemos que detrás de nuestra conciencia, en el fondo, trabaja constantemente el pensamiento "rápido": automático, instantáneo e inconsciente...

Esta es la segunda obra de Daniel Kahneman que tengo la suerte de leer. Sí Sí exactamente… afortunado... El primero fue un libro. Kahneman escribe con mucha facilidad, de manera interesante... sobre cosas difíciles; a veces paradójico. Muchos de los experimentos descritos en sus libros son fascinantes. No puedo resistirme al encanto de su estilo y textura. Por tanto, las notas son voluminosas. Así que recomiendo...

Daniel Kahneman. Piensa despacio... decide rápido. – M.: AST, 2013. – 656 p.

Descargue un breve resumen en el formato o

Introducción

Una comprensión más profunda del juicio y la elección requiere un vocabulario más amplio que el que se utiliza comúnmente en la vida cotidiana. La mayoría de los errores que comete la gente siguen ciertos patrones. Estos errores sistemáticos, llamados sesgos, ocurren previsiblemente en las mismas circunstancias. Por ejemplo, el público tiende a evaluar más favorablemente a un orador atractivo y seguro de sí mismo. Esta reacción se denomina "efecto halo", lo que la hace predecible, reconocible y comprensible. Generalmente puedes saber lo que estás pensando. El proceso de pensamiento parece claro: un pensamiento consciente causa naturalmente el siguiente. Pero esa no es la única forma en que funciona la mente; Además, básicamente funciona de manera diferente. El trabajo mental que conduce a impresiones, premoniciones y muchas decisiones suele pasar desapercibido.

Orígenes. Este libro representa mi comprensión actual de los juicios de valor y la toma de decisiones, influenciada por los descubrimientos de la psicología en las últimas décadas. Y todo empezó con Amos Tversky. Primero desarrollamos una teoría sobre el papel que juega la similitud en la predicción. Luego probamos y desarrollamos esta teoría con muchos experimentos como el siguiente. Para responder a esta pregunta, supongamos que Steve fue seleccionado al azar de una muestra representativa. Alguien describe a su vecino: “Steve es muy tímido e insociable, siempre está dispuesto a ayudar, pero tiene poco interés en los demás y en la realidad. Es tranquilo y ordenado, ama el orden y la sistematicidad y está muy atento a los detalles." ¿Es más probable que Steve trabaje como granjero o bibliotecario? Todo el mundo señala inmediatamente el parecido de Steve con un bibliotecario típico, pero casi siempre ignora consideraciones estadísticas igualmente importantes. ¿Recordaste que por cada bibliotecario hombre en los Estados Unidos, hay más de 20 agricultores?

Los sujetos utilizaron la similitud como factor simplificador. heurística(a grandes rasgos, una regla puramente práctica) para llegar más fácilmente a un juicio de valor complejo. La dependencia de la heurística, a su vez, condujo a sesgos predictivos (errores persistentes) en las predicciones.

En el quinto año de cooperación publicamos los principales resultados de nuestra investigación en la revista Science, que leen científicos de diversos campos de la ciencia. Este artículo, titulado “Juicio bajo incertidumbre: heurísticas y errores”, aparece íntegramente en la parte final de este libro.

Los estudiosos de la historia de la ciencia (ver, por ejemplo,) a menudo señalan que en un momento dado dentro de una disciplina determinada, los científicos se basan en gran medida en los mismos supuestos básicos en su campo de estudio. Las ciencias sociales no son una excepción; se basan en una imagen general de la naturaleza humana que proporciona la base para todas las discusiones sobre comportamiento específico pero que rara vez se cuestiona. En la década de 1970, se aceptaban generalmente dos posiciones. Primero, las personas son generalmente racionales y suelen pensar con claridad. En segundo lugar, la mayoría de las desviaciones de la racionalidad se explican por las emociones: por ejemplo, el miedo, el apego o el odio. Nuestro artículo cuestionó ambos supuestos sin discutirlos directamente. Hemos documentado errores de pensamiento persistentes en personas normales y descubrimos que son causados ​​por el mecanismo de pensamiento en sí y no por la interrupción del proceso de pensamiento bajo la influencia de las emociones.

Cinco años después de la aparición del artículo en la revista Science, publicamos el artículo "Teoría de la perspectiva: análisis de decisiones bajo riesgo", donde describimos la teoría de la elección, que se convirtió en uno de los fundamentos de la economía del comportamiento (ver, por ejemplo,) .

Coherencia emocional exagerada (efecto halo). La tendencia a percibir todo lo relacionado con una persona como bueno (o malo), incluido lo que no has visto, se llama efecto halo. Esta es una de las formas en que el Sistema 1 genera una imagen del mundo que nos rodea, haciéndola más simple y lógica de lo que realmente es. A menudo observamos los rasgos de una persona en una secuencia completamente aleatoria. Sin embargo, el orden es importante porque el efecto halo aumenta la fuerza de las primeras impresiones.

Mi método para reducir el efecto halo se reduce a un principio general: ¡deshacerse de la correlación de errores! Para entender cómo funciona este principio, imagine que a muchos sujetos se les muestran frascos de vidrio llenos de monedas y se les pide que estimen la cantidad de cambio en cada frasco. Como explicó James Surowiecki en su excelente libro, los participantes tienden a tener un desempeño deficiente en este tipo de tareas, pero cuando se combinan todos los juicios individuales, el resultado es inesperadamente bueno. Algunas personas sobreestiman la cantidad real, otros la subestiman, pero si se promedian todas las estimaciones, el resultado es bastante preciso. El mecanismo es simple: todos miran el mismo frasco, todas las estimaciones tienen la misma base, los errores de cada uno no dependen de los errores de los demás y (en ausencia de distorsiones sistemáticas) se promedian a cero.

El principio de independencia de juicio y de errores no relacionados puede ser aplicado con éxito por los directivos de la empresa durante las reuniones y todo tipo de reuniones. Una regla sencilla a seguir es que todos los participantes escriban un resumen de su punto de vista antes de la discusión, y así se aprovecha eficazmente la diversidad de conocimientos y opiniones dentro del grupo. En una discusión abierta estándar, se da demasiado peso a las opiniones de quienes hablan antes y de manera más convincente que otros, lo que obliga a otros a unirse.

Lo que ves es lo que ves (WYSIATI). La característica de diseño más importante del mecanismo asociativo es que representa sólo ideas activadas. La información que no se recupera de la memoria, al menos de forma subconsciente, también puede simplemente no existir. El Sistema 1 es excelente para construir la mejor historia posible que incluya las ideas actualmente activadas, pero no tiene (y no puede dar cuenta) de la información que no tiene. La medida del éxito del Sistema 1 es coherencia historia creada. La cantidad y calidad de los datos en los que se basa no es particularmente importante. Cuando hay poca información, como suele ser el caso, el Sistema 1 funciona como un mecanismo para sacar conclusiones precipitadas.

La tendencia a sacar conclusiones precipitadas a partir de datos limitados es tan importante para comprender el pensamiento intuitivo y se menciona con tanta frecuencia en este libro que utilizaré un acrónimo bastante engorroso: WYSIATI, que significa "Lo que ves es todo lo que hay". ). El Sistema 1 es categóricamente insensible a la cantidad y calidad de la información en la que se basan las impresiones y premoniciones. Para una historia coherente, es importante que la información sea coherente, pero no necesariamente completa. De hecho, a menudo, cuando sabes menos, es más fácil poner todo lo que sabes en un esquema coherente.

Por eso pensamos rápidamente y damos sentido a la información incompleta en un mundo complejo. En general, nuestras historias coherentes están lo suficientemente cerca de la realidad como para servir como base para una acción racional. Sin embargo, WYSIATI conduce a una variedad de sesgos de selección y juicio, incluidos los siguientes:

  • Exceso de seguridad: Como implica la regla WYSIATI, ni la cantidad ni la calidad de la evidencia afectan la confianza subjetiva de los individuos. La creencia en las propias creencias generalmente depende de la calidad de la historia construida a partir de lo que uno ve, incluso si ve sólo un poco. A menudo no consideramos la posibilidad de que no tengamos los datos necesarios para formar un juicio: lo que vemos es lo que vemos. Además, a nuestro sistema asociativo le gusta inclinarse hacia un patrón de activación coherente y suprime la duda y la ambigüedad.
  • efecto de encuadre: Diferentes formas de presentar la misma información a menudo evocan diferentes emociones. La afirmación "La tasa de supervivencia postoperatoria al mes es del 90%" es más tranquilizadora que la afirmación equivalente "La tasa de mortalidad postoperatoria al mes es del 10%". Asimismo, los productos etiquetados como “90% sin grasa” son más atractivos que aquellos etiquetados como “10% de grasa”. La equivalencia de las formulaciones es obvia, pero una persona generalmente ve sólo una de ellas, y para él sólo existe lo que ve.
  • Despreciando la probabilidad previa: Recuerde al tímido y ordenado Steve, a quien a menudo se confunde con un bibliotecario. La descripción de la personalidad es vívida y vívida, y aunque probablemente sepa que hay más agricultores varones que bibliotecarios, este hecho estadístico probablemente no se le ocurrió cuando consideró la pregunta por primera vez.

Capítulo 8. Cómo se emiten los juicios

El Sistema 2 dirigirá la atención a buscar la respuesta en la memoria. El sistema 2 es capaz de recibir preguntas, o puede generarlas, pero en cualquier caso se produce una redirección de la atención y la búsqueda de una respuesta en la memoria. El sistema 1 funciona de manera diferente. Monitorea constantemente lo que sucede dentro y fuera de la mente y genera evaluaciones de diversos aspectos de una situación sin una intención específica y con poco o ningún esfuerzo. Estas estimaciones básicas juegan un papel importante en los juicios intuitivos porque se sustituyen fácilmente por respuestas más complejas; esta es la idea principal del método de heurística y sesgos.

Evaluaciones básicas. A lo largo de la evolución, el Sistema 1 ha desarrollado la capacidad de proporcionar una evaluación constante de las tareas básicas que un organismo debe resolver para sobrevivir: ¿Cómo van las cosas? ¿Existe una amenaza? ¿Existe una buena oportunidad? ¿Está todo bien? Hemos heredado mecanismos neuronales que evalúan continuamente el nivel de amenaza y no se pueden desactivar. Para una persona, el buen humor y la tranquilidad cognitiva equivalen a evaluar el entorno como seguro y familiar. Un ejemplo específico de evaluación básica es la capacidad de distinguir a un amigo de un enemigo de un vistazo.

Alex Todorov, mi colega en Princeton, descubrió que la gente juzga la competencia combinando dos dimensiones: fuerza y ​​confiabilidad. Los rostros que rezuman competencia combinan un mentón fuerte con una sonrisa leve y segura. Ese es un ejemplo heurísticas de juicio. Los votantes están tratando de formarse una impresión de qué tan bueno será un candidato en el cargo y se inclinan hacia una evaluación más simple, rápida, automática y disponible en el momento en que el Sistema 2 toma su decisión.

Kits y prototipos. El sistema 1 representa categorías a través de un prototipo o unos pocos ejemplos típicos, por lo que es bueno para los promedios, pero no tan bueno para la suma.

Comparación de intensidad. Otra habilidad del Sistema 1 es su escala de intensidad subyacente, que le permite encontrar coincidencias en una amplia variedad de áreas. Por ejemplo, Julie aprendió a leer a los 4 años. Compare su capacidad de lectura con esta escala de intensidad: ¿Qué altura debe tener un hombre si es tan alto como Julie? ¿Qué tal el metro ochenta? Claramente no es suficiente. ¿Qué tal las dos quince? Probablemente demasiado. Se necesita una altura tan extraordinaria como saber leer a los cuatro años: bastante destacable, pero no sorprendente.

Más adelante veremos por qué este método de predicción basado en la comparación es estadísticamente incorrecto, aunque completamente natural para el Sistema 1, y por qué para la mayoría de las personas -con excepción de los estadísticos- sus resultados son aceptables para el Sistema 2.

“Disparo mental con disparo”. El control sobre los cálculos intencionales no es muy preciso: a menudo contamos mucho más de lo que necesitamos o queremos. A estos cálculos adicionales los llamo fracciones mentales. No se puede acertar en un solo punto con una escopeta porque los perdigones están esparcidos en diferentes direcciones, y parece que el Sistema 1 es tan difícil de hacer exactamente todo lo que el Sistema 2 requiere.

Capítulo 9. La respuesta a una pregunta más fácil.

Sustitución de preguntas. Ofrezco una explicación sencilla de cómo generamos opiniones intuitivas sobre temas complejos. Si una pregunta difícil no se responde rápidamente de manera satisfactoria, el Sistema 1 busca una pregunta relacionada más fácil y la responde (Figura 5). Llamo a la operación respondiendo una pregunta en lugar de otra sustitución. También utilizo los siguientes términos: La pregunta objetivo es la evaluación que se pretende realizar. Una pregunta heurística es una pregunta más simple que se responde en lugar de la pregunta objetivo. La definición formal de un método heurístico es algo así: es un procedimiento o actitud simple que ayuda a encontrar una respuesta adecuada, aunque a menudo imperfecta, a preguntas difíciles. La palabra heurística proviene de la misma raíz que eureka. Es posible que no se dé cuenta de que la pregunta objetivo era difícil porque la respuesta intuitiva le vino a la mente fácilmente.

Heurística del afecto. La influencia predominante de las conclusiones sobre los argumentos es más notable en situaciones que involucran emociones. El psicólogo Paul Slovic ha propuesto una explicación de la heurística del afecto, que utiliza nuestros gustos y disgustos para dar forma a nuestras creencias sobre el mundo que nos rodea. En cuestiones de actitud emocional hacia algo, el Sistema 2 no es un crítico, sino un protector de las emociones del Sistema 1: alienta, en lugar de prohibir; Principalmente busca información y argumentos que sean consistentes con sus creencias existentes, en lugar de información que le permita analizarlas. El Sistema 1 activo y que busca la coherencia ofrece soluciones al Sistema 2, poco exigente.

La siguiente tabla es una lista de rasgos y comportamientos del Sistema 1. Espero que esta lista te ayude a desarrollar un “sentido de personalidad” intuitivo para el Sistema 1 ficticio. Como muchos personajes que conoces, tendrás intuiciones sobre lo que tendría el Sistema 1. lo hizo en diferentes circunstancias, yb oh La mayoría de tus premoniciones serán correctas. Entonces, las características del Sistema 1:

PARTE II. MÉTODOS DE HEURÍSTICA Y DISTORSIÓN
Capítulo 10. Ley de los números pequeños.

El Sistema 1 está perfectamente adaptado a una forma de pensamiento: reconoce automáticamente y sin esfuerzo conexiones causales entre eventos, a veces incluso en casos en los que no existe ninguna conexión. Sin embargo, el Sistema 1 no es muy bueno para lidiar con hechos “puramente estadísticos” que cambian la probabilidad de los resultados pero no los hacen realidad. Un suceso aleatorio es, por definición, inexplicable, pero una serie de sucesos aleatorios se comportan de manera extremadamente regular.

Las muestras grandes dan resultados más precisos que las pequeñas. Es más probable que las muestras pequeñas produzcan extremos que las grandes. El primer estudio que Amos y yo hicimos juntos demostró que incluso los investigadores experimentados tienen una intuición pobre y una comprensión vaga del significado del tamaño de la muestra.

Ley de los pequeños números. Para el psicólogo investigador, la variabilidad de la muestra no es sólo una rareza, es un inconveniente y una molestia costosa, que convierte cualquier investigación en un juego de azar. Supongamos que desea confirmar la hipótesis de que el vocabulario de las niñas de seis años es, en promedio, mayor que el de los niños de la misma edad. En toda la población, la hipótesis es correcta; las niñas de seis años tienen en promedio un vocabulario mayor. Sin embargo, las niñas y los niños son muy diferentes y puedes seleccionar al azar un grupo donde no haya una diferencia notable, o incluso uno donde los niños obtengan puntuaciones más altas. Si eres investigador, ese resultado te costará caro porque, después de dedicar tiempo y esfuerzo, no podrás confirmar la exactitud de la hipótesis. El riesgo sólo se reduce utilizando una muestra suficientemente grande, y quienes trabajan con muestras pequeñas se dejan librar al azar. El primer artículo que escribí con Amos se tituló “La creencia en la ley de los números pequeños”.

Preferir la certeza a la duda. La Ley de los Pequeños Números es una manifestación de la tendencia general hacia la certeza en lugar de la duda. Una fuerte predisposición a creer que muestras pequeñas representan con precisión a toda la población significa algo más: tendemos a exagerar la consistencia y coherencia de lo que vemos. La excesiva confianza de los investigadores en los resultados de unas pocas observaciones es similar al efecto halo, la sensación que a menudo tenemos de que conocemos y entendemos a una persona de la que, de hecho, sabemos poco. El Sistema 1 anticipa los hechos, construyendo una imagen completa a partir de información fragmentaria. El mecanismo de salto a conclusiones se comporta como si creyera en la ley de los números pequeños. En general, crea una imagen demasiado significativa de la realidad.

Razón y ocasión. Los mecanismos asociativos buscan causas. Los patrones estadísticos son difíciles de percibir porque requieren un enfoque fundamentalmente diferente. Cuando miramos un evento desde un punto de vista estadístico, nos interesa su relación con lo que podría haber sucedido, no cómo sucedió exactamente. No hubo ninguna razón especial; el azar lo eligió entre otros.

La ilusión de regularidad afecta nuestras vidas. ¿Cuántos buenos negocios tiene que hacer su asesor financiero antes de decidir que es inusualmente eficaz? ¿Cuántas adquisiciones exitosas convencerán a la junta directiva de que el director ejecutivo tiene talento para tales acuerdos? La respuesta simple a estas preguntas es que, siguiendo su intuición, es más probable que perciba un evento aleatorio como natural. Rechazamos con demasiada facilidad la idea de que gran parte de nuestras vidas son aleatorias.

Capítulo 11. El efecto de anclaje

El efecto de anclaje ocurre cuando los sujetos se enfrentan a un número arbitrario antes de estimar un valor desconocido. Este experimento produce algunos de los resultados más fiables y consistentes de la psicología experimental: las estimaciones no se alejan del número considerado, de ahí la imagen de anclaje a un punto determinado.

El efecto de anclaje se genera mediante dos mecanismos diferentes, uno para cada sistema. Una forma de vinculación ocurre en un proceso de ajuste dirigido a un objetivo, es decir, en la acción del Sistema 2. La vinculación mediante preparación es una respuesta automática del Sistema 1.

El efecto anclaje como medio de ajuste. A Amos le gustó la idea de la heurística de anclaje y ajuste como estrategia para estimar cantidades desconocidas: comenzar con un número de “ancla”, estimar qué tan pequeño o grande es y ajustar gradualmente nuestra propia estimación a medida que nos “alejamos” mentalmente. desde el ancla.” Los ajustes tienden a terminar prematuramente porque las personas se detienen y pierden la confianza para seguir adelante.

El anclaje como efecto de precedencia. El efecto de anclaje es un caso especial de sugestión. Un proceso como el de la sugestión funciona en muchas situaciones: el Sistema 1 lucha por construir un mundo en el que el ancla sea el número correcto. Ésta es una de las manifestaciones de la coherencia asociativa. Los efectos de anclaje están a nuestro alrededor. Debido a los mecanismos psicológicos que generan estos efectos, nos encontramos más sugestionables y, por supuesto, hay muchos que quieren explotar nuestra credulidad. A la hora de negociar la compra de una vivienda, el vendedor da el primer paso fijando un precio: la misma estrategia funciona.

Se puede aconsejar a los negociadores que se concentren en buscar en su memoria argumentos en contra del anclaje. El poder aterrador del efecto de anclaje es que eres consciente de la presencia del ancla e incluso le prestas atención, pero no sabes cómo guía y limita tus pensamientos porque no puedes imaginar cómo pensarías sin el efecto de anclaje.

Capítulo 12: La ciencia de la accesibilidad

La heurística de disponibilidad es la sustitución de una evaluación de la frecuencia de ocurrencia, la facilidad con la que vienen a la mente los ejemplos. La heurística de disponibilidad involucra a ambos sistemas. Uno de los estudios más famosos sobre asequibilidad preguntó a los cónyuges: "¿Qué porcentaje de su esfuerzo se destina a mantener su hogar en orden?" También se les hicieron preguntas similares sobre sacar basura, iniciar reuniones, etc. ¿La suma de las autoliquidaciones será igual, mayor o menor al 100%? Como era de esperar, la cantidad resultó ser más del 100%. La explicación es un simple sesgo de disponibilidad: ambos cónyuges recuerdan sus propias contribuciones y esfuerzos mucho más claramente que los de la otra mitad, y las diferencias en la disponibilidad conducen a diferencias en las estimaciones de frecuencia. La misma distorsión se nota al observar a un grupo de empleados: cada participante siente que ha hecho más de lo que debía y sus compañeros no están lo suficientemente agradecidos por su contribución a la causa común.

La psicología de la accesibilidad.¿Cómo se verán afectadas las impresiones sobre la frecuencia de aparición de una categoría por el requisito de enumerar un número específico de ejemplos? La sensación de encontrar ejemplos rápidamente resultó ser más importante que su número. La facilidad con la que vienen a la mente los ejemplos es una heurística del Sistema 1, que se reemplaza por un enfoque en el contenido cuando el Sistema 2 está más involucrado.

Capítulo 13. Disponibilidad, emociones, riesgo.

Los investigadores de riesgos reconocieron rápidamente la importancia de la idea de accesibilidad. La asequibilidad ayuda a explicar por qué existe una tendencia a contratar seguros y tomar medidas de protección después de un accidente. Los cambios en la memoria explican la aparición de los ciclos de "angustia - excitación - creciente calma", conocidos por todos los investigadores de catástrofes.

Las estimaciones de las causas de muerte están distorsionadas por los informes de los medios. Nuestras estimaciones de la frecuencia de los acontecimientos están distorsionadas por la prevalencia y la intensidad emocional de la información que nos rodea. Slovik desarrolló el concepto afectar la heurística: la gente toma decisiones y emite juicios basándose únicamente en las emociones. ¿Me gusta eso? ¿No me gusta? ¿Qué tan fuertes son mis sentimientos? La heurística del afecto es un ejemplo de sustitución en el que la respuesta a una pregunta fácil (¿cómo me siento acerca de esto?) sirve como respuesta a una pregunta mucho más difícil (¿qué pienso acerca de esto?).

Un equipo de investigadores dirigido por Slovik demostró de manera convincente el funcionamiento de la heurística del afecto examinando opiniones sobre una variedad de procesos, productos y dispositivos tecnológicos, incluida la fluoración del agua, la producción química, los conservantes de alimentos y los automóviles. Se pidió a los encuestados que calificaran los beneficios y riesgos asociados con cada categoría. Hubo una correlación negativa increíblemente alta entre estas puntuaciones. Las tecnologías que los encuestados consideraron favorables fueron calificadas como que proporcionaban muchos beneficios y pocos riesgos; Las tecnologías que no les gustaban a los sujetos fueron evaluadas negativamente, con muchas desventajas enumeradas y ventajas raramente mencionadas.

El afecto duradero es un componente fundamental de la coherencia asociativa. Como señaló el psicólogo Jonathan Haidt, “la cola emocional mueve al perro racional”. La heurística del afecto nos facilita la vida al imaginar que el mundo está mucho más organizado de lo que realmente está.

Slovik cuestionó la competencia central de los expertos: la idea de que el riesgo es objetivo. “El riesgo no existe simplemente, fuera de nuestras mentes y cultura, esperando a ser medido. El concepto de riesgo se inventó para comprender y afrontar mejor los peligros y la incertidumbre de la vida”. Slovik concluye que “definir el riesgo de esta manera se convierte en un ejercicio de poder”.

Por ejemplo, el daminósido es una sustancia química que se rocía sobre las manzanas para regular su crecimiento y mejorar su apariencia. El pánico comenzó con artículos en los medios que informaban que la sustancia química, cuando se consume en grandes dosis, causa tumores cancerosos en ratas y ratones. El “pánico del daminósido” ilustra una limitación básica en la capacidad de nuestra mente para afrontar pequeños riesgos: o los ignoramos por completo o les damos demasiada importancia, sin ningún punto intermedio. Este sentimiento es familiar para cualquier padre que espera que su hija adolescente regrese de una fiesta prolongada.

Capítulo 14. La especialidad de Tom V.

Hasta donde usted sabe, Tom W. fue elegido al azar, como una canica de un contenedor. Para decidir si esta bola será roja o verde, necesitas saber cuántas bolas había. En cambio, te centras en la similitud de la descripción de Tom W con los estereotipos. A esta similitud la llamamos representatividad y a la predicción heurística la llamamos representatividad.

Los lógicos y estadísticos han desarrollado definiciones de probabilidad inconsistentes pero muy precisas. Para la gente común, probabilidad (sinónimo de "plausibilidad") es un concepto vago asociado con incertidumbre, predisposición, plausibilidad y sorpresa. Preguntar sobre la probabilidad activa “fracciones mentales”, lo que genera respuestas a preguntas más fáciles. Uno de ellos es la evaluación automática de la representatividad. La heurística de la representatividad también se invoca cuando alguien dice: "Ella ganará las elecciones, puedes verlo en ella" o "Él no será un científico, tiene demasiados tatuajes". Las predicciones de representatividad son comunes, pero subóptimas desde un punto de vista estadístico. El bestseller de Michael Lewis, El hombre que lo cambió todo, es una historia sobre la ineficacia de este método de predicción. Los entrenadores de cría profesionales suelen predecir el éxito de los jugadores potenciales en función de su constitución y apariencia. El héroe del libro de Lewis, Billy Beane, director del equipo de béisbol Oakland Athletics, tomó la impopular decisión de seleccionar jugadores basándose en las estadísticas del juego.

Desventajas de la representatividad. Estimar la probabilidad por representatividad tiene ventajas importantes: las impresiones intuitivas casi siempre son más precisas que las conjeturas aleatorias. En otras situaciones, los estereotipos mienten y la heurística de representatividad es confusa, especialmente si descuida la información de probabilidad previa. La segunda desventaja de la representatividad es la insensibilidad a la calidad de los datos. Recuerda la regla del Sistema 1: lo que ves es lo que ves.

Cómo entrenar tu intuición. La regla de Bayes determina cómo combinar las creencias existentes (probabilidades previas) con el valor diagnóstico de la información, es decir, en qué medida se debe preferir una hipótesis a una alternativa. Por ejemplo, si cree que el 3% de los estudiantes de maestría se especializan en informática (probabilidad a priori) y también cree que, según la descripción, Tom W. tiene cuatro veces más probabilidades de estudiar informática que otras ciencias, entonces sigue la fórmula de Bayes: considere que la probabilidad de que Tom W. sea un experto en informática es del 11%.

Hay dos cosas importantes que recordar sobre el flujo del razonamiento bayesiano y cómo tendemos a romperlo. En primer lugar, las probabilidades previas son importantes incluso cuando se dispone de información sobre el caso en cuestión. A menudo esto no es intuitivamente obvio. En segundo lugar, las impresiones intuitivas sobre el valor diagnóstico de la información suelen ser exageradas.

Capítulo 15. Linda: menos es más

La probabilidad es una variable similar a una suma. Esto se puede ver en el siguiente ejemplo: probabilidad (Linda es cajera) = probabilidad (Linda es cajera feminista) + probabilidad (Linda es cajera y no feminista). El sistema 1 evalúa el promedio en lugar de la suma, por lo que cuando las cajeras no feministas son eliminadas de la lista, la probabilidad subjetiva aumenta. Sin embargo, la pregunta “¿Cuántos de los 100 participantes…” es más fácil de responder que la pregunta sobre porcentajes? Una posible explicación para esto es que la mención de cien personas evoca una imagen espacial en la mente. Esta representación, denominada representación de frecuencia, facilita reconocer el hecho de que un grupo está incluido en otro. La solución al enigma parece ser que la pregunta “¿cuánto?” Te hace pensar en personas individuales, y la misma pregunta en la frase "¿qué porcentaje?" - No.

Capítulo 16. Las razones triunfan sobre las estadísticas

Considere la descripción y dé una respuesta intuitiva a la siguiente pregunta: Por la noche, el taxista atropelló y huyó del lugar. Hay dos compañías de taxis en la ciudad, Verde y Azul. Se le ha proporcionado la siguiente información:

  • El 85% de los taxis urbanos son de la empresa “Verde” y el 15% de la empresa “Azul”.
  • El testigo identificó el taxi como "Azul". Las pruebas forenses probaron la confiabilidad del testigo en condiciones nocturnas y concluyeron que el testigo identificó cada uno de los dos colores correctamente el 80% de las veces y de manera incorrecta el 20% de las veces.

¿Cuál es la probabilidad de que el taxi que se dio a la fuga fuera azul y no verde?

Este es un problema de inferencia bayesiano estándar. Contiene dos datos: probabilidad a priori y testimonios de testigos presenciales no del todo fiables. En ausencia de un testigo, la probabilidad de que el taxi culpable sea “Azul” es del 15%, es decir, esta es la probabilidad a priori de tal resultado. Si las empresas de taxis fueran igualmente grandes, la probabilidad anterior dejaría de ser informativa. En tal caso, considerando sólo la confiabilidad del testigo, se concluiría que la probabilidad es del 80%. Las dos fuentes de información se pueden combinar utilizando la fórmula de Bayes. La respuesta correcta es 41%. Sin embargo, probablemente adivinarás que al resolver este problema, los sujetos ignoran la probabilidad previa y eligen un testigo. La respuesta más común es 80%.

Estereotipos causales. Ahora mire la misma historia con una representación diferente de la probabilidad previa. Tienes los siguientes datos:

  • Ambas compañías tienen el mismo número de coches, pero los taxis verdes intervienen en el 85% de las incidencias.
  • La información sobre el testigo es la misma que en la versión anterior de la tarea.

Estas dos versiones son matemáticamente iguales, pero diferentes desde el punto de vista psicológico. Quienes han leído la primera versión de la tarea no saben cómo utilizar la probabilidad a priori y, a menudo, la ignoran. Quienes ven la segunda opción, por el contrario, prestan considerable atención a la probabilidad previa y, en promedio, sus estimaciones no están lejos de la solución bayesiana. ¿Por qué? En la primera opción, la probabilidad a priori de que haya taxis “azules” es un dato estadístico, el número de taxis en la ciudad. Una mente que anhela historias causales no tiene nada en qué pensar: la cantidad de taxis “azules” y “verdes” en la ciudad no obliga a los conductores a huir del lugar. Por otro lado, en la segunda opción, los taxistas verdes tienen más de cinco veces más probabilidades de sufrir accidentes que los conductores azules. La conclusión surge inmediatamente: ¡los conductores de taxis “verdes” son unos locos desesperados! Ha desarrollado un estereotipo de descuido ecológico que aplica a conductores de empresas desconocidos. El estereotipo encaja fácilmente en la historia causal,

El ejemplo del taxi ilustra dos tipos de probabilidades previas. Las probabilidades estadísticas previas son hechos sobre la población dentro de la cual se considera la situación que no son importantes para un caso particular. Los antecedentes causales cambian tu visión de cómo ocurrió el evento. Estos dos tipos de información sobre probabilidades previas se tratan de manera diferente: a las probabilidades previas estadísticas generalmente se les da poca importancia y, a veces, se ignoran por completo cuando se dispone de información específica sobre el caso en cuestión. Las probabilidades causales previas se tratan como información sobre un caso particular y se combinan fácilmente con otra información relacionada con él.

Formación de un estereotipo. Es un concepto negativo en nuestra cultura, pero yo lo uso de manera neutral. Una de las principales características del Sistema 1 es la representación de categorías en forma de normas y prototipos. En las categorías sociales, estas ideas se denominan estereotipos. Representamos categorías a través de estereotipos verdaderos y falsos. Por ejemplo, en la contratación existen estrictas normas sociales y legales contra los estereotipos. Así es como debería ser. En situaciones sociales delicadas, no es aconsejable sacar conclusiones potencialmente incorrectas sobre un individuo basándose en estadísticas grupales. Desde un punto de vista moral, se considera deseable tratar las probabilidades previas como hechos estadísticos generales y no como suposiciones sobre individuos específicos. En otras palabras, en este caso rechazamos las probabilidades causales previas.

Enfrentarse a los estereotipos es moralmente admirable, pero no debemos asumir erróneamente la visión simplista de que hacerlo no tiene consecuencias. Este es un precio que vale la pena pagar por el mejoramiento de la sociedad, pero negar su existencia, si bien es reconfortante y políticamente correcto, no está científicamente justificado. En el debate político, se utiliza a menudo la heurística del afecto: se supone que los principios que nos gustan no tienen costos, y aquellos que no nos gustan supuestamente no tienen beneficios. Debemos ser capaces de más.

Capítulo 17: Regresión a la media

Enseñé la psicología del entrenamiento eficaz a instructores de la Fuerza Aérea Israelí. Les expliqué un principio importante del entrenamiento de habilidades: recompensar las mejoras funciona más eficazmente que castigar los errores. Después de escuchar mi explicación, uno de los instructores más experimentados del grupo dijo: “He elogiado repetidamente a los cadetes por su limpia actuación acrobática. Durante el siguiente intento de realizar la misma figura, lo hacen peor. Y cuando los regaño por su mal desempeño, generalmente lo hacen mejor la próxima vez”. Su conclusión sobre la eficacia de la recompensa y el castigo resultó ser completamente errónea. El instructor observó el efecto de la regresión a la media que se produce debido a fluctuaciones aleatorias en la calidad del desempeño. Naturalmente, sólo se elogió a aquellos que realizaron maniobras mucho mejor que la media. Pero el cadete probablemente tuvo suerte en este intento y, por lo tanto, el siguiente intento habría sido peor, independientemente de si fue elogiado o no. Y viceversa: el instructor regañaba al cadete si realizaba una tarea inusualmente mala y, por lo tanto, lo habría hecho mejor en el siguiente intento, independientemente de las acciones del instructor. Resultó que a las inevitables fluctuaciones de un proceso aleatorio se les dio una interpretación causal.

Talento y suerte. Hace unos años, John Brockman pidió a los científicos que compartieran sus ecuaciones favoritas. Sugerí estos:

  • éxito = talento + suerte
  • gran éxito = un poco más de talento + mucha suerte

El hecho de que la regresión también ocurra cuando se intenta predecir un evento anterior a partir de uno posterior debería convencerlo de que no tiene explicación causal.

El fenómeno de la regresión es ajeno a la mente humana. Este fenómeno fue descrito por primera vez por Sir Francis Galton, primo segundo de Charles Darwin, que tenía conocimientos verdaderamente enciclopédicos. En un artículo titulado "Regresión a la media en la herencia", publicado en 1886, informó que midió varias generaciones sucesivas de semillas y comparó la altura de los niños con la altura de sus padres. Francis Galton tardó varios años en comprender que correlación y regresión no son dos conceptos diferentes, sino dos perspectivas de uno. La regla general es bastante simple, pero tiene consecuencias sorprendentes: en los casos en que la correlación no es perfecta, se produce una regresión a la media.

Para ilustrar el descubrimiento de Galton, tomemos una proposición que muchos encuentran bastante curiosa: las mujeres inteligentes suelen casarse con hombres menos inteligentes. Dado que la correlación entre la inteligencia de mujeres y hombres no es perfecta, es matemáticamente inevitable que las mujeres inteligentes se casen con hombres que son, en promedio, menos inteligentes (y viceversa). La regresión observada a la media no puede ser más interesante ni más explicable que la correlación no ideal.

Pagamos mucho dinero a quienes nos dan explicaciones interesantes sobre los efectos de regresión. Un comentarista de un canal de noticias empresariales que comenta correctamente que “este año fue mejor para los negocios porque el año pasado fue malo” probablemente no durará mucho en el aire.

Capítulo 18: Cómo lidiar con predicciones intuitivas

Se pide a los sujetos que hagan una predicción, pero la sustituyen por una estimación de los datos, sin darse cuenta de que están respondiendo una pregunta diferente a la formulada. Se garantiza que este proceso producirá predicciones sistemáticamente sesgadas que ignoran por completo la regresión a la media.

Para hacer una predicción no distorsionada, haga lo siguiente:

  1. Comience estimando su GPA típico.
  2. Determine la puntuación media que corresponde a sus impresiones sobre la información disponible.
  3. Evalúe la correlación entre sus datos y su GPA.
  4. Si la correlación es 0,3, aléjese un 30 % de la distancia del GPA típico hacia el GPA de impresiones coincidentes.

Mis procedimientos correctivos son valiosos porque te obligan a pensar en la cantidad de información que conoces.

Una mirada a la regresión desde una perspectiva de dos sistemas. Las predicciones extremas y el deseo de predecir acontecimientos improbables basándose en pruebas insuficientes son expresiones del Sistema 1. Es natural que los mecanismos asociativos hagan coincidir lo extremo de las predicciones con lo extremo de los datos en los que se basan: así es como funciona la sustitución. Es natural que el Sistema 1 genere estimaciones excesivamente confiadas porque la confianza está determinada por la coherencia de la mejor historia que se puede construir a partir de la evidencia disponible. Tenga en cuenta que la intuición tiende a hacer predicciones extremadamente extremas y usted tiende a creerlas. La regresión también es difícil para el Sistema 2. La idea misma de regresión a la media es difícil de explicar y comprender. Galton lo entendió con gran dificultad. A muchos profesores de estadística no les gusta dar conferencias sobre este tema y, a menudo, los estudiantes se quedan con una comprensión vaga de este importante concepto. Para evaluar la regresión, el Sistema 2 requiere un entrenamiento especial. No sólo hacemos coincidir intuitivamente los pronósticos con los datos de entrada, sino que también parece razonable. Es imposible entender la regresión basándose en la experiencia personal. Incluso si se la identifica, como en el caso de los instructores de vuelo, se le da una interpretación causal que casi siempre es errónea.

PARTE III. EXCESO DE SEGURIDAD
Capítulo 19. La ilusión de la comprensión.

Nassim Taleb, comerciante, matemático y filósofo, puede considerarse legítimamente un psicólogo. En su obra "" introduce el concepto distorsiones narrativas(narrativas) para explicar cómo las interpretaciones erróneas del pasado dan forma a nuestras opiniones y expectativas del futuro. Las distorsiones narrativas surgen de nuestros innumerables intentos de comprender las leyes de la vida. Las narrativas interpretativas que encontramos convincentes suelen ser simples y concretas más que abstractas. Ellos tendrían oh Se da más protagonismo al talento, a la estupidez o al cálculo que a la suerte. Al mismo tiempo, el narrador destaca los hechos excepcionales ocurridos y se olvida de muchos otros que no sucedieron. Esencialmente, cualquier incidente notable da lugar a una narrativa causal. Taleb cree que constantemente somos engañados de esta manera: acumulamos conclusiones endebles sobre la base del pasado y las consideramos inquebrantables.

El hecho de que en muchos casos una elección preceda a la realización de un evento nos lleva a sobreestimar el papel de la habilidad de los participantes y a subestimar la influencia del azar. La esencia de esta idea errónea es la siguiente: creemos que podemos comprender el pasado y, por lo tanto, el futuro es cognoscible; Sin embargo, en realidad entendemos el pasado menos de lo que pensamos.

“En retrospectiva” y su costo para la sociedad. La principal limitación de la mente humana es que es casi imposible volver al pasado, tomar la misma posición, conociendo los cambios futuros. Tan pronto como construyes una nueva imagen del mundo o parte de él, la anterior se borra: ya no recuerdas cómo ni en qué creías antes.

La incapacidad de recrear visiones anteriores conlleva inevitablemente una sobreestimación de lo inesperado de los hechos ocurridos. Baruch Fischhoff, cuando todavía era estudiante, fue el primero en mostrar el desarrollo de la distorsión retrospectiva, o el efecto "lo sabía". La tendencia a revisar la historia de las propias opiniones a la luz de lo sucedido da lugar a una ilusión cognitiva persistente.

Imagínese esto: como resultado de una pequeña intervención quirúrgica, sucede algo inesperado y el paciente muere. En el juicio, es más probable que los jurados crean que la intervención en realidad contiene mayores riesgos de los previstos y que el médico que la prescribió debería haberlo previsto. Debido a tal error (desviación del resultado) casi

es imposible evaluar correctamente la decisión debido a que la opinión que parecía razonable cuando se tomó ha cambiado.

Desviación hacia el resultado. Cuando el resultado es malo, el cliente regaña al agente: dicen que no leyó la advertencia en la pared, pero él mismo olvida que la inscripción fue hecha con tinta invisible y aparece solo después del hecho. Una medida que parecía prudente en las previsiones puede parecer descaradamente descuidada en retrospectiva.

Cuanto peores sean las consecuencias, más susceptibles seremos al sesgo retrospectivo. Considerando la tragedia del 11 de septiembre, estamos especialmente dispuestos a creer que los funcionarios que lograron evitarlo resultaron ser unos vagos o unos ciegos.

Recetas para el éxito. El mecanismo de creación de significado del Sistema 1 nos ayuda a ver el mundo que nos rodea como más simple, más coherente y más predecible que la realidad. La ilusión de que el pasado puede entenderse da lugar a la ilusión de que el futuro es predecible y controlable. Los delirios nos calman, reduciendo la ansiedad que inevitablemente surgiría con la conciencia de la incertidumbre de nuestra existencia.

¿El estilo de liderazgo y la personalidad del líder afectan las ganancias de las empresas? ¡Por supuesto! Esto ha sido confirmado por estudios sistemáticos que han evaluado objetivamente las cualidades de los directores, sus decisiones y los cambios asociados en las ganancias. Las políticas del director influyen en el desempeño de la empresa, pero el efecto de esta influencia no es tan grande como afirma la prensa económica. Los investigadores juzgan la fuerza de una relación por el valor del coeficiente de correlación, que varía de 0 a 1. En el capítulo sobre regresión a la media, este coeficiente se definió como una medida del peso relativo de los factores comunes a los dos valores. siendo comparado. La estimación más generosa del coeficiente de correlación entre el éxito empresarial y la calidad del liderazgo alcanza 0,3, lo que indica un 30% de acuerdo entre los criterios. Una correlación de 0,3 implica que un líder fuerte dirige una empresa exitosa alrededor del 60% del tiempo, sólo un 10% más que una distribución aleatoria. Sabiendo esto, es fácil ver que los méritos de los líderes no son tan grandes como se los ensalza.

Sin embargo, desde el punto de vista de la mayoría de los analistas de negocios, un director del que depende tan poco difícilmente puede contar con el reconocimiento incluso si la empresa tiene éxito. Es difícil creer que la gente haga fila para leer un libro que describe los métodos de un líder cuyos esfuerzos logran un éxito que es poco más que accidental. El consumidor anhela consejos claros sobre los ingredientes del éxito y del fracaso en los negocios; necesita historias que le den una sensación de comprensión, aunque sea ilusoria. Philip Rosenzweig, profesor de una escuela de negocios suiza, demuestra en su obra "" cómo esta necesidad de confianza ilusoria se satisface con dos géneros populares de literatura empresarial: historias sobre el ascenso (más raramente, la caída) de empresas y empresarios seleccionados, así como comparaciones analíticas de empresas más y menos exitosas

Rosenzweig concluyó que los ejemplos de éxito y fracaso exageran constantemente el impacto del estilo de gestión y las prácticas comerciales en los ingresos de una empresa y, por lo tanto, es poco probable que tales ejemplos enseñen algo. Para entender lo que está sucediendo, imaginemos que a un experto en negocios de entre los directores se le pide que comente sobre la reputación del director de una determinada empresa. El experto está muy interesado en saber si la empresa ha prosperado o decaído en los últimos años. Este conocimiento crea un aura: un experto preferiría llamar metódico, flexible y decidido al director de una empresa próspera. Ahora imagina que ha pasado un año y la situación ha empeorado. El mismo director será evaluado como de mente cerrada, confuso y autoritario.

De hecho, el efecto halo es tan poderoso que a usted mismo le disgusta la idea de que las mismas acciones puedan ser correctas o incorrectas según la situación, y que la misma persona pueda ser a la vez flexible e inerte. Debido al efecto halo, pervertimos el orden de causa y efecto: creemos que la empresa sufre por la inercia de la dirección, cuando en realidad la dirección nos parece inerte debido al declive de la empresa. Así se nace ilusiones de comprensión. El efecto halo, junto con el sesgo de desempeño, explica el creciente interés en los libros en los que los autores intentan sacar conclusiones de estudios sistemáticos de empresas exitosas y brindar consejos prácticos. La idea detrás de los libros es que uno puede identificar y estudiar “buenas prácticas de gestión” y luego aplicarlas para lograr el éxito. Sin embargo, ambas suposiciones son demasiado audaces. Comparar empresas más o menos exitosas es principalmente una comparación de suerte. Teniendo presente el papel del azar, es necesario ser escéptico acerca de los “patrones estables” que se derivan de observar empresas exitosas y no tan exitosas. Con cierta cantidad de caos, los patrones resultan ser espejismos. Dado el gran impacto del azar, no se puede inferir la calidad de las prácticas de liderazgo y gestión a partir del éxito observado de las empresas.

Capítulo 20. La ilusión de significado.

La confianza es un sentimiento que refleja la coherencia de la información y la facilidad cognitiva para procesarla. En este sentido, es más prudente tomar en serio las confesiones de incertidumbre de alguien. Las declaraciones de certeza absoluta, por otro lado, sugieren que la persona ha construido una narrativa mental coherente que puede no ser cierta.

¿Qué hace que una persona venda y otra compre? ¿Por qué los vendedores se consideran más informados que los compradores y qué información tienen? Mis preguntas sobre el funcionamiento de la bolsa de valores se fusionaron en un gran misterio: parece que una gran industria de la economía existe sólo gracias a ilusiones de habilidad. La mayoría de los compradores y vendedores saben que tienen la misma información; Los valores se compran y venden principalmente debido a diferencias de opiniones. Los vendedores piensan que el precio es demasiado alto y pronto bajará, y los compradores piensan que el precio es demasiado bajo y debería subir. El misterio es por qué ambos confían en que el precio cambiará definitivamente. ¿Por qué creen firmemente que saben mejor cuál debería ser el precio? En realidad, la confianza de la mayoría de los comerciantes es sólo una ilusión.

Existe un consenso general entre los investigadores de que casi todos los analistas financieros, consciente o inconscientemente, confían en el azar. El sentimiento subjetivo del comerciante es que está tomando una decisión razonable e informada en una situación muy incierta; sin embargo, en mercados altamente eficientes, las decisiones informadas no son más precisas que las decisiones ciegas.

¿Qué refuerza las ilusiones de habilidad e importancia? La capacidad de evaluar las perspectivas comerciales de una empresa no es suficiente para una inversión exitosa, donde la pregunta principal es si el precio de las acciones contiene información sobre la salud de la empresa. Las ilusiones de importancia y habilidad están respaldadas por una poderosa cultura profesional. Sabemos que la gente tiende a tener una creencia inquebrantable en cualquier afirmación, por absurda que sea, si esa creencia es compartida por una comunidad de personas con ideas afines.

Ilusiones de expertos. Nassim Taleb señaló en su Cisne Negro que nuestra tendencia a inventar ideas coherentes narrativas(es decir, narrativas coherentes y consistentes sobre el pasado) y creerlas se hace difícil al aceptar el hecho de que nuestros poderes de previsión son limitados. La ilusión de comprender el pasado nos da un exceso de confianza en nuestra capacidad para predecir el futuro. (Las historias exitosas a menudo se basan en la variabilidad del pasado, por ejemplo, la famosa trilogía cinematográfica "Regreso al futuro" o la novela de Stephen King "22/11/63").

"Hemos llegado rápidamente al punto en que el valor de las predicciones basadas en el conocimiento se está volviendo extremadamente pequeño", escribe Philip Tetlock, psicólogo de la Universidad de Pensilvania. – En una era de sobreespecialización de la ciencia, no tiene sentido creer que quienes publican en publicaciones importantes (científicos políticos destacados, científicos regionales, economistas, etc.) sean de alguna manera superiores a los periodistas comunes o simplemente a los lectores reflexivos del Nuevo Testamento. York Times cuando se trata de Y lidiar con situaciones emergentes”. Como descubrió Tetlock, cuanto más famoso es un pronosticador, más extravagantes son sus pronósticos. "Los expertos solicitados", escribe, "se comportan con más confianza en sí mismos en comparación con sus colegas que no están en el centro de atención".

Hay que tener en cuenta que, en primer lugar, los errores de previsión son inevitables, ya que la vida es impredecible. Y en segundo lugar, la confianza subjetiva excesiva no debe considerarse un indicador de la precisión de las predicciones (la incertidumbre dará un mejor resultado). Es en vano esperar que el comportamiento de un cadete en una carrera de obstáculos indique cómo será en la escuela de oficiales y en el combate; hay demasiados factores especiales que intervienen en cada situación. Si se elimina al más asertivo de los ocho candidatos del grupo, el resto revelará una nueva faceta de sí mismos. No niego la importancia de las pruebas: si una permite predecir un resultado importante con una confianza de 0,2 o 0,3, debería utilizarse. Pero no esperes más.

Capítulo 21. Intuición y fórmulas: ¿quién gana?

Paul Meehl, uno de los psicólogos más versátiles del siglo XX, intentó descubrir por qué los expertos pierden ante las fórmulas. Una razón, sugirió Meehl, es que están tratando de ser más inteligentes, pensar de forma independiente y tener en cuenta combinaciones complejas de factores. En otros casos, la complejidad ayuda, pero en la mayoría de los casos reduce la confiabilidad de las predicciones. Es mejor partir de combinaciones simples de factores. Otra razón por la que los expertos pierden ante las fórmulas es la imperdonable inconsistencia de las generalizaciones humanas al procesar información compleja. Si se les proporciona a los expertos el mismo conjunto de datos dos veces, a menudo darán respuestas diferentes. Quizás los juicios inconsistentes estén tan extendidos porque el Sistema 1 depende mucho del contexto.

La investigación nos lleva a una conclusión inesperada: para maximizar la precisión predictiva, las decisiones finales deben confiarse a fórmulas, especialmente en áreas de "baja confianza". Por ejemplo, al postularse para escuelas de medicina, la decisión final queda en manos de los profesores que entrevistan a los solicitantes. La evidencia limitada sugiere que es probable que las entrevistas reduzcan la precisión del procedimiento de selección porque los entrevistadores tienden a confiar demasiado en sus propias intuiciones y con demasiada frecuencia dependen de sus propias observaciones excluyendo otras fuentes de información.

En las ciencias sociales, la práctica estadística predominante es asignar un peso a cada uno de los elementos predictores, siguiendo un algoritmo llamado regresión múltiple. Robin Dawes descubrió que la complejidad de un algoritmo estadístico contribuye poco a mejorar su eficiencia. Además, las fórmulas que dan igual peso a todos los predictores a menudo superan a otras porque no se ven afectadas por la aleatoriedad del muestreo.

La previsión a corto plazo en el contexto del cuestionamiento terapéutico es una habilidad que los terapeutas han pasado años perfeccionando. Por tanto, estas previsiones son muy buenas. El pronóstico a largo plazo para el futuro de un paciente en particular resulta una tarea imposible para los especialistas. Además, los médicos no tienen ninguna oportunidad práctica de adquirir la habilidad de hacer pronósticos a largo plazo: se necesitan demasiados años para que la retroalimentación obtenga la confirmación de sus hipótesis.

La obstinada resistencia a desmitificar las habilidades profesionales quedó claramente demostrada en la reacción de los enólogos europeos ante la fórmula de Ashenfelter. El sesgo contra el algoritmo aumenta cuando las decisiones tienen consecuencias importantes. Afortunadamente, es probable que la hostilidad hacia los algoritmos disminuya a medida que aumente su papel en la vida cotidiana. Cuando buscamos libros o música, las recomendaciones de programas especiales sólo nos ayudan.

Supongamos que necesita contratar un representante de ventas para su empresa. Si realmente quiere encontrar al mejor candidato para el puesto, comience seleccionando varios rasgos de personalidad necesarios para realizar con éxito el trabajo (por ejemplo, competencia técnica, personalidad ganadora, confiabilidad, etc.). No te excedas: seis cualidades son suficientes. Asegúrese de que las cualidades no se superpongan y de que puedan evaluarse haciendo algunas preguntas sencillas y basadas en hechos.

Haga una lista de estas preguntas para cada cualidad e ingrese una escala, digamos, de cinco puntos. Defina lo que se entiende por las frases “fuertemente expresado” o “débilmente expresado”. Para evitar el efecto halo, recopile y procese datos por separado para cada cualidad y luego pase a la siguiente. Para obtener una puntuación general, sume las puntuaciones de los seis parámetros. Contrata a aquel cuyo puntaje final sea el más alto, incluso si te gustó más el otro candidato. Si utiliza el procedimiento descrito, obtendrá mejores resultados que si actúa como la mayoría de las personas y confía en su intuición (“Me gustó de inmediato”).

Capítulo 22. Intuición experta: ¿cuándo deberías confiar en ella?

¿Cómo evaluar el posible significado de un juicio intuitivo? ¿Cuándo tales juicios reflejan verdadera experiencia y profesionalismo, y cuándo son simplemente un ejemplo de la ilusión de importancia? La respuesta se puede obtener en base a dos condiciones principales para adquirir el dominio:

  • la presencia de contexto, y lo suficientemente constante como para volverse predecible;
  • oportunidades para aprender estas constancias contextuales a través de la práctica a largo plazo.

Cuando se cumplen ambas condiciones, la intuición se adquiere como una habilidad. El ajedrez es un ejemplo extremo de contexto o entorno inmutable, aunque el bridge y el póquer también tienen patrones estadísticos persistentes que permiten perfeccionar las habilidades. Los médicos, enfermeros, deportistas y bomberos también se enfrentan a situaciones complejas pero internamente lógicas. Los juicios intuitivos de los bomberos descritos por Gary Klein surgieron de señales muy significativas que el Sistema 1 del experto aprendió a utilizar, aunque el Sistema 2 no les encontró un nombre. En el caso de los analistas financieros y politólogos ha sucedido lo contrario: operan en un contexto de certeza nula. Sus fracasos reflejan la inherente imprevisibilidad de los acontecimientos que estos expertos intentan predecir.

No se puede culpar a alguien por un mal pronóstico en un mundo impredecible. Más bien, deberíamos culpar a los profesionales por creer que pueden realizar esta tarea imposible. Exaltar sus propias conjeturas sobre situaciones impredecibles es, en el mejor de los casos, autoengaño. En ausencia de señales ambientales significativas, tales “ideas” son suerte o falsedad. Si esta conclusión te pareció inesperada, entonces todavía crees en la magia de la intuición. Recuerde: no puede confiar en la intuición en un contexto que carece de patrones estables.

Retroalimentación y práctica. La capacidad de un profesional para desarrollar la intuición depende principalmente de la calidad y velocidad de la retroalimentación, así como de la oportunidad de practicar. El trabajo de los anestesiólogos está acompañado de buenas críticas, ya que los resultados de sus acciones se notan rápidamente. Por el contrario, los radiólogos reciben poca información sobre la precisión de sus diagnósticos y las patologías que pasan desapercibidas. Por tanto, los anestesiólogos tienen más posibilidades de desarrollar la intuición. Si el anestesiólogo dice: "Algo anda mal", todos en el quirófano deben prepararse para una emergencia.

¿En qué casos hay que confiar en la intuición de un experto? Dada la relativa inmutabilidad del contexto y la capacidad de identificar sus patrones, el mecanismo asociativo reconoce la situación y rápidamente desarrolla un pronóstico (decisión) preciso. Si se cumplen estas condiciones, se puede confiar en la intuición del experto. En un contexto menos estable y poco confiable, se activa la heurística del juicio. El Sistema 1 puede proporcionar respuestas rápidas a preguntas difíciles reemplazando conceptos y brindando coherencia donde no debería haber ninguna. Como resultado, obtenemos una respuesta a una pregunta que no se hizo, pero que es rápida y bastante plausible y, por lo tanto, capaz de escapar del control indulgente y perezoso del Sistema 2. Digamos que desea predecir el éxito comercial de una empresa y cree que esto es lo que está evaluando, cuando en realidad ¿Está impresionado por la energía y competencia de la dirección de la empresa?

Capítulo 23. Vista desde el exterior.

Al principio de mi carrera, una vez convencí a funcionarios del Ministerio de Educación de Israel de que la educación superior necesitaba un curso sobre el estudio de la toma de decisiones. Para desarrollar el curso y escribir un libro de texto, reuní un equipo de profesores experimentados. En algún momento decidimos que nos llevaría unos dos años completar el proyecto. Le hice una pregunta a Seymour, uno de los participantes del proyecto, quien conocía las estadísticas de proyectos similares que tenían otros grupos. Seymour informó que el proyecto promedio dura 7 años y el 40% de los proyectos quedan sin terminar. De hecho, se necesitaron otros ocho (!) años para completar el libro de texto.

Este desagradable episodio se convirtió quizás en el más instructivo de mi carrera profesional. Con el tiempo, aprendí tres lecciones de ello. La primera me quedó clara de inmediato: reconocí la diferencia entre dos enfoques radicales de previsión, que Amos y yo denominamos más tarde “la visión interior” y la “visión exterior”. La segunda lección fue que nuestra visión inicial (dos años de trabajo para completar el proyecto) contenía un error de planificación. Nuestras estimaciones tuvieron en cuenta la situación ideal, no la real. Y sólo después de mucho tiempo aprendí la tercera lección: la lección de la "persistencia irracional". Precisamente por eso explico nuestra reticencia a abandonar un proyecto evidentemente no rentable. Ante una elección, sacrificamos la racionalidad, pero no la iniciativa.

Una mirada desde dentro y sus ventajas. El ojo interior empezó a evaluar el futuro del proyecto. Nos centramos en las circunstancias específicas en las que nos encontrábamos y comenzamos a buscar analogías en el pasado. Aquel día no podíamos prever que algún accidente permitiría que el proyecto se prolongara durante tanto tiempo. La pregunta que le hice a Seymour desvió su atención de nuestra situación particular a la categoría de situaciones similares. Seymour estimó que la probabilidad previa de éxito en esta categoría era del 40% de fracaso y de 7 a 10 años hasta que se completara el proyecto. El pronóstico de referencia debería ser el ancla, el punto de partida para futuros ajustes. Si la categoría inicial se elige correctamente, un extraño le dirá dónde buscar la respuesta o, como en nuestro caso, le dejará claro que las previsiones internas ni siquiera se acercan a ella.

El pronóstico "desde dentro" de Seymour no fue un ajuste del pronóstico básico - ni siquiera se le ocurrió - sino que se basó enteramente en circunstancias particulares, es decir, en nuestros esfuerzos. Al igual que los participantes en el experimento de Tom W., Seymour conocía estadísticas importantes, pero no pensó en aplicarlas. Un escenario común es que las personas que tienen información sobre un caso particular rara vez sienten la necesidad de estadísticas sobre la categoría a la que pertenece el caso. Cuando encontramos una mirada externa, la ignoramos conjuntamente.

Error de planificación. Cuando tomamos en cuenta el pronóstico externo y el resultado posterior, nuestras estimaciones iniciales del tiempo de entrega del proyecto parecen casi delirantes. Creo que esto no es sorprendente: en todas partes se encuentran pronósticos demasiado optimistas. Amós y yo acuñamos el término. error de planificación, describiendo previsiones y planes que: se acercan excesivamente a los mejores escenarios posibles; se puede corregir observando las estadísticas de casos similares.

Mitigar las consecuencias del error de planificación. Bent Flyvbjorg, analista de sistemas y profesor de la Universidad de Oxford: “Quizás la principal fuente de errores de pronóstico sea la tendencia predominante a subestimar o ignorar la información distributiva. Por lo tanto, los planificadores deberían tomarse la molestia de definir el problema de pronóstico y así facilitar la recopilación y el registro de información distributiva”.

El uso de información distributiva obtenida de otros proyectos similares a aquel para el cual se realiza el pronóstico se denomina uso de una “visión externa”. Ahora bien, esta prevención tiene un nombre técnico: Predicción basada en la categoría original. Cuando una organización está bien gestionada, recompensará a los planificadores por trabajar con precisión y los penalizará por no anticipar las dificultades y por no tener en cuenta las perturbaciones imprevistas: “incógnitas desconocidas”.

Soluciones y errores. Cuando se trata de pronosticar proyectos riesgosos, los ejecutivos fácilmente caen víctimas de la “falacia de la planificación”. Bajo su influencia, toman decisiones basadas no en una evaluación racional de posibles pérdidas, ganancias y perspectivas, sino en un optimismo engañoso. Sobreestiman los beneficios y subestiman los costos. Representan escenarios de éxito en sus mentes y pasan por alto lugares complicados donde pueden cometer un error o ser defraudados. Como resultado, emprenden proyectos que terminan en sobrecostos presupuestarios, retrasos, falta de reembolso o quedan inconclusos.

Capítulo 24. El motor del capitalismo

La falacia de la planificación es sólo una manifestación del omnipresente sesgo optimista. La mayoría de nosotros vemos el mundo como más amigable, nuestros propios rasgos más agradables y nuestras metas más alcanzables de lo que realmente son. También tendemos a exagerar nuestra propia capacidad para predecir el futuro, lo que nos hace sentir demasiado confiados. Los estudios sobre fundadores de pequeñas empresas han demostrado que los empresarios tienen una perspectiva de la vida más positiva que los gerentes de nivel medio. El sesgo optimista influye en los acontecimientos cada vez que una persona u organización asume un riesgo grave. Quienes asumen riesgos tienden a subestimar el papel de los factores aleatorios. Cuando es necesario actuar, el optimismo (incluso en forma de ilusión) puede resultar útil.

Los empresarios se equivocan: los beneficios financieros de tener su propio negocio son pequeños; con las mismas calificaciones, las personas logran b oh mayores ganancias vendiendo sus habilidades a los empleadores. La evidencia muestra que el optimismo es omnipresente, inerradicable y costoso. Los directores ejecutivos de grandes empresas a veces arriesgan mucho en costosas fusiones y adquisiciones, actuando con la creencia errónea de que serán mejores administradores de los activos de la otra empresa que sus antiguos propietarios. Se esgrimió la “hipótesis de la arrogancia” para explicar las adquisiciones sin sentido. Según ella, la dirección de la empresa adquirente es simplemente menos competente de lo que parece.

Desprecio por la competencia. Los sesgos cognitivos juegan un papel importante en el optimismo empresarial, especialmente el principio de “lo que ves es lo que ves” (WYSIATI) inherente al Sistema 1:

  • Nos centramos en un objetivo, nos obsesionamos con nuestro plan y descuidamos las probabilidades anteriores, cometiendo errores de planificación en el proceso.
  • Al centrarnos en lo que queremos y podemos hacer, ignoramos las habilidades y los planes de los demás.
  • Tanto al explicar el pasado como al predecir el futuro, nos centramos en el papel causal de la habilidad y descuidamos el papel de la suerte, cayendo bajo la ilusión de control.
  • Al centrarnos en lo que sabemos, rechazamos lo desconocido y nos volvemos demasiado confiados en nuestro juicio.

Un experto que admite plenamente las limitaciones de su competencia puede esperar que lo despidan; probablemente será reemplazado por un colega más seguro de sí mismo que podrá ganarse más fácilmente la confianza de los clientes. El reconocimiento imparcial de las propias inseguridades es la piedra angular de la cordura, pero la mayoría de las personas y organizaciones buscan algo completamente diferente. Juntos, los factores emocionales, cognitivos y sociales que sustentan el optimismo excesivo forman una mezcla volátil que a veces obliga a las personas a correr riesgos.

El principal beneficio de una actitud optimista es que aumenta la capacidad de recuperación ante el fracaso. Básicamente, un estilo optimista significa que una persona da por sentado el éxito y no se castiga demasiado por los errores.

La “epicrisis de toda la vida” es una solución parcial al problema. Las organizaciones pueden tener más posibilidades que los individuos de frenar el optimismo y sus portadores. Gary Klein llamó a su técnica epicrisis de por vida. El procedimiento es simple: si la organización está al borde de una decisión importante, pero aún no se ha comprometido a implementarla, se debe convocar a los iniciados en el plan a una reunión y decirles: "Imagínese que está en el futuro". . Hemos implementado el plan tal como está. Las consecuencias fueron catastróficas. Les pedimos que en 5 a 10 minutos describan brevemente la historia del desastre: cómo sucedió todo”. La primera ventaja de una epicrisis de toda la vida es que legitima las dudas.

PARTE IV. ELECCIÓN
Capítulo 25. Los errores de Bernoulli.

Una vez leí al economista suizo Bruno Frey: “El agente de la teoría económica es racional, egoísta y sus gustos no cambian”. Para el psicólogo es obvio que el hombre no es enteramente racional ni enteramente egoísta y que sus gustos no son en modo alguno estables. Parecía como si nuestras ciencias estuvieran estudiando representantes de dos especies diferentes; El economista conductista Richard Thaler llamó más tarde a estos tipos “economistas” y “humanos”. A diferencia de los Econs, los humanistas estudiados por los psicólogos tienen el Sistema 1. Su visión del mundo está limitada por la información disponible en este momento (el principio WYSIATI) y, por lo tanto, no pueden ser tan consistentes y lógicos como los Econs.

Cada elección importante que hacemos en la vida implica cierto grado de incertidumbre, razón por la cual los investigadores de decisiones esperan que los conocimientos adquiridos al estudiar situaciones simuladas puedan aplicarse a situaciones cotidianas más interesantes.

El matemático John von Neumann, uno de los más grandes pensadores del siglo XX, y el economista Oscar Morgenstern derivaron su teoría de la elección racional entre juegos a partir de varios axiomas. Los economistas consideran que la teoría de la utilidad esperada tiene dos usos: como una lógica que prescribe cómo se deben tomar decisiones y como una descripción de cómo los economistas toman decisiones. Amos y yo, como psicólogos, comenzamos a estudiar cómo los humanistas toman decisiones arriesgadas sin hacer ninguna suposición sobre su racionalidad. Cinco años después de que comenzamos a investigar juegos, completamos un ensayo titulado "Teoría de la perspectiva: un análisis de la toma de decisiones bajo riesgo". Nuestra teoría era muy similar a la teoría de la utilidad, pero se apartaba de ella en esencia. Lo más importante es que nuestro modelo fue puramente descriptivo; su objetivo era documentar y explicar las violaciones sistemáticas de los axiomas de racionalidad al elegir entre juegos.

En nuestros primeros cinco años de estudio de la toma de decisiones, establecimos una docena de hechos sobre la elección entre opciones arriesgadas. Algunos de los hallazgos contradecían la teoría de la utilidad esperada. Para explicar las observaciones recopiladas, creamos una teoría que modifica la teoría de la utilidad esperada y la llamamos teoría de las perspectivas.

La idea de Bernoulli era simple: las decisiones no se basan en el valor monetario sino psicológico de los resultados, en su utilidad. Por tanto, el valor psicológico de un juego no es igual al promedio ponderado de sus resultados en términos monetarios; este es el promedio de las utilidades de los resultados del juego, ponderadas por su probabilidad (Fig. 6).

Bernoulli propuso que el valor marginal decreciente de la riqueza explica la aversión al riesgo. Considere la siguiente opción. Se le ofrece la misma posibilidad de obtener 1 millón o 7 millones - utilidad: (10 + 84)/2 = 47 o se le garantiza obtener 4 millones - utilidad: 60. El valor esperado del juego y la "cantidad garantizada" son iguales en términos monetarios (4 millones), pero la utilidad psicológica de estas opciones es diferente debido a la utilidad decreciente de la riqueza. El descubrimiento de Bernoulli fue que una persona que toma una decisión dentro del marco de la utilidad marginal decreciente de la riqueza tendrá aversión al riesgo.

Bernoulli utilizó un nuevo concepto, la utilidad esperada, para calcular cuánto estaría dispuesto a pagar un comerciante de San Petersburgo por asegurar un cargamento de especias desde Amsterdam, si “sabe que en esta época del año, de cada cien barcos que navegan desde De Amsterdam a San Petersburgo, se pierden cinco”. La función de utilidad explica por qué los pobres compran seguros y por qué los ricos se los venden a los pobres. Como puede ver en la tabla, la pérdida de un millón significa una pérdida de 4 puntos de utilidad (de 100 a 96) para alguien que tiene 10 millones, y una pérdida mucho mayor: 18 puntos (de 48 a 30) - para alguien. quien tiene 3 millones (para más detalles, ver . , ).

Capítulo 26. Teoría de la perspectiva

Al explorar visiones contrastantes del riesgo bajo perspectivas favorables y desfavorables, hemos dado un importante paso adelante: hemos encontrado una manera de demostrar el defecto central del modelo de elección de Bernoulli. Echar un vistazo:

  • Opción 1: Además de su riqueza, recibió $1,000. Ahora elija una de las opciones: 50% de posibilidades de ganar $1000 O $500 garantizados.
  • Opción 2: Además de su riqueza, recibió $2,000. Ahora elija una de las opciones: un 50% de posibilidades de perder $1,000 O una pérdida garantizada de $500.

Es fácil ver que desde el punto de vista de la cantidad final de riqueza (según la teoría de Bernoulli, este es el único indicador importante) las opciones son idénticas. Se le puede garantizar que será $1,500 más rico, o puede apostar en el que tiene las mismas posibilidades de volverse $1,000 o $2,000 más rico. Así, según la teoría de Bernoulli, ambas tareas deberían dar las mismas preferencias. Comprueba tu intuición: intenta adivinar lo que otros han elegido:

  • En el primer caso, la mayoría de los encuestados prefirió el dinero garantizado.
  • En el segundo caso, la gran mayoría de los sujetos prefirió el juego.

La teoría de Bernoulli es demasiado simple y no tiene en cuenta la dinámica. Le falta una variable: un punto de referencia, un estado previo, con respecto al cual se evalúan las ganancias y las pérdidas. Según la teoría de Bernoulli, basta con conocer la cantidad de riqueza para determinar su utilidad, pero según la teoría de la perspectiva, también es necesario conocer el estado inicial. Por tanto, la teoría de las perspectivas es más compleja que la teoría de la utilidad. En ciencia, la complicación se considera un costo que debe justificarse mediante una gama suficientemente amplia de predicciones nuevas y (si es posible) interesantes de hechos no explicados por la teoría existente.

En el centro de la teoría de las perspectivas se encuentran tres propiedades cognitivas. Estas pueden considerarse las características operativas del Sistema 1.

  • La evaluación se realiza en relación con un punto de referencia neutral, a veces llamado "nivel de adaptación". Este principio es fácil de demostrar. Coloca tres tazones de agua frente a ti. Vierta agua helada en el de la izquierda y agua tibia en el de la derecha. En un recipiente mediano, el agua debe estar a temperatura ambiente. Mantenga sus manos izquierda y derecha en el recipiente frío y tibio durante aproximadamente un minuto, luego baje ambas manos hacia el medio. Sentirás la misma temperatura con una mano como caliente y con la otra como fría. Para los resultados financieros, el punto de referencia suele ser el status quo, pero a veces puede ser un resultado esperado o uno que parece merecido, como un aumento o una bonificación recibida por sus colegas. Los resultados que están por encima del punto de referencia son victorias; por debajo del punto de referencia: pérdidas.
  • El principio de desensibilización funciona tanto en el ámbito de las sensaciones como en la evaluación de cambios en la riqueza. La aparición de una luz débil tendrá un gran efecto en una habitación oscura. El mismo cambio de iluminación pasará desapercibido en una habitación muy iluminada. Del mismo modo, la diferencia entre $900 y $1000 es subjetivamente mucho menor que la diferencia entre $100 y $200.
  • El tercer principio es la aversión a las pérdidas. Cuando se comparan directamente, las pérdidas parecen mayores que las ganancias. Esta asimetría entre la fuerza de las expectativas o sensaciones positivas y negativas surgió durante la evolución. Un organismo que responde con más fuerza a una amenaza que a una perspectiva agradable tiene mayores posibilidades de supervivencia y reproducción.

El gráfico (Fig. 7) muestra el valor psicológico de las ganancias y pérdidas, que son los “portadores” de valor en la teoría de las perspectivas (a diferencia del modelo de Bernoulli, donde los portadores de valor son la cantidad de riqueza). El gráfico está claramente dividido en dos partes: a la derecha y a la izquierda del punto de referencia. La forma de S es llamativa y demuestra una menor sensibilidad tanto para las ganancias como para las pérdidas. Finalmente, las dos mitades de la S no son simétricas. La curva de función cambia bruscamente en el punto de referencia: la reacción a las pérdidas es más fuerte que la reacción a las ganancias correspondientes. Esto es aversión a las pérdidas.

La aversión a las pérdidas se puede medir preguntándose: ¿Cuál es la ganancia mínima que equilibraría la misma posibilidad de perder $100? Para la mayoría, la respuesta es alrededor de $200, o el doble de la pérdida. El "coeficiente de aversión a las pérdidas" se ha evaluado experimentalmente muchas veces y normalmente oscila entre 1,5 y 2,5.

Por supuesto, no se puede hablar de ningún juego si las posibles pérdidas se convierten en un desastre o si su forma de vida se ve amenazada. En tales casos, el coeficiente de aversión a las pérdidas es enorme y a menudo tiende al infinito.

La propia teoría de las perspectivas contiene contradicciones. Tomemos, por ejemplo, el supuesto de la teoría prospectiva de que el punto de referencia (normalmente el status quo) tiene un valor de cero. Echemos un vistazo más de cerca a las siguientes perspectivas:

  1. Una posibilidad entre un millón de ganar $1 millón.
  2. Hay un 90% de posibilidades de ganar $12 y un 10% de posibilidades de no ganar nada.
  3. Hay un 90% de posibilidades de ganar $1 millón y un 10% de posibilidades de no ganar nada.

La opción de “no ganar nada” está presente en los tres juegos, y la teoría de las perspectivas asigna el mismo valor a este resultado en los tres casos. No ganar nada es el punto de partida y su valor es cero. ¿Estas declaraciones coinciden con tus sentimientos? Por supuesto que no. En los dos primeros casos, no ganar nada es una tontería y un valor cero tiene sentido. Y, a la inversa, no ganar en el tercer caso significa sufrir una gran decepción. Al igual que un aumento salarial prometido entre bastidores, la alta probabilidad de ganar una gran suma establece un nuevo punto de referencia. En comparación con sus expectativas, una ganancia nula se percibe como una pérdida importante. La teoría de las perspectivas no puede explicar este hecho. Sin embargo, tanto la decepción como la anticipación de la decepción son reales, y la incapacidad de explicarlas es un defecto tan obvio como los contraejemplos que utilicé para criticar la teoría de Bernoulli.

Capítulo 27. El efecto dotación

Todos los puntos de una curva de indiferencia tienen el mismo atractivo. Esto es lo que significa "indiferencia". La convexidad del gráfico refleja una utilidad marginal decreciente. Hay dos aspectos de elección que el modelo de curva de indiferencia estándar no predice. Primero, los sabores no se quedan estancados; cambian con el punto de referencia. En segundo lugar, el daño del cambio parece mayor que los beneficios, lo que provoca el deseo de mantener el status quo.

Los esquemas de indiferencia tradicionales y la representación de Bernoulli de los resultados como cantidades de riqueza están impulsados ​​por una suposición errónea: que la utilidad del momento presente depende sólo del momento mismo y no está relacionada con su historia. Corregir este error fue uno de los logros de la economía del comportamiento.

A principios de la década de 1970, Richard Thaler descubrió muchos ejemplos de lo que llamó el “efecto dotación”. Por ejemplo, tienes una entrada para un concierto de un grupo popular, que compraste por un valor nominal de 200 dólares. Eres un ávido fanático de la banda y fácilmente pagarías hasta $500 por una entrada. Tienes una entrada y lees en Internet que fans más ricos o más desesperados ofrecen 3.000 dólares. ¿Venderás? Si eres como la mayoría de los asistentes a conciertos con entradas agotadas, no te venderán. Su precio de venta mínimo es superior a $3000 y su precio máximo de compra es de $500. Éste es un ejemplo de efecto dotación que desconcertará al estudiante de economía estándar. Thaler se dio cuenta de que la función de valor de la aversión a las pérdidas en el marco de la teoría de las perspectivas también podría explicar el efecto dotación.

La primera aplicación de la teoría de las perspectivas a un rompecabezas económico parece ser un hito en el desarrollo de la economía del comportamiento.

El efecto dotación no es universal. Si te piden que cambies un billete de cinco dólares por un dólar, entregarás los cinco billetes sin sentir la pérdida. En los casos de intercambios comerciales normales, no existe aversión a las pérdidas por ambas partes. ¿Qué diferencia estas transacciones de mercado de la renuencia del profesor R a vender su vino o de la renuencia de los poseedores de entradas para el Super Bowl a venderlos incluso a un precio inflado? La diferencia es que los zapatos que te vende el comerciante y el dinero de tu presupuesto que gastas en los zapatos son “para cambio”. Están preparados para ser intercambiados por otros bienes. Otros bienes (vino o entradas para el Super Bowl) son “para uso”: para consumo personal o placer.

El alto precio cotizado por los vendedores refleja una reticencia a desprenderse de algo que ya poseen, el tipo de reticencia que vemos en un niño que se aferra desesperadamente a un juguete y se enfurece si se lo quitan. La aversión a las pérdidas está integrada en la estructura de valoración automática del Sistema 1.

Piense como un comerciante. La existencia de un punto de referencia y el hecho de que las pérdidas parecen ser mayores que las ganancias correspondientes se consideran ideas fundamentales de la teoría de las perspectivas. No se debe esperar un efecto de dotación si el propietario considera que sus bienes tienen valor para un intercambio futuro, una visión común dentro de los mercados comerciales y financieros.

Capítulo 28. Fracasos

El cerebro de humanos y animales tiene un mecanismo que les permite priorizar las malas noticias. Acelerar la transmisión del impulso incluso en unas pocas centésimas de segundo aumenta las posibilidades de supervivencia del animal en caso de colisión con un depredador y posterior reproducción. Las acciones automáticas del Sistema 1 reflejan nuestra historia evolutiva. Por extraño que parezca, no se han descubierto mecanismos de acción relativamente rápida para reconocer las “buenas noticias”.

Lo negativo en la mayoría de los casos mata lo positivo y la aversión a las pérdidas es sólo una de las manifestaciones de tal predominio de lo negativo. La aversión a las pérdidas es causada por la competencia de aspiraciones opuestas: el deseo de evitar pérdidas (es más fuerte) y obtener beneficios. El punto de referencia es a veces el status quo y otras veces una meta para el futuro. Lograrlo significa ganar, no lograrlo significa perder. El predominio de lo negativo implica que estos motivos tienen diferentes fuerzas. En este sentido, el deseo de evitar el fracaso en la consecución de una meta es más fuerte que el deseo de “superar el plan”.

Mantener el status quo. Un observador atento encontrará casi en todas partes desequilibrios en la intensidad de los motivos de aversión a las pérdidas y las ganancias. Son invariablemente inherentes a cualquier negociación, especialmente a las repetidas discusiones sobre los términos de los contratos celebrados. Los animales luchan más desesperadamente por preservar lo que tienen que por obtener ganancias. Un biólogo señaló: “Cuando el dueño de un territorio se encuentra con un extraño, este último casi siempre se retira, por lo general en unos pocos segundos”.

Capítulo 29. Esquema de cuatro partes.

Siempre que se hace una valoración global de un objeto complejo (un coche nuevo, un futuro yerno, una situación incierta) se atribuye importancia a cada una de sus características. Ésta es una forma elegante de decir que algunos de ellos influyen en su juicio más que otros. La diferenciación de propiedades por grado de importancia se produce independientemente de si usted es consciente de ello o no; esta es una de las funciones del Sistema 1.

Corrección de probabilidades. Antes de Bernoulli, los juegos se juzgaban por los beneficios esperados. Bernoulli utilizó este método para asignar peso a las ganancias (desde entonces, el principio se ha denominado “principio de expectativa”), pero lo aplicó al valor psicológico del resultado. En su teoría, el beneficio de un juego es la media aritmética de los beneficios de sus resultados, evaluados según su probabilidad. El principio de expectativa no describe cómo se piensa acerca de las probabilidades en proyectos riesgosos. En los cuatro ejemplos siguientes, sus posibilidades de ganar 1 millón de dólares aumentan un 5 % de forma incremental. ¿Estarías igualmente feliz si la probabilidad aumentara?

A. de 0 a 5%

B. del 5 al 10%

B. del 60 al 65%

D. ¿del 95 al 100%?

El principio de expectativa establece que su beneficio aumenta exactamente un 5% en cada caso. Sin embargo, ¿esto describe cómo te sientes? No claro que no. Cualquiera estará de acuerdo en que los pares de 0-5% y 95-100% son mucho más impresionantes que los pares de 5-10% o 60-65%. Un aumento de las posibilidades del cero al cinco por ciento transforma la situación, crea una oportunidad que antes no existía y da esperanzas de ganar un premio. Aquí vemos un cambio cualitativo, mientras que en el par 5-10% estamos hablando sólo de un cambio cuantitativo. Y aunque en una pareja del 5 al 10% la probabilidad de ganar se duplica, el beneficio psicológico de tal perspectiva no aumenta proporcionalmente; muchos estarán de acuerdo con esto. La impresión que se produce al aumentar la probabilidad de cero a 5% es un ejemplo. efecto oportunidad, lo que hace que los resultados improbables de los acontecimientos parezcan más significativos y reciban más peso del que “merecen”.

Con un aumento en la probabilidad del 95-100%, se observa otro cambio cualitativo, de fuerte impacto: efecto de certeza. Debido al efecto de oportunidad, tendemos a sobreestimar los pequeños riesgos y a pagar más de lo necesario sólo para eliminarlos por completo. Sobrevalorar las capacidades débiles aumenta el atractivo tanto de los contratos de juego como de seguros.

El principio de espera Según el cual el valor se pondera según la probabilidad, es psicológicamente insostenible. Además, el asunto se vuelve aún más confuso, gracias al poderoso argumento de que cualquier individuo que quiera ser racional al tomar decisiones debe obedecer el principio de expectativa. Ésta es la tesis principal de la conocida teoría de la utilidad, presentada en 1944 por von Neumann y Morgenstern. Demostraron que cualquier evaluación de resultados inciertos que no sea directamente proporcional a la probabilidad conduce a contradicciones y otros problemas.

Cuando Amos y yo empezamos a trabajar en la teoría de las perspectivas, rápidamente llegamos a dos conclusiones: la gente valora las ganancias y las pérdidas más que el bienestar general, y el peso de las decisiones asignadas a los resultados de los acontecimientos es diferente de las probabilidades de que ocurran. Ambas ideas no eran nuevas, pero cuando se combinaron explicaron un patrón característico de preferencias que llamamos esquema de cuatro partes (Figura 9). La primera fila de cada celda muestra eventos alternativos (para mayor claridad). A continuación se describe la emoción básica evocada por la alternativa. A continuación se describe cómo se comporta la mayoría de las personas cuando se enfrentan a la elección entre apostar o una cierta ganancia (pérdida) que corresponde al valor esperado (por ejemplo, entre un 95% de posibilidades de ganar $10,000 y una ganancia garantizada de $9,500). Se dice que se selecciona la aversión al riesgo cuando se prefiere la cantidad garantizada, y la búsqueda de riesgo está asociada con la preferencia por el juego. Finalmente, se describen las posiciones esperadas del demandado y del demandante al discutir la resolución de un caso civil.

Arroz. 9. Esquema de cuatro partes de la teoría de las perspectivas.

El esquema de preferencias de cuatro partes se considera uno de los principales logros de la teoría de las perspectivas. Tres de las cuatro celdas nos eran familiares, la cuarta (arriba a la derecha) fue una sorpresa. La celda superior izquierda describe la suposición de Bernoulli: las personas son reacias al riesgo si consideran alternativas con una probabilidad significativa de obtener grandes ganancias. Están más dispuestos a conformarse con un premio mayor más pequeño sólo para asegurarse de que las ganancias sean correctas. El efecto de oportunidad en la celda inferior izquierda explica la gran popularidad de la lotería. Cuando el premio alcanza una gran cantidad, el comprador del billete olvida que las posibilidades de ganar son mínimas. Es imposible ganar sin un boleto, pero con él tienes una oportunidad, por pequeña o minúscula que sea. Por supuesto, con un billete una persona adquiere algo más que la oportunidad de ganar: el derecho a soñar con la riqueza a su antojo. La celda inferior derecha describe la compra de un seguro. La gente está dispuesta a pagar más del valor esperado por la certeza; Gracias a esta voluntad, las compañías de seguros existen y prosperan. Una vez más, se gana algo más que protección contra un disgusto improbable: la eliminación de la ansiedad y la tranquilidad. En la celda superior derecha, buscamos riesgo en el área de pérdidas con la ilusoria esperanza de mantener el status quo; estamos dispuestos a arriesgar una cantidad mayor sólo para evitar registrar pérdidas.

Capítulo 30. Eventos raros

La gente sobreestima la probabilidad de que ocurran eventos improbables. La gente concede mucha importancia a este tipo de eventos. oh mayor importancia a la hora de tomar decisiones.

Craig Fox invitó a los aficionados al baloncesto a realizar apuestas sobre el ganador del campeonato. Asignaron un equivalente en efectivo a cada apuesta (una cantidad que correspondía al atractivo de participar en el juego). El pago del ganador fue de $160. El valor total en efectivo para los ocho equipos individuales fue de $287. Los resultados de este experimento arrojan una nueva luz sobre la falacia de la planificación y otras manifestaciones de optimismo. La imagen de un plan ejecutado con éxito es muy concreta y fácil de imaginar cuando se intenta predecir el resultado de un proyecto. Por el contrario, la alternativa del fracaso parece vaga, ya que cualquier cosa puede impedir el éxito. Los empresarios e inversores, al evaluar sus perspectivas, tienden a sobrestimar las posibilidades y a dar una importancia excesiva a sus estimaciones.

En la teoría de la utilidad, el peso de las decisiones es igual a las probabilidades. El peso de decisión para un evento que seguramente sucederá será 100, y una probabilidad del 90% corresponde a 90, que es 9 veces el peso para una probabilidad del diez por ciento. En la teoría de las perspectivas, los cambios en la probabilidad tienen menos impacto en el peso de las decisiones. El experimento mencionado anteriormente mostró que el peso de decisión para una probabilidad del 90% era 71,2 y para una probabilidad del 10% era 18,6. El índice de probabilidad fue de 9,0, mientras que el índice de ponderación de decisión fue de sólo 3,8, lo que indica una falta de sensibilidad a la probabilidad en este rango.

Probabilidades brillantes. A los participantes en un conocido experimento se les pidió que eligieran uno de dos recipientes y sacaran de él una bola. Las bolas rojas se consideraban premios. En este caso: el recipiente A contenía 10 bolas, 1 de las cuales era roja; El contenedor B contenía 100 canicas, 8 de las cuales eran rojas. ¿Cuál elegirías? Tus posibilidades de ganar serían del 10% en el caso del barco A y del 8% en el caso del barco B, por lo que la respuesta correcta parece sencilla. En realidad, resultó diferente: entre el 30% y el 40% de los sujetos eligieron un recipiente con b oh más bolas ganadoras, prefiriendo así menores posibilidades de ganar.

Se han acuñado varios nombres para este error. Siguiendo a Paul Slovik, lo llamaré descuido del denominador. La idea de descuidar el denominador ayuda a explicar por qué las diferentes formas de comunicar información sobre riesgos varían tanto en su impacto. Si lees que “una vacuna que previene el desarrollo de una enfermedad mortal en los niños provoca discapacidad en el 0,001% de los casos”, el riesgo parece pequeño. Imaginemos ahora otra descripción del mismo riesgo: “Un niño de cada 100.000 niños vacunados con esta vacuna quedará discapacitado de por vida”. La segunda frase te impacta de manera diferente que la primera: evoca la imagen de un niño lisiado por una vacuna mientras los 99.999 niños vacunados de forma segura se esconden en las sombras. Como se desprende de descuidar el denominador, los eventos de baja probabilidad adquieren mucho más significado cuando se habla de ellos en términos de frecuencia relativa (cuántos de ellos) en lugar de en términos abstractos como “probabilidades”, “riesgo” o “probabilidad”. (Qué tan probable). Como se vio en capítulos anteriores, el Sistema 1 es mejor para tratar aspectos específicos que categorías.

Ahora, años después de que se formulara la teoría de las perspectivas, somos más capaces de comprender las condiciones bajo las cuales los eventos raros se ignoran o se les da mayor importancia. Un evento poco común ganará peso extra si atrae especial atención. Esta atención está garantizada por una descripción inequívoca de las perspectivas (“99% de posibilidades de ganar $1.000 y 1% de posibilidades de no ganar nada”). Una ansiedad obsesiva (un autobús en Jerusalén), una imagen vívida (rosas), una interpretación clara (una entre mil) y un recordatorio detallado (como al elegir por descripción): todo esto "sobrecarga" el evento. Donde no hay exceso de peso, habrá ausencia, desconocimiento. Nuestras mentes no están preparadas para comprender sucesos raros, y para un habitante de un planeta que enfrenta cataclismos desconocidos, esta es una triste noticia.

Capítulo 31. Política de Riesgos

La idea de constancia lógica es inalcanzable para nuestras mentes limitadas. Debido a que somos susceptibles a WYSIATI y somos reacios a hacer esfuerzos mentales, tendemos a tomar decisiones a medida que surgen los problemas, incluso si se nos enseña específicamente a percibirlos colectivamente. No tenemos ni la inclinación ni los recursos mentales para mantener la constancia de las preferencias; No podemos crear milagrosamente un conjunto coherente de preferencias siguiendo las líneas del modelo de actor racional.

Paul Samuelson una vez le preguntó a su amigo Sam si jugaría un juego de lanzamiento de moneda si pudiera perder $100 y ganar $200. El amigo respondió: “No apostaré porque la alegría de ganar $200 no supera el dolor de perder $100. Pero si me permites hacer cien de esas apuestas, estoy de acuerdo”. Le diría a Sam: entiendo tu reticencia a perder, pero te cuesta mucho. Considere esta pregunta: ¿Ya está en su lecho de muerte? ¿Será esta la última vez que te pedirán que juegues para tener suerte? Por supuesto, es poco probable que le ofrezcan exactamente ese juego, pero tendrá muchas oportunidades de probar suerte de otra manera, por una pequeña tarifa (en relación con su condición). Fortalecerá su posición financiera si considera cada uno de estos juegos como parte de una colección de juegos pequeños.

Este consejo no es tan imposible de implementar. Los operadores experimentados en los mercados financieros lo viven todos los días, escondiéndose del dolor de las pérdidas con un escudo confiable: el principio de un marco amplio. La combinación de aversión a las pérdidas y una visión estrecha de miras es una maldición que conduce a la pobreza.

Política de Riesgos. Al tomar decisiones, las personas de mente estrecha determinan sus preferencias cuando se enfrentan a una elección arriesgada. Su trabajo se vería facilitado si existiera una política de riesgos a seguir en tales casos. Los ejemplos de pólizas de riesgo son familiares para todos: "Al comprar una póliza de seguro, elija siempre el deducible más alto posible" y "Nunca compre una garantía extendida". La política de riesgos presupone el establecimiento de un marco amplio. La política de riesgos que acumula decisiones es similar a la visión del outsider en materia de planificación descrita anteriormente. La perspectiva de un extraño desvía la atención de las circunstancias de una situación particular a las estadísticas de los resultados de situaciones similares. La perspectiva externa y la política de riesgos son herramientas para combatir los sesgos que influyen en muchas decisiones: el optimismo excesivo del error de planificación y la aversión al riesgo excesivamente cautelosa.

Richard Thaler menciona una discusión sobre toma de decisiones que tuvo con los jefes de 25 divisiones de una gran corporación. Les pidió que idearan una opción arriesgada en la que la empresa tuviera la misma probabilidad de perder una gran cantidad de capital o ganar el doble. Ninguno de los artistas se atrevió a entrar en un juego tan arriesgado. Thaler pidió entonces la opinión del director de la empresa, que estuvo presente en el experimento. El director, sin dudarlo, respondió: “Me gustaría que todos se arriesgaran”. En el contexto de la conversación, era natural que el líder estableciera un marco amplio que combinara las 25 tarifas. Al igual que Sam, que tuvo que lanzar una moneda cien veces, el director podía contar con agrupaciones estadísticas para nivelar el riesgo general.

Capítulo 32. Contabilidad

Efecto disposición- un ejemplo de establecimiento de límites estrechos. El inversor abre una cuenta por cada acción comprada y quiere cerrar la cuenta con números negros. Un agente racional mira su cartera en su conjunto y vende aquellas acciones que no producirán nada en el futuro, independientemente de si son ganadoras o perdedoras.

Tener en cuenta pérdidas irreparables conduce a menudo a decisiones equivocadas. Deberías cerrar un proyecto sin esperanza y empezar a invertir en algo que valga la pena. Esta situación se encuentra en el cuadro superior derecho del diagrama de cuatro partes, donde hay que elegir entre una pérdida garantizada y una jugada desventajosa. Desafortunadamente, el juego es elegido a menudo (e imprudentemente). Centrarse en un intento fallido es un error desde el punto de vista de la empresa, pero no necesariamente desde el punto de vista del director que implementa el proyecto fallido. Cancelar un proyecto dejará una mancha imborrable en el historial del directivo.

Los directorios de las empresas están familiarizados con este tipo de conflictos: a menudo tienen que reemplazar a un líder que se adhiere obstinadamente a las decisiones originales y no tiene prisa por amortizar las pérdidas. Los miembros de la junta no necesariamente piensan que el nuevo líder sea más competente, pero sí saben que no está cargado con la misma aritmética mental, lo que hace que sea más fácil olvidar los costos hundidos de inversiones pasadas al evaluar las oportunidades actuales.

Arrepentirse es una de las emociones conflictivas que surgen cuando hay alternativas a la realidad disponibles. Las personas tienden a experimentar emociones más fuertes (incluido el arrepentimiento) en una situación que resulta de la acción que en la misma situación que resulta de la inacción. Lamentar la asimetría del riesgo requiere elección habitual y aversión al riesgo. Este sesgo aparece en muchos contextos. Los compradores, conscientes de los posibles arrepentimientos si toman la decisión equivocada, se apegan obstinadamente a las opciones tradicionales y prefieren los productos de marca a los poco conocidos.

Responsabilidad. En muchas leyes y reglamentos de seguridad se puede encontrar una aversión persistente a un mayor riesgo a cambio de algún otro beneficio. Como ha señalado el jurista Cass Sunstein, el principio de precaución es costoso y, si se aplica estrictamente, puede resultar completamente paralizante. Menciona una lista impresionante de innovaciones que no obtendrían el visto bueno, incluidos “automóviles, antibióticos, aire acondicionado, cirugía a corazón abierto...”. Una versión demasiado estricta del principio de precaución es obviamente insostenible. El dilema entre la moralidad de la aversión a las pérdidas y la gestión eficaz del riesgo no tiene una solución sencilla o convincente.

Capítulo 33. Inversiones

Se le ha encomendado la tarea de determinar la compensación para las víctimas de delitos violentos. Usted está revisando el caso de un hombre cuyo brazo quedó incapacitado a consecuencia de una herida de bala. Le dispararon durante un robo en una tienda departamental cercana. Cerca de la casa de la víctima hay dos tiendas, a una de las cuales iba con más frecuencia que a la otra. Consideremos dos escenarios. 1. El robo se produjo en una tienda visitada con mayor frecuencia. 2. La tienda habitual fue cerrada por duelo, y la víctima se dirigió a otra, donde recibió una herida de bala. ¿El tipo de establecimiento donde se produce el accidente influye en la indemnización?

Casi todos los que han visto dos escenarios simultáneamente (un experimento "dentro de una categoría") afirman que no se debe considerar la amargura. Desafortunadamente, este principio sólo funciona cuando ambos escenarios se consideran juntos; Esto no sucede en la vida. Normalmente operamos en un modo “cross-category”, donde no hay alternativas contrastantes que puedan influir en tu decisión y, por supuesto, aquí entra en juego el efecto WYSIATI (lo que ves es lo que ves). Como resultado, los principios a los que uno se adhiere cuando piensa en la moralidad no necesariamente gobiernan sus reacciones emocionales, y los juicios morales que surgen en diferentes situaciones no son internamente consistentes. La brecha entre la evaluación única y la acumulativa de un escenario de robo se relaciona con la amplia familia de inversiones de juicio y elección.

Categorías. Los juicios y preferencias son coherentes dentro de las categorías, pero pueden ser incoherentes si los objetos que se evalúan pertenecen a categorías diferentes. Por ejemplo, intente responder tres preguntas. ¿Qué te gusta más: las manzanas o los melocotones? ¿Qué te gusta más, el bistec o el estofado? ¿Qué te gusta más: las manzanas o el bistec? La primera y segunda pregunta se refieren a objetos de la misma categoría, por lo que podrás responder inmediatamente cuál te gusta más. Además, obtendrás los mismos resultados comparativos con valoraciones individuales (“¿Cuánto te gustan las manzanas?” y “¿Cuánto te gustan los melocotones?”) porque tanto las manzanas como los melocotones te hacen pensar en frutas. No habrá inversión de preferencias, ya que diferentes frutas se comparan con la misma norma e implícitamente entre sí, tanto en una valoración única como agregada. A diferencia de las preguntas dentro de una categoría, no hay una respuesta consistente a la pregunta de manzanas versus filete. Se puede suponer que una evaluación agregada, que requiere la participación del Sistema 2, es más estable que una evaluación única, que a menudo refleja la fuerza de las reacciones emocionales del Sistema 1.

Capítulo 34. Marcos y realidad.

Amós y yo llamamos a la influencia injustificada del lenguaje en las creencias y preferencias efecto de encuadre(estableciendo límites). Este es uno de los ejemplos que utilizamos. ¿Estaría de acuerdo con un juego en el que tiene un 10% de posibilidades de ganar $95 y un 90% de posibilidades de perder $5? ¿Pagarías $5 por jugar a una lotería en la que tienes un 10% de posibilidades de ganar $100 y un 90% de posibilidades de no ganar nada? La segunda versión recibe respuestas mucho más afirmativas. Es mucho más fácil aceptar un resultado desafortunado cuando se lo considera en términos del valor de un billete de lotería que no ganó que cuando un resultado negativo se presenta como una pérdida en el juego. "Perder" provoca emociones negativas más fuertes que los "costos".

Los médicos que participaron en un experimento realizado por Amos recibieron estadísticas sobre los resultados de dos opciones de tratamiento para el cáncer de pulmón: cirugía y radioterapia. Un grupo de participantes conoció las estadísticas de la tasa de supervivencia, mientras que otro grupo recibió la misma información en términos de mortalidad. Dos descripciones de resultados quirúrgicos a corto plazo se parecían a esto. La tasa de supervivencia mensual es del 90%. La tasa de mortalidad es del 10% en el primer mes. Los resultados ya los conocéis: la cirugía parecía más atractiva en la primera formulación (el 84% de los médicos la eligió) que en la segunda (el 50% prefirió la radioterapia).

Amos y yo comenzamos nuestra discusión sobre el encuadre con un ejemplo llamado el problema de las enfermedades asiáticas. Imaginemos que el país se está preparando para una epidemia de una extraña enfermedad asiática que se prevé que matará a 600 personas. Se han propuesto dos programas alternativos para combatir la enfermedad. Supongamos que las estimaciones científicas exactas de las consecuencias de cada programa son las siguientes: si se adopta el programa A, se salvarán 200 personas. Si se adopta el programa B, hay una probabilidad de 1/3 de que 600 personas se salven y una probabilidad de 2/3 de que nadie se salve. La gran mayoría de los encuestados eligió el programa A: preferían un resultado garantizado a un juego. En la segunda versión, los resultados del programa se formulan en un marco diferente. Si se adopta el programa A', morirán 400 personas. Si se adopta el programa B', hay una probabilidad de 1/3 de que nadie muera y una probabilidad de 2/3 de que mueran 600 personas. Mire más de cerca y compare las dos versiones: las consecuencias de los programas A y A’ son idénticas, al igual que las consecuencias de los programas B y B’. Sin embargo, dentro de los límites establecidos por la segunda formulación, la mayoría de los participantes eligió “juego”.

Las preferencias entre resultados objetivamente iguales cambian debido a diferencias en la formulación.

Aprendemos el funcionamiento del Sistema 1, que proporciona una respuesta inmediata a cualquier pregunta sobre los pobres y los ricos: todas las dudas se resuelven a favor de los pobres. Lo sorprendente del problema de Schelling es que esta regla moral aparentemente simple no es confiable. Da respuestas contradictorias a la misma pregunta dependiendo del marco establecido por el planteamiento del problema. Nuestros juicios morales tienen que ver con descripciones, no con sustancia. Marcos más amplios y cuentas compartidas conducen a decisiones más racionales.

PARTE V. DOS “YO”
Capítulo 35. Dos “yo”

No fue publicado en ruso.

Introducción

En 2002, el Premio Nobel de Economía fue concedido a dos científicos estadounidenses: el psicólogo Daniel Kahneman y el economista Vernon Smith. Lo que unió el trabajo de estos dos investigadores tan diferentes fue que demostraron que las personas en la esfera económica actúan de manera menos inteligente y menos egoísta de lo que suponen las teorías económicas clásicas. El Comité Nobel otorgó a Kahneman el premio "por enriquecer la ciencia económica con los resultados de la investigación psicológica, especialmente en lo que respecta a la evaluación humana de situaciones y la toma de decisiones en condiciones de incertidumbre". Si traducimos esta formulación al lenguaje cotidiano, sonaría así: “Kahneman recibió el Premio Nobel por mostrar cómo los errores psicológicos que la gente tiende a cometer afectan las acciones humanas en el campo de la economía y los negocios”. Vernon Smith recibió el Premio Nobel por desarrollar una nueva herramienta de análisis económico: los experimentos de laboratorio. Fue durante estos experimentos, que llevaron a conclusiones brillantemente confirmadas en la práctica, cuando Vernon Smith, partidario de la teoría económica clásica, llegó a la conclusión de la irracionalidad del comportamiento humano. El hecho de que al tomar decisiones una persona tiende a actuar no racionalmente (razonablemente), sino irracionalmente, cometiendo errores, y los errores no son aleatorios, sino bien definidos y sistemáticos, lo establecieron los psicólogos hace muchos años. El estudio de la naturaleza de estos errores condujo a la creación de una nueva dirección interdisciplinaria: la psicología económica o economía del comportamiento.

Experimentos psicológicos de D. Kahneman en economía.

El 9 de octubre de 2002, el Comité Nobel anunció la concesión de su Premio Conmemorativo de Economía a dos destacados científicos: Daniel Kahneman de las universidades de Princeton (EE.UU.) y Jerusalén (Israel) "por la integración de los resultados de la investigación psicológica en la ciencia económica, especialmente en las áreas de juicio y aceptación de decisiones en condiciones de incertidumbre" y Vernon Smith de la Universidad George Mason (EE.UU.) - "por establecer experimentos de laboratorio como herramienta para el análisis empírico en economía, especialmente en el estudio de mecanismos de mercado alternativos".

La nominación de Kahneman y Smith, aunque se esperaba hace varios años, sirvió como un reconocimiento formal del hecho de que dentro del marco de la disciplina económica han surgido y tomado forma campos independientes como la economía experimental, la psicología económica y la economía del comportamiento. Sin embargo, la nominación de 2002 significa algo más. En primer lugar, el Premio Nobel de Economía, otorgado a un representante de la ciencia psicológica, confirma claramente el rumbo de principios de la comunidad científica mundial hacia la integración de los programas de investigación de diversas ciencias humanas. En segundo lugar -y esto quizás sea aún más importante- el reconocimiento mismo de la importancia de las características psicológicas del comportamiento individual por parte de los economistas profesionales marcó y registró un cambio significativo en los enfoques y problemas de toda la ciencia económica. En esencia, este hecho significa el reconocimiento no sólo de la conveniencia, sino también de la necesidad de ir más allá de los modelos axiomáticos formales que están débilmente relacionados con el comportamiento real que estos modelos pretenden describir. Las ciencias económicas están entrando en una era de revisión gradual de los métodos y doctrinas establecidos, empezando por la base de los fundamentos: el modelo de Noto oesopoticus, el hombre económico racional. El material empírico fundamental para esta revisión proviene de investigaciones psicológicas en las que Daniel Kahneman juega un papel importante; y la principal herramienta para acumular dicho material fue el experimento como método especial para incrementar el conocimiento científico, que ingresó al arsenal de las ciencias económicas gracias al trabajo pionero de Vernon Smith.

En la tradición de la economía neoclásica, de alguna manera se aceptaba inconscientemente creer que la investigación empírica (y especialmente los experimentos con personas reales) es una actividad menos “seria” que la teoría “alta”. Los economistas neoclásicos prefirieron ocuparse de cosas más "serias", entendiendo cada vez más por el progreso de la ciencia construcciones formales cada vez más sofisticadas en el marco de su tradición científica, basadas en el modelo del Homo eosopoticus desde el punto de vista de la teoría estándar. este agente económico racional debía subordinar todos los sentimientos y emociones al cálculo preciso, tener memoria absoluta y capacidad de computación, estar siempre consciente de sus intereses (preferencias) y actuar de acuerdo con ellos. La descripción formal del comportamiento racional en la teoría estuvo precedida por una serie de supuestos (como convexidad, continuidad, monotonicidad y transitividad de las preferencias individuales), que permitieron representar las preferencias de los individuos como una función de utilidad de valor real y utilizar una poderosa herramienta analítica de análisis matemático y funcional. Además, en total acuerdo con la metodología positivista, la teoría argumentaba que incluso si el agente no resuelve conscientemente el problema de maximización, todavía actúa como si lo estuviera resolviendo. Esto sucede aunque sólo sea porque las desviaciones sistemáticas de tal comportamiento conducirían inevitablemente a pérdidas expresadas en dinero y, si se repiten sistemáticamente, a la quiebra del agente "irracional".

La realidad, sin embargo, se negó obstinadamente a encajar en el “lecho de Procusto” de los esquemas canónicos, por convenientes que fueran analíticamente. En la década de 1950, el economista y psicólogo estadounidense Herbert Simon demostró de manera convincente que las personas reales que toman decisiones se comportan de manera completamente diferente a lo descrito en los libros de texto de economía. Las capacidades cognitivas limitadas no permiten que personas reales en la práctica encuentren soluciones óptimas desde un punto de vista teórico. Si es así, entonces el concepto de racionalidad sustantiva, adoptado en los modelos estándar, debería dar paso al concepto de racionalidad limitada, que es más correcto desde un punto de vista descriptivo.

El trabajo de Simon, galardonado con el Premio Nobel en 1978 "por su investigación pionera sobre los procesos de toma de decisiones en las organizaciones económicas", aún no podía incluirse en el arsenal científico y probablemente fue percibido por la mayoría de los economistas como una rama secundaria e insignificante de la ciencia. Sin embargo, en los últimos veinte años el tema y el método de la economía han cambiado, si no radicalmente, sí de manera bastante significativa. Los programas universitarios han incluido firmemente fenómenos empíricos fundamentales como las paradojas de Allais o el "efecto marco" en la teoría del comportamiento individual en condiciones de riesgo.

Durante los mismos años, la economía experimental finalmente tomó forma como un campo independiente de investigación económica, con sus propios métodos, principios y tradiciones. Al ser la carne y la sangre de la teoría económica, un experimento económico sirve principalmente para probar modelos específicos en circunstancias teóricamente inequívocas, así como para acumular nueva información sobre las propiedades de instituciones económicas conocidas. Resultó que muchas de las premisas de los modelos económicos, como la competencia perfecta o imperfecta, la información incompleta o la comunicación preliminar (charla barata), pueden reproducirse en un aula o en una red informática local. Las preferencias también se pueden formar con bastante cuidado pagando a los participantes en los experimentos una determinada recompensa en función de sus resultados. También se han desarrollado principios para seleccionar participantes (la mayoría de las veces son estudiantes universitarios), redactar instrucciones y realizar un experimento. Por último, también es importante que los experimentos económicos se realicen normalmente con dinero real. Aunque este hecho no siempre afecta los resultados, aumenta su capacidad de persuasión para los economistas que están acostumbrados a enfrentar las refutaciones experimentales de sus logros teóricos con cierto grado de escepticismo.

Como resultado, el experimento económico se ha convertido en una forma generalmente aceptada, si no la única, de probar la clase más amplia de teorías económicas conductuales: desde el comportamiento individual hasta la teoría de la elección pública, desde la teoría de juegos hasta la teoría de los mercados financieros. La comunidad científica finalmente recordó que la economía no debe ser más que la ciencia del comportamiento humano en la vida real y del hombre en interacción con sus semejantes. Pero si esto es así, entonces el estudio empírico de tal comportamiento en sí mismo debería considerarse no una excentricidad de un grupo marginal de científicos, ni siquiera simplemente una de las formas de probar las teorías existentes, sino también el método más importante para recopilar material específico. sobre el comportamiento de las personas, que se pretende describir y explicar. Hoy en día, los mejores teóricos económicos proponen cada vez más nuevos conceptos y extensiones de los modelos clásicos basados ​​no en la conveniencia de construcciones matemáticas, sino en evidencia empírica sobre el comportamiento humano, revelada por experimentos.

Como consecuencia de todos estos cambios, el número de publicaciones sobre economía experimental y conductual ha crecido exponencialmente en los últimos años; ni un solo volumen de revistas económicas mundiales puede prescindir de ellas, incluidas Econometrica, American Economic Review, Journal of Economic Perspectives. ", "Revista de Economía Política", "Revista Trimestral de Economía", "Revista Económica". Han aparecido varias publicaciones académicas especializadas, por ejemplo, "Journal of Behavioral Decision Making", "Journal of Economic Behavior and Organization", "Journal of Risk and Uncertainty", "Journal of Economic Psychology", "Experimental Economics", " Journal of Psychology" and Markets", y las mejores universidades del mundo consideran de buena educación tener uno o dos economistas experimentales entre su personal (1).

Los resultados provisionales del desarrollo de la economía experimental se resumieron en una publicación de referencia fundamental, el Handbook of Experimental Economics, publicado en 1995, editado por John Kagel y Alvin Roth. Este libro, que instantáneamente se convirtió en la biblia de la economía experimental, dio un nuevo impulso a la investigación en este campo en todo el mundo.

A la luz de estos cambios, la concesión del Premio Nobel a dos eminentes representantes de la economía psicológica y conductual fue sólo un reconocimiento formal del papel fundamental y cada vez mayor que desempeña el trabajo empírico en el aumento del conocimiento del hombre sobre su propia naturaleza y sus capacidades cognitivas en relación con el comportamiento económico (y no sólo). Con su decisión, el Comité Nobel de Economía confirmó una vez más no sólo la línea de principios de otorgar el premio a verdaderos pioneros, sino también la capacidad de tener en cuenta adecuadamente la acumulación de conocimiento científico e incluso revisar las ideas establecidas que alguna vez fueron consideradas las Postulados inmutables de las ciencias económicas.

Información biográfica. Daniel Kahneman nació en Tel Aviv en 1934. Psicólogo israelí-estadounidense, uno de los fundadores de la teoría económica psicológica (conductual). La vida de D. Kahneman demuestra claramente el cosmopolitismo de los científicos modernos. Habiendo comenzado sus estudios en la Universidad Hebrea de Jerusalén (1954 - Licenciatura en Psicología y Matemáticas), Kahneman los completó en la Universidad de California Berkeley (1961 - Doctorado en Psicología). Durante los siguientes 17 años, enseñó en la Universidad Hebrea de Jerusalén, compaginando su labor con el trabajo en varias universidades de Estados Unidos y Europa (Cambridge, Harvard, Berkeley). Desde finales de la década de 1970, Kahneman se retiró temporalmente de su trabajo en Israel y participó en proyectos científicos conjuntos con científicos estadounidenses y canadienses en centros de investigación de estos países. Desde 1993 trabaja como profesor en la Universidad de Princeton en Estados Unidos, y desde 2000, paralelamente, vuelve a enseñar en la Universidad Hebrea de Jerusalén (13).

El primer economista que realmente descubrió y demostró el enorme potencial de los métodos experimentales para probar hipótesis de las ciencias sociales fue el famoso científico francés Maurice Allais, premio Nobel en 1988 por sus “contribuciones pioneras a la teoría de los mercados y el uso eficiente de los recursos”. Sin embargo, a principios de la década de 1950, ofreció por primera vez a sus colegas una serie de ejemplos sencillos que refutaban la entonces nueva teoría de la elección bajo riesgo, formulada por John von Neumann y Oskar Morgenstern. Esta teoría de la utilidad esperada establece que un individuo racional, al elegir la más deseable de las alternativas riesgosas (loterías, es decir, distribuciones de probabilidad sobre un conjunto de ganancias monetarias), busca maximizar el valor esperado de su función de utilidad.

Para el caso de un conjunto finito de resultados, la funcional maximizada se escribe como U(p) = Ui(x)p x, donde x son ganancias (valores monetarios) y p x son las probabilidades de recibirlas. Esta forma funcional simple nos permite representar las utilidades de cualquier perspectiva incierta en forma de expectativas matemáticas de algunas funciones bien definidas, es decir, describir el comportamiento bajo riesgo utilizando métodos estándar de análisis matemático y teoría de probabilidad. Además, la existencia de la función de utilidad u(x) se deriva de una serie de axiomas simples, que en realidad están dotados de estatus normativo y sirven como criterio para el comportamiento “racional”. Un requisito fundamental de este tipo es el axioma de independencia, que se escribe de la siguiente manera:

Este axioma significa que cualquier combinación lineal de lotería p y alguna lotería r debe ser preferible a la misma combinación de lotería q y lotería r si y sólo si p en sí es preferible a q.

Un ejemplo similar al formulado por Allais fue estudiado experimentalmente por Daniel Kahneman y Amos Tversky. Se pidió a los encuestados que eligieran la opción más preferida en cada uno de los dos pares de loterías descritos en la Tabla 1:

Tabla 1. Pares de loterías ofrecidas a los encuestados

Es fácil ver que las loterías del segundo par (C y D) son una combinación lineal de las loterías del primer par (A y B) con peso a = 0,25 y la lotería (degenerada) [O, 1]. Esto significa que, de acuerdo con el axioma de independencia, un individuo que eligió la lotería A (respectivamente B) del primer par debe elegir la lotería C (respectivamente D) del segundo. El experimento de Kahneman y Tversky mostró que el 88% de los encuestados eligió A en el primer par y el 83% eligió D en el segundo, violando así el axioma de independencia y haciendo imposible una representación universal de la utilidad en la forma de von Neumann-Morgenstern.

Kahneman y Tversky también ofrecieron una de las primeras explicaciones de la paradoja de Allais y otros fenómenos documentados empíricamente. A diferencia de una serie de otras generalizaciones de la teoría de la utilidad esperada (de las cuales ya hay docenas hoy en día), derivaron directamente su teoría de las perspectivas a partir de características empíricamente identificadas y documentadas del comportamiento de los encuestados reales en condiciones de riesgo. En lugar del funcional lineal de von Neumann-Morgenstern en probabilidades p, propusieron utilizar una función no lineal de pesos probabilísticos, que representa las utilidades de la lotería en la forma y al mismo tiempo cambia la interpretación de la utilidad de los resultados, representada por la función de valor v( xi). Este último no se definió en términos de valores monetarios absolutos, sino en términos de desviaciones desde el punto de riqueza inicial del individuo. Además, se suponía que era cóncavo (convexo hacia arriba) para las ganancias y convexo (convexo hacia abajo) para las pérdidas, lo que significa aversión al riesgo para las ganancias y aversión al riesgo para las pérdidas. El lector puede conciliar estos hechos con su propia intuición: si una lotería parece menos atractiva que una lotería degenerada, es decir, una ganancia segura de un valor igual a su expectativa matemática, entonces el individuo no está dispuesto a correr riesgos al ganar. Sin embargo, frente a un espejo, ejemplo de pérdidas [-10, 0,5; 0, 0,5], los individuos, por regla general, prefieren jugar a la lotería que apostar con seguridad una cantidad igual a 5, es decir, muestran propensión al riesgo. Además, la investigación de Kahneman y Tversky sugiere que la función de valor tiene una pendiente más pronunciada para las pérdidas que para las ganancias. En la figura 2.3 se muestra una función de valor típica que satisface estas condiciones. 1.

El papel verdaderamente innovador de Kahneman y Tversky consistió en una forma diferente, inusual para los economistas, de construir una teoría: no desde una construcción formal conveniente hasta los axiomas de racionalidad, sino desde las características observadas del comportamiento hasta su descripción formal y luego hasta la axiomas. Al parecer, por esta razón, el trabajo de 1979 se convirtió no sólo en un ejemplo canónico de investigación experimental sobre el comportamiento individual, sino también, según los propios economistas, en el trabajo más citado jamás publicado en una de las revistas económicas más prestigiosas del mundo, Econometrica. Este hecho es tanto más sorprendente cuanto que ambos autores del artículo son psicólogos profesionales y el artículo en sí se distingue por un grado de formalización inusualmente bajo para esta revista, que en general es muy "matemática". Todo el conjunto de herramientas analíticas de la “teoría de la perspectiva” no va más allá de las cuatro operaciones de la aritmética, y su axiomática sólo se esbozó en el artículo de 1979 (fue formulada en su totalidad más de diez años después). Pero fue el artículo de 1979 el que fue y sigue siendo quizás el trabajo más significativo de Daniel Kahneman.

Hablando de este, así como de muchos otros trabajos de Kahneman, no se puede dejar de mencionar por separado el destacado papel desempeñado en el desarrollo de la psicología cognitiva y experimental y sus aplicaciones económicas por su colega principal y coautor desde hace mucho tiempo, profesor de psicología. en las universidades de Jerusalén y Stanford, Amos Tversky. Sin exagerar, podemos decir que por su potencial creativo, versatilidad de talento y amplitud de puntos de vista científicos, Tversky fue uno de los psicólogos más destacados del siglo pasado, junto con gigantes como Jean Piaget, Lev Vygotsky o Kurt Lewin. Además de muchos trabajos experimentales originales y pioneros, solo él propuso una serie de explicaciones teóricas para los fenómenos descubiertos del comportamiento individual, entre ellos la intransitividad de las preferencias, la teoría de la exclusión basada en aspectos, la teoría psicológica de las similitudes, la teoría de la elección de alternativas caracterizadas por distintos grados de importancia (efecto de prominencia), y muchas otras. De particular interés es el trabajo sobre los fundamentos de la teoría de la medición en las ciencias naturales y las ciencias humanas, escrito por Amos Tversky en colaboración con David Krantz, R. Duncan Luce y Patrick Sapps, un trabajo que probablemente esté destinado a ser uno de las piedras angulares de la investigación científica fundamental durante muchos años (8).

Sin embargo, el principal colaborador de Tversky fue Kahneman. Juntos publicaron alrededor de 30 artículos científicos, que desempeñaron un papel decisivo en la difusión de los resultados de la investigación psicológica en disciplinas afines, principalmente la economía. Después de la muerte de Amos Tversky en 1996, varias publicaciones y revistas académicas dedicaron secciones y números especiales a su memoria. Amos Tversky ciertamente tenía todos los motivos para compartir el Premio Nobel de 2002 con Daniel Kahneman y Vernon Smith, pero, lamentablemente, los Premios Nobel no se otorgan póstumamente.

La contribución más notable de Kahneman y Tversky a la teoría económica es, por supuesto, la teoría de las perspectivas. Sin embargo, esta teoría fue sólo una pequeña parte del impresionante programa de investigación para el estudio experimental del comportamiento humano que estos autores implementaron durante casi treinta años de trabajo conjunto. El núcleo semántico de su programa de investigación conjunto fue un proyecto fundamental y de largo plazo para estudiar las heurísticas y los sesgos de los juicios individuales y el comportamiento observado en relación con el estándar normativo aceptado en la teoría económica. El Homo oeconomicus de los libros de texto de economía tradicionales no es sólo un ser racional, sino hiperreflexivo: no sólo está dotado de preferencias ordenadas, memoria fenomenal y otras ventajas de una máquina de consumo, sino que también es orgánicamente incapaz de actuar "por instinto". ”, cometiendo errores al evaluar las más deseables entre las opciones disponibles y emitiendo juicios lógicamente contradictorios. Sin embargo, estas virtudes no son típicas de la mayoría de las personas vivas, que tienden a tomar decisiones sistemáticamente, guiadas no por consideraciones racionales, sino intuitivas, que Kahneman y Tversky llamaron heurística del comportamiento.

Como ejemplo sencillo, consideremos el siguiente problema, que el lector puede intentar resolver por sí mismo, pero debe resolverlo lo más rápido posible: “Un bolígrafo y un cuaderno cuestan $1,10, y el bolígrafo cuesta $1 más que el cuaderno. ¿Cuánto cuesta el cuaderno? Si el encuestado realmente responde sin pensar, lo más probable es que dé la respuesta intuitivamente obvia de $0,10. Naturalmente, esta respuesta es incorrecta, pero la facilidad con la que se resta 1 de 1,10 empuja al encuestado a resolver el problema recurriendo a la intuición. Heurísticas atractivas en lugar de cálculos lógicamente correctos.

Desde principios de los años 1970, Kahneman y Tversky han descubierto y descrito una amplia gama de fenómenos de este tipo. Citaremos sólo uno de ellos: el famoso “problema de Linda” propuesto a los estudiantes estadounidenses: “Linda tiene 31 años, es una joven soltera, sociable y muy brillante. Se graduó en la Facultad de Filosofía y siempre se ha ocupado de los problemas de discriminación. y la justicia social en serio. Durante sus años de estudiante, participó activamente en manifestaciones antinucleares."

A los encuestados que recibieron esta información se les pidió que clasificaran las siguientes afirmaciones sobre Linda en orden de probabilidad:

1. Trabaja como maestra en un jardín de infantes.

2. Trabaja en una librería y hace yoga.

3. Ella es una activista feminista.

4. Ella es trabajadora social.

5. Es miembro de la Liga de Mujeres Votantes.

6. Ella es empleada de banco.

7. Ella es empleada de una compañía de seguros.

8. Es empleada de banco y activista feminista.

Más del 80% de los encuestados (incluidos estudiantes de posgrado de la Universidad de Stanford especializados en teoría de la decisión) consideraron que la opción 8 era más probable que las opciones 3 y 6. Esta relación contradice los principios de la teoría de la probabilidad: el evento 8 es la intersección de los eventos 3 y 6, y , por lo tanto, la probabilidad del evento 8 no puede exceder ninguna de las probabilidades de los eventos 3 y 6 tomados por separado.

La explicación psicológica de este fenómeno, dada por Kahneman y Tversky, se llama heurística de representatividad; la descripción de Linda es más típica (representativa) de una empleada de banco y una feminista que de simplemente una empleada de banco (no feminista) y solo una feminista ( no es empleado de banco). Esta tipicidad pasa a primer plano a la hora de responder, como si convenciera al encuestado de la inutilidad del razonamiento lógico sobre este asunto (1).

Otro fenómeno que descubrieron se llama heurística de disponibilidad; las personas tienden a considerar más probable un fenómeno que están a la vista o al oído (independientemente de sus razones) que algo sobre lo que piensan o saben relativamente poco. Un ejemplo típico es la evaluación subjetiva del peligro comparativo asociado con varios tipos de amenazas de muerte. Así, después del desastre de Chernobyl, los encuestados europeos eran los que más temían los accidentes en las centrales nucleares, aunque, según las estadísticas, la probabilidad de morir en un accidente de este tipo era cientos de veces menor que la probabilidad de morir en un accidente automovilístico.

Kahneman y Tversky identificaron muchos otros ejemplos de conceptos erróneos asociados con percepciones sesgadas sobre la probabilidad de ciertos eventos. Resultó, por ejemplo, que desde el punto de vista de personas normales (e incluso educadas), la probabilidad de que la altura promedio de n hombres seleccionados al azar exceda el promedio de un país determinado se percibe como la misma para n = 10 , 100 y 1000. La tendencia de las personas a transferir las características de una población a las propiedades de muestras pequeñas Kahneman y Tversky llamaron la ley de los números pequeños. También descubrieron que las personas subestiman sistemáticamente la importancia de la información previa al estimar probabilidades condicionales.

Por lo tanto, cualquier encuestado razonable puede responder fácilmente a la pregunta de cuál es la probabilidad de que un encuestado seleccionado al azar sea un ingeniero o un abogado, si se sabe que una muestra determinada de personas se compone de un 30% de ingenieros y un 70% de abogados. Sin embargo, el resultado cambiará si al mismo encuestado razonable se le lee una característica neutral (sin sentido) de esta persona seleccionada al azar, por ejemplo: “Dick tiene 30 años, está casado, pero no tiene hijos. Sin duda tiene buenas habilidades. Está muy motivado y tiene brillantes perspectivas profesionales en su campo. Sus colegas lo aprecian y lo quieren". Al escuchar esta descripción, el encuestado típico afirma que hay un 50% de posibilidades de que Dick sea abogado, ¡y esto a pesar de que el 70% de la muestra son abogados! Este y otros ejemplos similares muestran que personas completamente razonables, al tomar decisiones en tales casos, generalmente se guían por las heurísticas disponibles y no por las leyes de la probabilidad condicional.

Kahneman y Tversky concluyen que "los conceptos fundamentales de la estadística obviamente no se encuentran entre las herramientas intuitivas del juicio humano". Esta conclusión, en particular, cuestiona el uso de la regla de Bayes en el modelado dinámico del comportamiento individual, que hasta hace muy poco se percibía como normativo, casi la única condición para la racionalidad de un agente económico.

El último ejemplo muestra que los juicios, preferencias y, por tanto, decisiones de personas reales dependen significativamente del contexto, es decir, de la forma específica en que se formula el problema. Un ejemplo de tal dependencia es el fenómeno de la inversión de preferencias en problemas de elección en condiciones de riesgo. Este fenómeno, que aún no ha sido explicado satisfactoriamente en la literatura, es que la relación de preferencia revelada entre dos prospectos riesgosos (loterías), en términos generales, depende de la forma en que se revela esta preferencia. Por ejemplo, si se le pide a un individuo que elija una de dos loterías, la elección será a favor de una de ellas; pero si le pide que nombre su equivalente confiable (la cantidad mínima de dinero por la cual el mismo individuo aceptaría vender el derecho a jugar a estas loterías), entonces el otro será valorado más. Otro ejemplo de tal dependencia es el conocido efecto marco (9).

En un experimento, se pidió a los encuestados (médicos) que eligieran una de dos posibles estrategias de tratamiento para pacientes que padecían cáncer:

"Formulación de supervivencia"

Intervención quirúrgica: de cada 100 pacientes intervenidos, 90 sobrevivirán a la operación, de los cuales 68 seguirán vivos al año de la operación, y 34 cinco años después de la operación.

Radioterapia: de cada 100 pacientes tratados con radiación, todos permanecerán vivos durante el tratamiento, 77 pacientes estarán vivos al año y 22 después de cinco años del tratamiento."

En esta formulación, sólo el 18% de los sujetos estaban a favor de la radioterapia. Paralelamente, a los mismos encuestados se les ofreció la siguiente descripción de alternativas:

"Formulación de la Mortalidad"

Intervención quirúrgica: de cada 100 pacientes operados, 10 morirán durante la cirugía y en el postoperatorio, un total de 32 pacientes morirán en un año, y 66 pacientes morirán en cinco años.

Radioterapia: de cada 100 pacientes que se han sometido a un tratamiento de radiación, nadie morirá durante el tratamiento un año después del tratamiento, en total morirán 23 pacientes y, en cinco años, 78 pacientes".

Con esta formulación, el número de partidarios de la radioterapia se duplicó con creces, hasta el 44%. Al mismo tiempo, como es fácil comprobar, desde un punto de vista formal, ambas formulaciones son absolutamente idénticas.

La importancia de ambos fenómenos va más allá del alcance de la psicología cognitiva, es decir, el estudio de los procesos reales de toma de decisiones y juicios individuales. Tanto la inversión de preferencias como el efecto marco plantean serios problemas a la teoría económica, mucho mayores que la misma paradoja de Allais. Esto último puede explicarse utilizando teorías generalizadas de la utilidad esperada, por ejemplo permitiendo ponderaciones de probabilidad no lineales. Al mismo tiempo, los fenómenos descritos significan que, en principio, es imposible construir un índice de preferencia (función de utilidad) único y bien ordenado para todas las ocasiones; cualquier índice de este tipo dependerá del método para obtenerlo. De esto se deduce que las aplicaciones de la teoría de la utilidad a problemas económicos específicos no pueden considerarse a priori incondicionales.

Tomemos, por ejemplo, un tema tan candente como el de los bienes públicos ambientales. Si se le pregunta a una persona promedio qué regalo de cumpleaños preferiría: un nuevo reproductor de video o el cierre de una planta que contamina todo el vecindario, es muy probable que opte por el primer bien. Sin embargo, si al mismo encuestado se le pregunta cuánto está dispuesto a pagar por ambos, el VCR ganará, como suele decirse, con una clara ventaja. El lector ruso probablemente tuvo que lidiar con otras manifestaciones de los efectos del diseño, como una encuesta de opinión pública o un referéndum nacional, cuyos resultados no sólo pueden predecirse, sino también planificarse utilizando preguntas planteadas "correctamente". Incluso antes del Comité del Nobel, los estrategas políticos nacionales ya podían apreciar la importancia práctica de las obras de Kahneman.

Por último, no se puede dejar de mencionar que el trabajo de Kahneman y otros psicólogos económicos permite considerar toda una gama de fenómenos puramente económicos desde una nueva perspectiva. Uno de los ejemplos más sorprendentes de este tipo de investigaciones es la verificación experimental del famoso teorema de Coase sobre la asignación óptima de recursos. Para probar este teorema, Kahneman y sus colegas realizaron el siguiente experimento. Un grupo de sujetos (estudiantes de la Universidad de Cornell) se dividieron en dos subgrupos, a uno de los cuales se le entregaron tazas con los símbolos de la universidad, vendidas en una tienda cercana por $6. Los propietarios de las tazas tuvieron la oportunidad de vender sus tazas. a aquellos que no los obtuvieron. Para ello, los propietarios de las tazas informaron a los organizadores del precio mínimo al que estaban dispuestos a venderlas, y a los compradores potenciales, del precio máximo al que estaban dispuestos a venderlas; el precio de mercado se formó como el punto de intersección de las líneas de oferta y demanda resultantes. Dado que la distribución inicial de las tazas era aleatoria, las curvas de oferta y demanda tendrían que ser simétricas, lo que significa, según el teorema de Coase, aproximadamente la mitad de quienes recibieron las tazas tendrían que cambiarlas por cantidades de dinero mayores. En el grupo de control, donde se entregaron premios en efectivo en lugar de tazas, esto es exactamente lo que sucedió; Sin embargo, en el caso de los círculos, los volúmenes reales de negociación resultaron ser de tres a cinco veces inferiores a lo previsto por la teoría económica, y los precios medios de compra y venta diferían en más de dos veces. Esta refutación empírica del teorema de Coase se llama efecto dotación: el hecho mismo de poseer una cosa aumenta su valor a los ojos del propietario, bloqueando la posibilidad de intercambio incluso cuando no hay problemas ni con los derechos de propiedad ni con los costos de transacción.

Sería exagerado afirmar que estos y otros trabajos de Kahneman, Tversky y sus colegas psicólogos revolucionaron la visión económica de la naturaleza del juicio y el comportamiento humanos. Sin embargo, fueron ellos quienes establecieron entre los economistas el entendimiento de que una buena teoría no sólo no debe ser refutada por hechos, como exige el enfoque positivista, sino que también debe basarse en las propiedades observables fundamentales del objeto que se pretende describir. Hoy en día, ningún economista que escriba sobre el comportamiento individual puede prescindir de considerar las características psicológicas del proceso de toma de decisiones. La propia psicología económica y sus aplicaciones ya se han convertido hoy en día en una rama especial del conocimiento económico: la llamada economía del comportamiento, que domina con confianza la más amplia gama de problemas económicos, desde la propia teoría del comportamiento individual hasta los problemas de elección pública y la economía financiera. .

Lo anterior, por supuesto, no significa que todos los problemas de esta joven ciencia ya hayan sido finalmente resueltos. La economía del comportamiento apenas está entrando en su madurez, formulando un programa de investigación en la intersección de la economía, la psicología, las matemáticas e incluso la filosofía. El premio Nobel Daniel Kahneman sigue aportando importantes contribuciones al desarrollo de esta disciplina: en los últimos años se ha centrado en el problema de la utilidad, que se remonta a I. Bentham y D.S. Millú. En su comprensión clásica, este término significaba placer o dolor real experimentado por un individuo en el proceso de "consumir" una cosa. La amplia evidencia empírica acumulada en los últimos años muestra de manera convincente que esta utilidad experimentada no puede identificarse con la utilidad que un individuo predice (utilidad predicha), tiene en mente al momento de tomar decisiones (utilidad de decisión) o al momento de recordar experiencias. experimentado en el momento del consumo del bien (utilidad recordada).

A pesar de lo natural de tal distinción, hasta hace poco no se hacía en la literatura económica y, sin embargo, enfrenta a los investigadores económicos con una elección difícil. ¿Cuál de estos conceptos de utilidad debería utilizarse, por ejemplo, al evaluar programas sociales alternativos o medidas de mejora urbana? ¿Es posible creer que la utilidad marginal de los bienes públicos para los ricos es realmente notablemente menor que para los pobres, o esta diferencia se debe únicamente a que los primeros se acostumbraron a un mayor nivel de consumo, a pesar de que los servicios básicos experimentaron son realmente iguales? Está claro que estas y otras cuestiones similares, que fueron incluidas "por instigación" de Kahneman en el programa de investigación de economía psicológica y conductual, no sólo no están divorciadas de la vida real, sino que son de la naturaleza más concreta, incluso aplicada.

Por otro lado, estudios de utilidad experimentada han demostrado que, a diferencia de otros conceptos, no sólo es mensurable, sino que también puede describirse matemáticamente 26 . Esto demuestra claramente que la economía psicológica no se limita a exponer hechos experimentales, sino que se esfuerza por darles explicaciones estrictas. Habiendo adoptado los resultados de la investigación de los psicólogos cognitivos, la ciencia económica no abandona el enfoque fundamental de describir los patrones de comportamiento individual. Por el contrario, llena las teorías modernas con nuevos contenidos basados ​​directamente en datos empíricos y enriquece su arsenal metodológico con una comprensión más profunda de la naturaleza de la racionalidad humana, incluso hasta el punto de abandonar el modelo del homo oeconomicus en favor de uno más realista y especificaciones empíricamente correctas. El premio Nobel Daniel Kahneman y su antiguo colaborador Amos Tversky desempeñaron un papel clave en este proceso: no sólo construyeron puentes entre los experimentos psicológicos y la teoría económica, sino que también sentaron las bases para una futura teoría unificada del comportamiento humano que rechazaba cualquier afirmación de cualquier doctrina científica social a un monopolio incondicional de la verdad (8).

El contenido principal del programa de investigación de la psicología económica (y de la economía del comportamiento en general) lo resumen con éxito ellos mismos: “La premisa idealizada de racionalidad adoptada en la teoría económica suele justificarse de dos maneras. En primer lugar, se argumenta que sólo se actúa racionalmente. Los individuos pueden sobrevivir en un entorno competitivo. En segundo lugar, parece probable que el comportamiento que no se base en esta premisa resulte inevitablemente caótico y no susceptible de explicación científica. Ambos argumentos son dudosos. Esto confirma claramente que las personas pueden vivir toda su vida en un entorno competitivo, sin haber aprendido nunca a aplicar pesos lineales o a eludir los efectos del diseño. Pero aún más importante es el hecho de que la elección humana a menudo resulta ser ordenada, aunque no necesariamente. racional en el sentido tradicional de la palabra. La clarificación del concepto de racionalidad y su descripción científica debería, con toda probabilidad, convertirse en un componente central del programa de investigación de la psicología económica y la economía del comportamiento en un futuro previsible.

Octubre de 2002 El Comité Nobel anunció la concesión de su Premio Conmemorativo de Economía a dos destacados científicos: Daniel Kahneman de las universidades de Princeton (EE.UU.) y Jerusalén (Israel) "por la integración de los resultados de la investigación psicológica en la ciencia económica, especialmente en las áreas de juicio y toma de decisiones en condiciones de incertidumbre" y Vernon Smith de la Universidad George Mason (EE.UU.) - "por establecer experimentos de laboratorio como herramienta para el análisis empírico en economía, especialmente en el estudio de mecanismos de mercado alternativos".

La nominación de Kahneman y Smith, aunque se esperaba hace varios años, sirvió como un reconocimiento formal del hecho de que dentro del marco de la disciplina económica han surgido y tomado forma campos independientes como la economía experimental, la psicología económica y la economía del comportamiento. Sin embargo, la nominación de 2002 significa algo más. En primer lugar, el Premio Nobel de Economía, otorgado a un representante de la ciencia psicológica, confirma claramente el rumbo de principios de la comunidad científica mundial hacia la integración de los programas de investigación de diversas ciencias humanas. En segundo lugar -y esto quizás sea aún más importante- el reconocimiento mismo de la importancia de las características psicológicas del comportamiento individual por parte de los economistas profesionales marcó y registró un cambio significativo en los enfoques y problemas de toda la ciencia económica. En esencia, este hecho significa el reconocimiento no sólo de la conveniencia, sino también de la necesidad de ir más allá de los modelos axiomáticos formales que están débilmente relacionados con el comportamiento real que estos modelos pretenden describir. Las ciencias económicas están entrando en una era de revisión gradual de los métodos y doctrinas establecidos, empezando por la base de los fundamentos: el modelo de Noto oesopoticus, el hombre económico racional. El material empírico fundamental para esta revisión proviene de investigaciones psicológicas en las que Daniel Kahneman juega un papel importante; y la principal herramienta para acumular dicho material fue el experimento como método especial para incrementar el conocimiento científico, que ingresó al arsenal de las ciencias económicas gracias al trabajo pionero de Vernon Smith.

En la tradición de la economía neoclásica, de alguna manera se aceptaba inconscientemente creer que la investigación empírica (y especialmente los experimentos con personas reales) es una actividad menos “seria” que la teoría “alta”. Los economistas neoclásicos prefirieron ocuparse de cosas más "serias", entendiendo cada vez más por el progreso de la ciencia construcciones formales cada vez más sofisticadas en el marco de su tradición científica, basadas en el modelo del Homo eosopoticus desde el punto de vista de la teoría estándar. este agente económico racional debía subordinar todos los sentimientos y emociones al cálculo preciso, tener memoria absoluta y capacidad de computación, estar siempre consciente de sus intereses (preferencias) y actuar de acuerdo con ellos. La descripción formal del comportamiento racional en la teoría estuvo precedida por una serie de supuestos (como convexidad, continuidad, monotonicidad y transitividad de las preferencias individuales), que permitieron representar las preferencias de los individuos como una función de utilidad de valor real y utilizar una poderosa herramienta analítica de análisis matemático y funcional. Además, en total acuerdo con la metodología positivista, la teoría argumentaba que incluso si el agente no resuelve conscientemente el problema de maximización, todavía actúa como si lo estuviera resolviendo. Esto sucede aunque sólo sea porque las desviaciones sistemáticas de tal comportamiento conducirían inevitablemente a pérdidas expresadas en dinero y, si se repiten sistemáticamente, a la quiebra del agente "irracional".

La realidad, sin embargo, se negó obstinadamente a encajar en el “lecho de Procusto” de los esquemas canónicos, por convenientes que fueran analíticamente. En la década de 1950, el economista y psicólogo estadounidense Herbert Simon demostró de manera convincente que las personas reales que toman decisiones se comportan de manera completamente diferente a lo descrito en los libros de texto de economía. Las capacidades cognitivas limitadas no permiten que personas reales en la práctica encuentren soluciones óptimas desde un punto de vista teórico. Si es así, entonces el concepto de racionalidad sustantiva, adoptado en los modelos estándar, debería dar paso al concepto de racionalidad limitada, que es más correcto desde un punto de vista descriptivo.

El trabajo de Simon, galardonado con el Premio Nobel en 1978 "por su investigación pionera sobre los procesos de toma de decisiones en las organizaciones económicas", aún no podía incluirse en el arsenal científico y probablemente fue percibido por la mayoría de los economistas como una rama secundaria e insignificante de la ciencia. Sin embargo, en los últimos veinte años el tema y el método de la economía han cambiado, si no radicalmente, sí de manera bastante significativa. Los programas universitarios han incluido firmemente fenómenos empíricos fundamentales como las paradojas de Allais o el "efecto marco" en la teoría del comportamiento individual en condiciones de riesgo.


El psicólogo Daniel Kahneman es uno de los fundadores de la teoría económica psicológica y quizás el investigador más famoso de cómo las personas toman decisiones y qué errores cometen basándose en distorsiones cognitivas. Por su estudio del comportamiento humano en condiciones de incertidumbre, Daniel Kahneman recibió el Premio Nobel de Economía en 2002 (ésta es la única vez que un psicólogo recibe el Premio Nobel de Economía). ¿Qué logró descubrir el psicólogo? Durante muchos años de investigación que Kahneman realizó con su colega Amos Tversky, los científicos descubrieron y demostraron experimentalmente que las acciones humanas se guían no solo y no tanto por la mente de las personas, sino también por su estupidez e irracionalidad. .

Y verás, es difícil discutir esto. Hoy traemos a vuestra atención 3 conferencias de Daniel Kahneman, en las que una vez más repasará la naturaleza humana irracional, hablará de las distorsiones cognitivas que nos impiden tomar decisiones adecuadas y explicará por qué no siempre debemos confiar en las valoraciones de los expertos.

Daniel Kahneman: “El misterio de la dicotomía experiencia-memoria”

Utilizando ejemplos que van desde nuestras actitudes hacia las vacaciones hasta nuestras experiencias con las colonoscopias, el premio Nobel y pionero de la economía conductual Daniel Kahneman demuestra cuán diferente es nuestra percepción de la felicidad entre nuestro yo que experimenta y nuestro yo que recuerda. Pero, ¿por qué sucede esto y cuáles son las consecuencias de tal división de nuestro "yo"? Encuentre las respuestas en esta conferencia.

Ahora todo el mundo habla de felicidad. Una vez le pedí a un hombre que contara todos los libros con la palabra “felicidad” en el título publicados en los últimos 5 años, y se rindió después del 40, pero por supuesto había aún más. El aumento del interés por la felicidad es enorme entre los investigadores. Hay muchas capacitaciones sobre este tema. Todo el mundo quiere hacer más feliz a la gente. Pero a pesar de tanta literatura, existen ciertas distorsiones cognitivas que prácticamente no nos permiten pensar correctamente sobre la felicidad. Y mi charla de hoy se centrará principalmente en estos obstáculos cognitivos. Esto se aplica tanto a la gente corriente que piensa en su felicidad como en la misma medida a los científicos que piensan en la felicidad, ya que resulta que todos estamos igualmente confundidos. El primero de estos escollos es la renuencia a reconocer cuán complejo es este concepto. Resulta que la palabra “felicidad” ya no es tan útil porque la aplicamos a demasiadas cosas diferentes. Creo que hay un significado específico al que deberíamos limitarnos, pero en general es algo que tendremos que olvidar y desarrollar una visión más integral de lo que es el bienestar. La segunda trampa es la confusión entre experiencia y memoria: es decir, entre el estado de felicidad en la vida y el sentimiento de felicidad acerca de tu vida o el sentimiento de que la vida te conviene. Son dos conceptos completamente diferentes, pero ambos suelen combinarse en un solo concepto de felicidad. Y el tercero es la ilusión de concentración, y es un hecho triste que no podemos pensar en ninguna circunstancia que afecte nuestro bienestar sin distorsionar su significado. Esta es una verdadera trampa cognitiva. Y simplemente no hay manera de hacerlo bien.

© conferencias TED
Traducción: empresa de soluciones de audio

Leer material sobre el tema:

Daniel Kahneman: "El estudio de la intuición" ( Exploraciones de la intuición mental)

¿Por qué la intuición a veces funciona y otras no? ¿Por qué la mayoría de los pronósticos de los expertos no se cumplen y podemos incluso confiar en la intuición de los expertos? ¿Qué ilusiones cognitivas le impiden realizar una evaluación pericial adecuada? ¿Cómo se relaciona esto con las características específicas de nuestro pensamiento? ¿Cuál es la diferencia entre los tipos de pensamiento “intuitivo” y “pensante”? ¿Por qué es posible que la intuición no funcione en todas las áreas de la actividad humana? Daniel Kahneman habló de esto y mucho más en su video conferencia Exploraciones de la mente Intuición.

*La traducción comienza a las 4:25 minutos.

© Conferencias de posgrado de Berkeley
Traducción: p2ib.ru

Daniel Kahneman: "Reflexiones sobre la ciencia del bienestar"

Una versión ampliada de la charla TED de Daniel Kahneman. Una conferencia pública impartida por un psicólogo en la Tercera Conferencia Internacional sobre Ciencias Cognitivas también está dedicada al problema de dos "yo": "recordar" y "presente". Pero aquí el psicólogo considera este problema en el contexto de la psicología del bienestar. Daniel Kahneman habla sobre la investigación moderna sobre el bienestar y los resultados que él y sus colegas han podido obtener recientemente. En particular, explica de qué factores depende el bienestar subjetivo, cómo nos afecta nuestro “yo real”, cuál es el concepto de utilidad, qué influye en la toma de decisiones, en qué medida la evaluación de la vida afecta la felicidad experimentada, cómo la atención y el placer están interconectados, lo que experimentamos de algo y hasta qué punto exageramos el significado de lo que pensamos? Y, por supuesto, no pasa desapercibida la cuestión de qué significado tienen para la sociedad los estudios sobre la felicidad experimentada.


La gente es estúpida.
Por este descubrimiento, el científico israelí Daniel Kahaneman, que trabaja, como habrá adivinado, en Estados Unidos, recibió el Premio Nobel de Economía en 2002.

(Sin embargo, esto no se aplica a usted, querido lector. Se trata de otros. :)
A través de una serie de precisos experimentos científicos, Kahneman pudo demostrar que la mayoría de las personas no utilizan el sentido común en su vida diaria. Incluso los profesores de matemáticas rara vez recurren a operaciones aritméticas elementales en la vida cotidiana.

Kahneman fue el primero en introducir el concepto de factor humano en la economía y combinar la psicología y la economía en una sola ciencia. Antes que él, los economistas se preguntaban por qué los modelos que calculaban daban fallos repentinos, por qué la gente no se comportaba como debería según la teoría. ¿Por qué la bolsa de valores cae repentinamente o por qué la gente de repente corre al banco para retirar depósitos y cambiar una moneda por otra?

Lo más interesante es que el Premio Nobel de Economía nunca estudió economía, sino que pasó toda su vida estudiando psicología. En este caso, la psicología de la elección de decisiones económicas cotidianas.

Todos los economistas anteriores a Kahneman, empezando por Adam Smith, cometieron el mismo error: asumieron que una persona se guía por la lógica elemental y por su propio beneficio, compra donde es más barato, trabaja donde paga más y elige uno entre dos bienes. La misma calidad.

La investigación de Kahneman ha demostrado que las cosas no son tan sencillas. Resulta que la gente no quiere pensar. No se guían por la lógica, sino por las emociones, los impulsos aleatorios; lo que escuchamos ayer en la tele, o de algún vecino, prejuicios establecidos, publicidad, etc.

He aquí un ejemplo. Resulta que si bajas el precio, el producto no necesariamente comenzará a agotarse más rápido. Algunos pensarán que esto es simplemente una rebaja del producto debido a su mala calidad. Lo mismo: si se aumenta el precio, la gente pensará que se les ofrece un producto mejor que antes.

Los economistas anteriores a Kahneman creían ingenuamente que si se aumentaba el salario de un trabajador a destajo, éste haría un mejor trabajo. Resulta que este no es siempre el caso. Algunos... sí, realmente mejores. Otros hacen lo mismo: ¿para qué dar lo mejor de sí mismos si, con la misma productividad, seguirán obteniendo más que antes? Otros más comenzarán a trabajar más lentamente para ganar la misma cantidad que antes, con menos mano de obra.

El razonamiento de los economistas anteriores a Kahneman se parecía al razonamiento de los científicos anteriores a Galileo. Después de todo, durante miles de años, todas las grandes mentes asumieron que un objeto pesado lanzado desde una altura llegaría al suelo más rápido que uno ligero. Los niños de hoy también piensan lo mismo. Durante miles de años esto se dio por sentado y nadie antes de Galileo pensó en comprobarlo. Imaginemos la sorpresa de Galileo cuando descubrió que una bola de madera y una de hierro lanzadas desde la Torre Inclinada de Pisa llegan al suelo al mismo tiempo.

Así, según Kahneman, en la vida cotidiana la gente no se guía por la lógica y la aritmética elementales.

Decidí comprobarlo. Seguir, por así decirlo, el camino de Galileo.

Calle Agripas en Jerusalén. A un lado está el bazar Mahane Yehuda. Al otro lado hay una hilera de tiendas.

La tienda vende huevos. Un paquete de 10 huevos cuesta 12 shekels.

Por el contrario, en el mercado también venden huevos. Un paquete de 30 huevos cuesta 18 shekels.

El problema para un estudiante de primer grado es que un huevo cuesta 1,20 en una tienda y 0,60 en un mercado. Exactamente el doble de barato. Al comprar una bandeja de huevos en una tienda, una persona pierde 6 siclos. Comprando dos bandejas - 12.

Me paré afuera de la tienda y les hice la misma pregunta a quienes estaban comprando huevos: ¿por qué hicieron esto? ¿No ves que al otro lado de la calle cuesta la mitad de precio?

Las respuestas se distribuyeron de la siguiente manera:

1. Vete a la mierda... - 75%

2. ¿Cuál es tu negocio? Donde quiero, compro allí - 75%

3. Los huevos de la tienda son mejores. (Los huevos son iguales, lo comprobé) - 8%

4. ¿Cuál es la diferencia? ¿Seré frívolo? — 6%

5. Siempre compro todo en esta tienda. Es más conveniente para mí: 9%

El hecho de que las respuestas sumen más del 100% significa que una persona podría haber dado más de una respuesta.

A quienes respondieron al punto 4, les ofrecí:

— Habiendo comprado dos bandejas de huevos en una tienda, perdiste 12 siclos. Si esta cantidad no te importa, dame la misma cantidad. La respuesta a esta propuesta (véase el apartado 1)

Aquí hay más ejemplos que confirman, desde mi punto de vista, la teoría de Kahneman.

Un hombre va a un restaurante y paga 100 shekels por un filete. Mientras que un kilo de filetes exactamente iguales en la tienda cuesta 25 shéquels. Cinco piezas. ¡La diferencia es 20 veces! Solo hay que meter el bistec comprado en el horno. Para muchos, aparentemente, esto es demasiado trabajo. La gente hace cola en un restaurante. Y desde este restaurante sacan la comida en bandejas al comedor social de enfrente. Donde dan lo mismo gratis...

Kahneman tiene razón.

Resulta que el chiste es: “¿Compraste esta corbata por 100 dólares? ¡Idiota, hay otros similares a la vuelta de la esquina por 200!” - tiene una justificación económica completamente precisa. La gente cree que si un producto es más caro significa que es mejor.

Una persona se esfuerza por deshacerse del dinero. Y va a un restaurante, donde un desconocido le traerá comida preparada a partir de productos desconocidos de forma desconocida por otro desconocido que desconoce los gustos y peticiones del cliente. Por ello pagará 10 veces más de lo que cuesta la comida y además será grosero.

El restaurante es un lugar de vandalismo económico y culinario. La tarea del restaurante es “promocionar” al cliente. Por lo tanto, en las cocinas de los restaurantes se utilizan los métodos de cocción más antieconómicos y nocivos. Lo principal es que el plato se ve hermoso cuando se sirve. Aunque en un segundo toda esta belleza desaparecerá.

A la salida del supermercado venden salchichas picantes a 5 shekels cada una, que en el mismo mercado cuestan 10 shekels por 20 piezas. ¡La diferencia es 10 veces!

¿No tiene razón Kahneman?

Los mejores psicólogos del mundo se devanan los sesos pensando en cómo darle a una persona algo que no necesita. El 98% de la facturación de Pepsi-Cola se destina a publicidad. Una persona no compra jarabe dulce, sino un estilo de vida que le han inculcado la cabeza.

Un reloj que cuesta 50 shéquels marca la hora exactamente igual que un reloj que cuesta 10 mil. Una persona no compra un reloj, un traje, muebles: compra respeto por sí mismo.

Kahneman tiene razón. Por alguna razón la gente no quiere admitir cosas simples y obvias:

Los partidos de todo tipo, los “Foros” y las “Asociaciones de Asistencia” sólo ayudan a quienes los crean y trabajan en ellos. Por eso se crean.

Aquí hay reglas simples para aquellos que no quieren ser engañados (entiendo que miles de agentes de diversas empresas que se ganan la vida trabajando duro pueden sentirse ofendidos por mí)...

Cualquiera que te llame o te pare en la calle con la esperanza de venderte algo es un estafador.
Cualquiera que intente entrar a su casa con la esperanza de venderle algo es un estafador.

Cualquiera que te diga que ganaste una lotería en la que no jugaste es un estafador.

Cualquiera que ofrezca bienes y servicios “gratis” es un estafador.

Cualquiera que acepte dinero de un cliente a cambio de empleo es un estafador.

Cualquiera que prometa una recuperación del 100% de todas las enfermedades es un fraude.

Cualquiera que envíe correos electrónicos con recetas para hacerse rico rápidamente es un estafador.

Y ahora, sobre lo principal.

Si realmente desea aprender inglés y hebreo en un día, curarse de todas las enfermedades, conseguir un trabajo bien remunerado sin ninguna especialidad, descubrir su futuro, perder 40 kg en un mes sin dietas ni pastillas, comuníquese solo con el autor de Este artículo. Pagar por adelantado.

Comparte con amigos o guarda para ti mismo:

Cargando...