12 Oct, 2018, 01:07 PM
No hay motivo para ser pesimistas, si acaso lo contrario, creo que la cantidad de testigos salientes nunca fue tan grande, Internet les ha hecho mucha pupa al perder el control de la información. Además el espíritu dentro de las congregaciones no es como antes, hay mucho desaliento, inconformistas desilusionados, y también cansados.Otro asunto es que se atrevan a dar el paso de salir por los amarres familiares y emocionales.
Algunos es cierto que nunca abrirán los ojos, eso hay que asumirlo, y tristemente quizás sean algunos de los nuestros como casi toda mi familia.
Dejo un artículo que leí hace tiempo por si puede ser de ayuda, no recuerdo la fuente de donde lo obtuve.
"Si quieres convencer a alguien con argumentos no le digas que está equivocado. No hay manera más fácil de reforzarle en sus posiciones y de extender la discusión hasta el infinito. Y si la materia afecta a las convicciones profundas, el sujeto pasará por alto todas las evidencias, por más contundentes que sean. Este proceso mental es frecuente en ámbitos tan polémicos como la oposición a los transgénicos, el apoyo a la homeopatía o el negacionismo climático. Por más evidencias que muestre la comunidad científica, determinadas personas hacen oídos sordos y se convencen aún más de la validez de sus argumentos. Hasta el punto de que algunos son capaces de defender una idea y la contraria sin que se les fundan los "plomos".
El mecanismo se ha estudiado con detalle en personas propensas a las supersticiones o que defienden teorías de la conspiración. Llevado al extremo, el mismo individuo es capaz de defender que el hombre nunca estuvo en la Luna y que los rusos tienen una base secreta en nuestro satélite. En 2011, el investigador Michael J. Wood, de la Universidad de Kent, reunió a 137 voluntarios y descubrió que entre aquellos que sostenían que Diana de Gales había sido asesinada era más frecuente creer que la princesa había simulado su propia muerte. El estudio también mostraba que entre aquellos que creían que Osama Bin Laden llevaba mucho tiempo muerto era más habitual creer que el líder de Al Qaeda seguía vivo.
A mediados de los años 50 el psicólogo Leon Festinger bautizó este mecanismo de la mente para huir de sus contradicciones como "disonancia cognitiva". Él y otros compañeros se infiltraron en una secta liderada por un ama de casa de Chicago que anunciaba la llegada del apocalipsis. El 21 de diciembre de 1954, Dorothy Martin (conocida como "Marian Keech" por los suyos) reunió a sus acólitos en el salón de su casa y se sentaron a esperar el momento fatal en que el mundo sería destruido y ellos serían rescatados por un platillo volante. Festinger, que estaba allí aquella noche, relató en un libro lo sucedido. Cuando el reloj marcó la medianoche se produjo un silencio expectante. A las 0,05 h, algunos miembros de la secta empezaron a removerse en sus asientos. A las 0,10 en la habitación reinaba un silencio incómodo y el cataclismo no llegaba. Pasadas las 4,00 a.m., y después de varios intentos infructuosos de los asistentes por explicar la situación, Marian Keech empezó a llorar y sufrió uno de sus ataques de "escritura automática". El "ser superior" le comunicaba que aquel acto de fe de sus seguidores había salvado al mundo de su destrucción.
Por paradójico que parezca, aquella tremenda contradicción entre las creencias y los hechos no acabó con la disolución del grupo, sino que reforzó aún más sus creencias. Festinger realizó otros experimentos para demostrar cómo somos capaces de buscar una alternativa cuando los hechos se contradicen con aquello de lo que estamos profundamente convencidos. Y la cuestión es: ¿se puede hacer algo contra ello?
Estrategias contra las creencias erróneas
Algunos psicólogos están tratando de averiguar cómo se combaten estas creencias erróneas que en ocasiones, como en el caso de los antivacunas, se convierten en un problema de salud pública. La mayoría de experimentos muestran claramente que los prejuicios tienen las de ganar a la hora de aceptar nuevas ideas. Un trabajo de Kelly Garrett y Brian Weeks en 2013 demostraba con un grupo de personas que solo estaban dispuestas a aceptar nuevos argumentos políticos aquellas que no tenían una idea preconcebida sobre el tema. Los trabajos de Stephan Lewandowsky, psicólogo de la Universidad de Bristol, sobre las posiciones de la gente respecto al cambio climático muestran lo mismo. La posición en este tema está fuertemente vinculada a las tendencias políticas y las personas descartan todo aquello que no concuerda con lo que previamente pensaban.
“No solo estás cuestionando una creencia, sino una forma de vida”
"Se trata de un problema cognitivo", asegura Helena Matute, catedrática de Psicología Experimental de la Universidad de Deusto. "Buscamos información que siempre confirme nuestras hipótesis previas porque así es como construimos nuestro conocimiento. No puedes estar destruyendo todo el rato lo que ya sabías, tiene que haber algún tipo de defensa para mantener ese conocimiento ya establecido". Para Miguel Ángel Vadillo, psicólogo del University College de Londres, el problema de combatir estas creencias erróneas es que no son una idea aislada. "Cuando combates esto", explica a Next, "no solo estás cuestionando una creencia sino una forma de vida. Y en cierto sentido es lógico que una persona sea muy reticente a producir cambios tan grandes. Por ejemplo, para alguien que piensa que los transgénicos son malos, lo que piensa es mucho más que eso, ha ido construyendo mil ideas alrededor y enfrentarse a su creencia es, en el fondo, combatir toda una forma de vida".
En un estudio reciente, citado por The New Yorker, el profesor de ciencias políticas de la Universidad de Dartmouth Brendan Nyhan realizó una serie de experimentos para comprobar si existe alguna estrategia para convencer a los padres de que el miedo a las vacunas es totalmente infundado. Para el experimento, Nyhan utilizó varias estrategias con un grupo de 2.000 padres seleccionados al azar a los que dividió en cuatro grupos: a unos les repartió panfletos que explicaban la falta de conexión entre las vacunas y enfermedades como el autismo, a otros les dieron información sobre los riesgos de las enfermedades que las vacunas previenen, a otros les mostraron fotos de niños que habían sufrido estas enfermedades y a un cuarto grupo se les relató el dramático caso de un niño muerto por sarampión. Lo desolador de las conclusiones es que ninguna de las estrategias funcionó, y en el caso de las dos últimas opciones muchos padres comenzaron a preguntarse por el efecto de las vacunas y a sospechar que de verdad estaban produciendo efectos secundarios.
Todas las estrategias para convencer a los padres contra los antivacunas salieron mal
"Si crees que existe una conspiración es lógico que no te fíes de los investigadores", asegura Vadillo. "Por otro lado, que estés combatiendo una creencia ya implica que le des cierta credibilidad. Y este estudio con los antivacunas es el ejemplo perfecto. Igual muchos de estos padres nunca habían pensando sobre el tema y al ver que hay discusión empiezan a pensar que existe un riesgo". ¿Qué hacer entonces? ¿Dar más información? Algunos estudios muestran que tener más datos - o más conocimientos técnicos - no te libra del sesgo cognitivo. El equipo de Dan Kahan, de la Universidad de Yale, realizó una prueba con un millar de estadounidenses a los que primero sometió a un test sobre habilidades matemáticas. Cuando les sometió a un problema sobre la capacidad curativa de una crema que requería ciertos conocimientos numéricos, aquellos que tenían mayores habilidades lo resolvieron sin problemas. Ahora bien, cuando les sometieron a todos a un problema similar en el que estaba en juego el tema de la posesión de armas en EEUU, las habilidades matemáticas dejaron de ser un buen predictor para el resultado de la prueba y los individuos se dejaban llevar por la ideología.
Incluso los individuos con más formación se dejan llevar por prejuicios ideológicos
No es la primera prueba de Kahan en este sentido y en todas obtiene el mismo resultado: el nivel de formación científica no te libra de los prejuicios y en algunos casos, como la negación del cambio climático, los sujetos utilizan estos conocimientos para seguir tratando de demostrar su tesis. "Esto tendrá sentido para cualquiera que haya leído el trabajo de un negacionista climático serio", escribe Ezra Klein en Vox. "Está lleno de datos y figuras, gráficos y cuadros, estudios y citas. La mayoría de los datos son erróneos e irrelevantes. Pero suenan convincentes. Es una fantástica actuación de indagación científica. Y estos expertos terminan mucho más convencidos de que el cambio climático es mentira que las personas que apenas han estudiado el caso".
La primera idea es la que gana
La estrategia para impedir que se extienda una creencia irracional y peligrosa pasaría, entonces, por evitar la confrontación directa y tratar de no despertar ese mecanismo de defensa cognitivo que produce el hecho de decirle a alguien que está en un error. Ante el movimiento cada vez mayor en EEUU a favor de consumir leche no pasteurizada (puede terminar siendo un serio problema) Brendan Nyhan propone en The New Yorker que sería más efectivo, en lugar de desatacar sus errores, que las autoridades se centraran en destacar las vidas que ha salvado el sistema. "Cuando alguien no ha oído hablar de un problema, a veces es más seguro intentar no combatir esas creencias para que no lleguen a más gente", añade Miguel Ángel Vadillo, "pero lo que sí está más que demostrado es que la primera opinión que desarrollas sobre un tema siempre va a ser mucho más fuerte que las restantes". Si la primera vez que nos hablan sobre algo ya nos dan una opinión formada (por ejemplo, las vacunas provocan autismo) se produce lo que se denomina un "sesgo de primacía" que influirá luego en lo que pensemos, aunque creamos que somos objetivos. "Es algo que se aplica incluso en la justicia y en los casos de juicios", explica Vadillo. "No es lo mismo para un jurado escuchar la exposición de que una persona es inocente que empezar contando que es culpable".
Primero opinamos y luego buscamos argumentos
Por otro lado, la tendencia general, sea o no uno un 'conspiranoico', es a opinar sin datos primero y luego buscar los argumentos que refuercen nuestra posición. "Toda la literatura sobre disonancia cognitiva va sobre eso", insiste Vadillo, "no es que tengas una idea por unas razones, sino que das razones para justificar una idea. A lo mejor nunca has pensando mucho sobre las vacunas y cuando empiezas a dar razones puede que no sea más una justificación de tu primera elección". Esto, explica Helena Matute, se denomina 'efecto ancla'. "Cuanto más te pronuncias sobre un problema, más se ancla en tu mente y más difícil es que puedas cambiar de opinión o que puedas asimilar los datos contrarios a lo que estás opinando", asegura. En un trabajo realizado hace unos meses por Labpsico, el equipo que dirige Matute, y publicado en PLOS ONE, trataron de encontrar estrategias para infundir el pensamiento crítico en alumnos adolescentes. "En una de las pruebas", recuerda la psicóloga, "poníamos casos de pacientes ficticios y tratamientos alternativos", revela. "Pues bien nos dimos cuenta de que si les íbamos pidiendo su opinión sobre cada caso anclaban un juicio muy pronto y luego les costaba mucho cambiarlo, mientras que si esperábamos se formaban un criterio con más claridad". Es lo que le pasa a algunos políticos cuando les pregunta un periodista nada más suceder un hecho, bromea Matute, que opinan demasiado pronto y condicionan todo lo que pensarán sobre ese asunto más adelante.
Los neurocientíficos Peter Johansson y Lars Hall descubrieron hace unos años un fenómeno bautizado como "ceguera a la elección" que muestra cómo funciona este mecanismo de elegir primero una opción y luego tratar de justificarla. Para su experimento hacían a los sujetos elegir entre dos fotografías de personas en función de quién les gustaba más. Pero mediante un truco de magia el investigador les daba siempre la opción que habían descartado. Cuando le preguntaban a alguien por qué había elegido a determinada chica, podía decir por ejemplo, "porque lleva gafas" cuando en realidad su elección inicial había sido la de la chica sin gafas. Su cerebro decidía en primer lugar y el individuo, a nivel consciente, construía las explicaciones.
Creemos conocer problemas complejos de los que no tenemos ni idea.
A propósito de llevar razón, esta semana el psicólogo británico Tom Stafford publica en Mind Hacks un artículo sobre “la mejor manera de ganar una discusión” y recuerda otro aspecto de nuestra psique descubierto hace una década por científicos de la universidad de Yale. La mayoría de las veces, por pura familiaridad, creemos conocer cómo funcionan algunos problemas complejos de la sociedad cuando en realidad no tenemos ni idea de cuáles son las causas ni sus mecanismos. Se trata de una especie de “ilusión de la explicación profunda”. Conociendo este sesgo, los mismos científicos realizaron otro experimento en el que pedían a un grupo de estudiantes que defendiera su tesis con argumentos y a otro que detallara paso a paso la solución que proponía para el problema. Y descubrieron que entre estos últimos, que descubrían la vulnerabilidad de su posición, era más fácil el cambio de postura. En otras palabras, para demostrarle a alguien que no tiene razón, no hay nada como dejar que se explique.
La conclusión de todos estos experimentos es que deberíamos ser más prudentes en general y tratar de escuchar los argumentos del otro antes de darnos por ofendidos. Nuestro cerebro va a hacer todo lo posible por mantenerse en sus trece y nos puede llevar a situaciones de ridículo. La próxima vez que tenga una discusión sobre política, energía o fútbol, es posible que saber no llevar razón sea una enseñanza muy útil.
Para saber más: I don’t want to be right (The New Yorker) | How politics makes us stupid (Vox) | The best way to win an argument (Mind Hacks)"
Algunos es cierto que nunca abrirán los ojos, eso hay que asumirlo, y tristemente quizás sean algunos de los nuestros como casi toda mi familia.
Dejo un artículo que leí hace tiempo por si puede ser de ayuda, no recuerdo la fuente de donde lo obtuve.
"Si quieres convencer a alguien con argumentos no le digas que está equivocado. No hay manera más fácil de reforzarle en sus posiciones y de extender la discusión hasta el infinito. Y si la materia afecta a las convicciones profundas, el sujeto pasará por alto todas las evidencias, por más contundentes que sean. Este proceso mental es frecuente en ámbitos tan polémicos como la oposición a los transgénicos, el apoyo a la homeopatía o el negacionismo climático. Por más evidencias que muestre la comunidad científica, determinadas personas hacen oídos sordos y se convencen aún más de la validez de sus argumentos. Hasta el punto de que algunos son capaces de defender una idea y la contraria sin que se les fundan los "plomos".
El mecanismo se ha estudiado con detalle en personas propensas a las supersticiones o que defienden teorías de la conspiración. Llevado al extremo, el mismo individuo es capaz de defender que el hombre nunca estuvo en la Luna y que los rusos tienen una base secreta en nuestro satélite. En 2011, el investigador Michael J. Wood, de la Universidad de Kent, reunió a 137 voluntarios y descubrió que entre aquellos que sostenían que Diana de Gales había sido asesinada era más frecuente creer que la princesa había simulado su propia muerte. El estudio también mostraba que entre aquellos que creían que Osama Bin Laden llevaba mucho tiempo muerto era más habitual creer que el líder de Al Qaeda seguía vivo.
A mediados de los años 50 el psicólogo Leon Festinger bautizó este mecanismo de la mente para huir de sus contradicciones como "disonancia cognitiva". Él y otros compañeros se infiltraron en una secta liderada por un ama de casa de Chicago que anunciaba la llegada del apocalipsis. El 21 de diciembre de 1954, Dorothy Martin (conocida como "Marian Keech" por los suyos) reunió a sus acólitos en el salón de su casa y se sentaron a esperar el momento fatal en que el mundo sería destruido y ellos serían rescatados por un platillo volante. Festinger, que estaba allí aquella noche, relató en un libro lo sucedido. Cuando el reloj marcó la medianoche se produjo un silencio expectante. A las 0,05 h, algunos miembros de la secta empezaron a removerse en sus asientos. A las 0,10 en la habitación reinaba un silencio incómodo y el cataclismo no llegaba. Pasadas las 4,00 a.m., y después de varios intentos infructuosos de los asistentes por explicar la situación, Marian Keech empezó a llorar y sufrió uno de sus ataques de "escritura automática". El "ser superior" le comunicaba que aquel acto de fe de sus seguidores había salvado al mundo de su destrucción.
Por paradójico que parezca, aquella tremenda contradicción entre las creencias y los hechos no acabó con la disolución del grupo, sino que reforzó aún más sus creencias. Festinger realizó otros experimentos para demostrar cómo somos capaces de buscar una alternativa cuando los hechos se contradicen con aquello de lo que estamos profundamente convencidos. Y la cuestión es: ¿se puede hacer algo contra ello?
Estrategias contra las creencias erróneas
Algunos psicólogos están tratando de averiguar cómo se combaten estas creencias erróneas que en ocasiones, como en el caso de los antivacunas, se convierten en un problema de salud pública. La mayoría de experimentos muestran claramente que los prejuicios tienen las de ganar a la hora de aceptar nuevas ideas. Un trabajo de Kelly Garrett y Brian Weeks en 2013 demostraba con un grupo de personas que solo estaban dispuestas a aceptar nuevos argumentos políticos aquellas que no tenían una idea preconcebida sobre el tema. Los trabajos de Stephan Lewandowsky, psicólogo de la Universidad de Bristol, sobre las posiciones de la gente respecto al cambio climático muestran lo mismo. La posición en este tema está fuertemente vinculada a las tendencias políticas y las personas descartan todo aquello que no concuerda con lo que previamente pensaban.
“No solo estás cuestionando una creencia, sino una forma de vida”
"Se trata de un problema cognitivo", asegura Helena Matute, catedrática de Psicología Experimental de la Universidad de Deusto. "Buscamos información que siempre confirme nuestras hipótesis previas porque así es como construimos nuestro conocimiento. No puedes estar destruyendo todo el rato lo que ya sabías, tiene que haber algún tipo de defensa para mantener ese conocimiento ya establecido". Para Miguel Ángel Vadillo, psicólogo del University College de Londres, el problema de combatir estas creencias erróneas es que no son una idea aislada. "Cuando combates esto", explica a Next, "no solo estás cuestionando una creencia sino una forma de vida. Y en cierto sentido es lógico que una persona sea muy reticente a producir cambios tan grandes. Por ejemplo, para alguien que piensa que los transgénicos son malos, lo que piensa es mucho más que eso, ha ido construyendo mil ideas alrededor y enfrentarse a su creencia es, en el fondo, combatir toda una forma de vida".
En un estudio reciente, citado por The New Yorker, el profesor de ciencias políticas de la Universidad de Dartmouth Brendan Nyhan realizó una serie de experimentos para comprobar si existe alguna estrategia para convencer a los padres de que el miedo a las vacunas es totalmente infundado. Para el experimento, Nyhan utilizó varias estrategias con un grupo de 2.000 padres seleccionados al azar a los que dividió en cuatro grupos: a unos les repartió panfletos que explicaban la falta de conexión entre las vacunas y enfermedades como el autismo, a otros les dieron información sobre los riesgos de las enfermedades que las vacunas previenen, a otros les mostraron fotos de niños que habían sufrido estas enfermedades y a un cuarto grupo se les relató el dramático caso de un niño muerto por sarampión. Lo desolador de las conclusiones es que ninguna de las estrategias funcionó, y en el caso de las dos últimas opciones muchos padres comenzaron a preguntarse por el efecto de las vacunas y a sospechar que de verdad estaban produciendo efectos secundarios.
Todas las estrategias para convencer a los padres contra los antivacunas salieron mal
"Si crees que existe una conspiración es lógico que no te fíes de los investigadores", asegura Vadillo. "Por otro lado, que estés combatiendo una creencia ya implica que le des cierta credibilidad. Y este estudio con los antivacunas es el ejemplo perfecto. Igual muchos de estos padres nunca habían pensando sobre el tema y al ver que hay discusión empiezan a pensar que existe un riesgo". ¿Qué hacer entonces? ¿Dar más información? Algunos estudios muestran que tener más datos - o más conocimientos técnicos - no te libra del sesgo cognitivo. El equipo de Dan Kahan, de la Universidad de Yale, realizó una prueba con un millar de estadounidenses a los que primero sometió a un test sobre habilidades matemáticas. Cuando les sometió a un problema sobre la capacidad curativa de una crema que requería ciertos conocimientos numéricos, aquellos que tenían mayores habilidades lo resolvieron sin problemas. Ahora bien, cuando les sometieron a todos a un problema similar en el que estaba en juego el tema de la posesión de armas en EEUU, las habilidades matemáticas dejaron de ser un buen predictor para el resultado de la prueba y los individuos se dejaban llevar por la ideología.
Incluso los individuos con más formación se dejan llevar por prejuicios ideológicos
No es la primera prueba de Kahan en este sentido y en todas obtiene el mismo resultado: el nivel de formación científica no te libra de los prejuicios y en algunos casos, como la negación del cambio climático, los sujetos utilizan estos conocimientos para seguir tratando de demostrar su tesis. "Esto tendrá sentido para cualquiera que haya leído el trabajo de un negacionista climático serio", escribe Ezra Klein en Vox. "Está lleno de datos y figuras, gráficos y cuadros, estudios y citas. La mayoría de los datos son erróneos e irrelevantes. Pero suenan convincentes. Es una fantástica actuación de indagación científica. Y estos expertos terminan mucho más convencidos de que el cambio climático es mentira que las personas que apenas han estudiado el caso".
La primera idea es la que gana
La estrategia para impedir que se extienda una creencia irracional y peligrosa pasaría, entonces, por evitar la confrontación directa y tratar de no despertar ese mecanismo de defensa cognitivo que produce el hecho de decirle a alguien que está en un error. Ante el movimiento cada vez mayor en EEUU a favor de consumir leche no pasteurizada (puede terminar siendo un serio problema) Brendan Nyhan propone en The New Yorker que sería más efectivo, en lugar de desatacar sus errores, que las autoridades se centraran en destacar las vidas que ha salvado el sistema. "Cuando alguien no ha oído hablar de un problema, a veces es más seguro intentar no combatir esas creencias para que no lleguen a más gente", añade Miguel Ángel Vadillo, "pero lo que sí está más que demostrado es que la primera opinión que desarrollas sobre un tema siempre va a ser mucho más fuerte que las restantes". Si la primera vez que nos hablan sobre algo ya nos dan una opinión formada (por ejemplo, las vacunas provocan autismo) se produce lo que se denomina un "sesgo de primacía" que influirá luego en lo que pensemos, aunque creamos que somos objetivos. "Es algo que se aplica incluso en la justicia y en los casos de juicios", explica Vadillo. "No es lo mismo para un jurado escuchar la exposición de que una persona es inocente que empezar contando que es culpable".
Primero opinamos y luego buscamos argumentos
Por otro lado, la tendencia general, sea o no uno un 'conspiranoico', es a opinar sin datos primero y luego buscar los argumentos que refuercen nuestra posición. "Toda la literatura sobre disonancia cognitiva va sobre eso", insiste Vadillo, "no es que tengas una idea por unas razones, sino que das razones para justificar una idea. A lo mejor nunca has pensando mucho sobre las vacunas y cuando empiezas a dar razones puede que no sea más una justificación de tu primera elección". Esto, explica Helena Matute, se denomina 'efecto ancla'. "Cuanto más te pronuncias sobre un problema, más se ancla en tu mente y más difícil es que puedas cambiar de opinión o que puedas asimilar los datos contrarios a lo que estás opinando", asegura. En un trabajo realizado hace unos meses por Labpsico, el equipo que dirige Matute, y publicado en PLOS ONE, trataron de encontrar estrategias para infundir el pensamiento crítico en alumnos adolescentes. "En una de las pruebas", recuerda la psicóloga, "poníamos casos de pacientes ficticios y tratamientos alternativos", revela. "Pues bien nos dimos cuenta de que si les íbamos pidiendo su opinión sobre cada caso anclaban un juicio muy pronto y luego les costaba mucho cambiarlo, mientras que si esperábamos se formaban un criterio con más claridad". Es lo que le pasa a algunos políticos cuando les pregunta un periodista nada más suceder un hecho, bromea Matute, que opinan demasiado pronto y condicionan todo lo que pensarán sobre ese asunto más adelante.
Los neurocientíficos Peter Johansson y Lars Hall descubrieron hace unos años un fenómeno bautizado como "ceguera a la elección" que muestra cómo funciona este mecanismo de elegir primero una opción y luego tratar de justificarla. Para su experimento hacían a los sujetos elegir entre dos fotografías de personas en función de quién les gustaba más. Pero mediante un truco de magia el investigador les daba siempre la opción que habían descartado. Cuando le preguntaban a alguien por qué había elegido a determinada chica, podía decir por ejemplo, "porque lleva gafas" cuando en realidad su elección inicial había sido la de la chica sin gafas. Su cerebro decidía en primer lugar y el individuo, a nivel consciente, construía las explicaciones.
Creemos conocer problemas complejos de los que no tenemos ni idea.
A propósito de llevar razón, esta semana el psicólogo británico Tom Stafford publica en Mind Hacks un artículo sobre “la mejor manera de ganar una discusión” y recuerda otro aspecto de nuestra psique descubierto hace una década por científicos de la universidad de Yale. La mayoría de las veces, por pura familiaridad, creemos conocer cómo funcionan algunos problemas complejos de la sociedad cuando en realidad no tenemos ni idea de cuáles son las causas ni sus mecanismos. Se trata de una especie de “ilusión de la explicación profunda”. Conociendo este sesgo, los mismos científicos realizaron otro experimento en el que pedían a un grupo de estudiantes que defendiera su tesis con argumentos y a otro que detallara paso a paso la solución que proponía para el problema. Y descubrieron que entre estos últimos, que descubrían la vulnerabilidad de su posición, era más fácil el cambio de postura. En otras palabras, para demostrarle a alguien que no tiene razón, no hay nada como dejar que se explique.
La conclusión de todos estos experimentos es que deberíamos ser más prudentes en general y tratar de escuchar los argumentos del otro antes de darnos por ofendidos. Nuestro cerebro va a hacer todo lo posible por mantenerse en sus trece y nos puede llevar a situaciones de ridículo. La próxima vez que tenga una discusión sobre política, energía o fútbol, es posible que saber no llevar razón sea una enseñanza muy útil.
Para saber más: I don’t want to be right (The New Yorker) | How politics makes us stupid (Vox) | The best way to win an argument (Mind Hacks)"