Un buen tema para la jornada de reflexión.
Thomas Jefferson escribió lo siguiente en 1789: "
Cuando la gente está bien informada puede confiar en su propio gobierno". Este es uno de los grandes supuestos subyacentes en el funcionamiento de una gran democracia moderna, que una ciudadanía bien informada es preferible a una que no lo está. Esta idea está detrás de todo lo que tiene que ver con el concepto de una democracia moderna, desde los humilde panfletos políticos a los debates presidenciales pasando por la noción misma de libertad de prensa. Como dijo Kant los seres humanos pueden ser como madera retorcida, particularmente susceptibles a la ignorancia y la desinformación, pero es un artículo de fe que el conocimiento es el mejor remedio para este mal. Si las personas estuvieran equipadas con los hechos tendrían las cosas mas claras y serían mejores ciudadanos. Si son ignorantes, los hechos les iluminarán. Si están equivocados, los hechos les ajustarán a la realidad.
Al final la verdad resplandecerá ¿o no?
Tal vez no. Recientemente, un grupo de científicos sociales interesados en el campo de la política han comenzado a descubrir una tendencia humana muy desalentador para cualquiera que tenga fe en el poder de la información: los hechos no necesariamente tienen el poder de cambiar nuestras mentes. De hecho, todo lo contrario. En una serie de estudios realizados en 2005 y 2006, investigadores de la Universidad de Michigan encontraron que cuando la gente mal informada, en particular los partidarios de cualquier partido político concreto, eran confrontados con los hechos correctos rara vez cambiaban sus opiniones.De hecho esa confrontación a menudo reforzaba sus erradas creencias originales. Los hechos no suponían en realidad una ‘cura’ para la desinformación. Al igual que un antibiótico de poca potencia, los hechos en realidad puede hacer aún más fuerte la desinformación.
Esto no augura nada bueno para una democracia, porque la mayoría de los votantes - la gente que toma decisiones acerca de cómo funciona el país - no son pizarras en blanco pues ya tienen sus propias creencias, y un conjunto de hechos presentes en su mente. El problema es que a veces las cosas que piensan que saben son objetivamente falsas y ante la presencia de la información correcta, estas personas reaccionan de manera muy, muy diferente a los simplemente desinformados: en lugar de cambiar sus mentes para reflejar la nueva información correcta, pueden atrincherarse aún más fuertemente en sus ideas previas.
"La idea general es que se siente como una amenaza admitir que se está equivocado", dice el politólogo Brendan Nyhan, el investigador principal del estudio de Michigan. Este fenómeno - conocido como ‘backfire’ es "un mecanismo de defensa natural para evitar esa
disonancia cognitiva".
Estos hallazgos abren a la discusión un asunto de largo alcance acerca no solo de la ignorancia política de los ciudadanos estadounidenses sino también sobre cuestiones más amplias como la relación entre la naturaleza de la inteligencia humana y nuestros ideales democráticos. A la mayoría de nosotros nos gusta pensar que nuestras opiniones se han formado a través del tiempo por una consideración cuidadosa y racional de los hechos y las ideas, y que las decisiones tomadas sobre la base de esas opiniones tienen por tanto el sello de la solidez y la inteligencia. En realidad a menudo basamos nuestras opiniones en nuestras creencias, que pueden tener una relación complicada con los hechos y en lugar de basar nuestras creencias en los hechos estas pueden dictar los hechos que se optan por aceptar, retorciéndolos para que encajen mejor con nuestras ideas preconcebidas. Y aún peor, podemos aceptar acríticamente información errónea sólo porque refuerza nuestras creencias. Este refuerzo nos hace más seguros de que tenemos razón, y mucho menos propensos a escuchar a cualquier nueva información. Y luego se vota.
El exceso de información que nos rodea facilita aún mas este efecto pues junto a una cantidad sin precedentes de una buena información recibimos continuamente interminables rumores, desinformación pura y numerosas variaciones cuestionables de la verdad. En otras palabras, nunca ha sido fácil para la gente estar equivocada y al mismo tiempo sentirse más segura de que tienen razón.
Las últimas cinco décadas de la ciencia política han establecido definitivamente que la mayoría de los estadounidenses de hoy en día carecen incluso de un entendimiento básico de cómo funciona su país. En 1996, Larry Bartels M. profesor de la Universidad de Princeton argumentó que "la ignorancia política de los votantes estadounidenses es uno de los datos mejor documentados en la ciencia política".
Esto por sí solo podría no ser un problema: la personas ignorantes de los hechos podrían simplemente optar por no votar. Pero en cambio, parece que las personas peor informadas son las que tiene las opiniones políticas más fuertes. Un llamativo ejemplo reciente se puede ver en un estudio del año 2000, dirigido por James Kuklinski, de la Universidad de Illinois en Urbana-Champaign. A 1.000 residentes de Illinois les preguntaron sobre cuestiones relacionadas con el estado del bienestar como el porcentaje del presupuesto federal invertido en el bienestar, el número de personas inscritas en el programa, el porcentaje de afiliados que son de color negro, y el promedio de pago. Más de la mitad indicó que estaban seguros de que sus respuestas eran correctas pero en realidad sólo el 3 por ciento de los encuestados tenía más de la mitad de las preguntas correctas. Tal vez lo más preocupante fue que los que estaban más seguros de que tenían razón eran por lo general, los que sabían menos sobre el tema. La mayoría de esos participantes expresaron puntos de vista que indicaban un fuerte sesgo en contra de las políticas de bienestar.
Estudios realizados por otros investigadores han observado un fenómeno similar al abordar la educación, la reforma de la salud, la inmigración, la acción afirmativa, el control de armas, y otras cuestiones que tienden a atraer a la opinión partidista fuerte. Kuklinski llama a este tipo de respuesta el síndrome de "yo sé que tengo razón" y lo considera un "problema potencialmente enorme" en un sistema democrático. "Esto implica no sólo que la mayoría de las personas se resisten a corregir sus creencias fácticas", escribió, "sino también que la gente que más necesitaría esa corrección es la que menos probablemente la hará."
¿Qué está pasando? ¿Cómo podemos tener las cosas tan mal, y estar tan seguros de que estamos en lo correcto? Parte de la respuesta radica en la forma en que nuestros cerebros están diseñados. Generalmente, las personas tienden a buscar la coherencia. Hay un cuerpo sustancial de investigación psicológica que muestra que la gente tiende a interpretar la información con miras a reforzar sus puntos de vista ya existentes. Si creemos algo sobre el mundo, estamos más dispuestos a aceptar pasivamente como verdad cualquier información que confirme nuestras creencias, y descartar activamente aquella información que no lo haga o las contradiga. Esto se conoce como "razonamiento motivado". Independientemente de que la nueva información sea exacta la aceptaremos como un hecho si confirma nuestras creencias previas. Confiamos en nuestras creencias hasta el punto de descartar los hechos que las contradicen.
Una nueva investigación, publicada en el “Journal of Political Behavior” el mes pasado, sugiere que una vez que una vez que los hechos - o "hechos" - son internalizados son muy difíciles de cambiar. En 2005, ya en medio de las estridentes llamadas para mejorar los medios de comunicación a raíz de los sucedido con la guerra de Irak, Nyhan de Michigan y un colega diseñaron un experimento en el que a los participantes se les daban noticias burlonas en casa una de las cuales aparecía una afirmación de conocimiento muy extendido aunque probablemente falsa hecha por alguna figura política como que que no había armas de destrucción masiva en Irak (no había), que pese a los recortes fiscales Bush había aumentado los ingresos del gobierno (disminuyeron), y que la administración Bush había impuesto una prohibición total en la investigación con células madre (sólo se habían restringido ciertos fondos federales). Nyhan insertaba una corrección clara y directa después de cada pieza de desinformación, y luego comprobaba si los participantes en el estudio eran sensibles a esa corrección.
En la mayor parte de los casos la corrección no funcionó. Los participantes que se identificaron como conservadores creían con más fuerza en la información errónea sobre las armas de destrucción masiva y los impuestos después de recibir la corrección. Y cuanto más preocupado estaba el participante con esos dos asuntos más fuerte era ese efecto de “backfire”. El efecto fue ligeramente diferente en los que se auto-identifican como liberales: Al leer las historias corregidas sobre las células madre, las correcciones no producían el efecto “backfire”, pero los lectores seguían pasando por alto el hecho de que las restricciones del gobierno de Bush no fueron totales.
No está claro lo que motiva esos comportamientos -que pueden oscilar entre simples actitudes defensivas, a otros que se esfuerzan en defender sus creencias iniciales - pero como Nyhan secamente dijo, "Es difícil ser optimista sobre la eficacia de presentar hechos comprobados."
Sería reconfortante pensar que los politólogos y los psicólogos han llegado a una forma de contrarrestar este problema, pero eso sería muy poco realista. La persistencia de las percepciones erróneas políticas sigue siendo un campo joven de la investigación. "Todos estos temas están aún en el aire", dice Nyhan.
Pero los investigadores están trabajando en ello. Un camino puede ser el de la autoestima. Nyhan trabajó en un estudio en el que demostraba que las personas a las que se les hacía primero ejercicios de auto-afirmación fueron más propensos a considerar la nueva información que las personas que no habían hecho esos ejercicios. En otras palabras, si te sientes bien contigo mismo, podrás escuchar - y si usted se siente inseguro o amenazado, no. Esto también explicaría por qué los demagogos se benefician de mantener a la gente agitada. Las personas que se sienten más amenazadas es menos probable es que escuchan las opiniones disidentes, y son más fáciles de controlar.
También hay algunos casos en los que la franqueza funciona. El estudio de Kuklinski del bienestar sugiere que la gente realmente puede actualizar sus creencias si se los golpea "entre los ojos", presentado sin rodeos los hechos objetivos que contradicen a sus ideas preconcebidas. Preguntó a un grupo de participantes qué porcentaje del presupuesto creían que el gobierno federal gastaba en asistencia social y cuál era el porcentaje que creían que el gobierno debería gastar. Otro grupo recibió las mismas preguntas, pero al segundo grupo se le dijo de inmediato el porcentaje correcto que el gobierno gastaba en el bienestar (1 por ciento). Luego se les pidió, con eso en mente, lo que el gobierno debería gastar. Los miembros del segundo grupo, independientemente de lo equivocados que estuvieran antes de recibir esa información, tendían al dar su respuesta a ajustarla al dato real.
En el estudio de Kuklinski, sin embargo, las personas involucradas obtenían la información directamente de los investigadores de una manera muy interactiva. Cuando Nyhan intentó entregar las correcciones de una manera más real, a través de artículos de noticias, fracasó.
Incluso si las personas aceptan la nueva información, parece que eso no se mantiene a largo plazo, o simplemente puede no tener efecto sobre sus opiniones. En 2007, John Sides de la Universidad George Washington y Jack Citrin, de la Universidad de California en Berkeley estudiaron en personas con ideas errónea sobre los inmigrantes si la información correcta sobre la proporción de inmigrantes en la población de EE.UU. podría afectar sus puntos de vista sobre la inmigración. No lo hizo.
Y si usted alberga la idea -popular todas partes- de que la solución es más educación y un mayor nivel de sofisticación política de los votantes, bueno, eso es un comienzo, pero no la solución. Un estudio realizado en 2006 por Charles Taber y Hotel Milton de la Stony Brook University mostró que las personas políticamente sofisticadas eran aún menos abiertas a las nuevas informaciones que los sujetos menos sofisticados. Estas personas pueden tener ideas objetivamente correctas sobre el 90 por ciento de las cosas, pero su confianza hace que sea casi imposible de corregir el 10 por ciento de aquello en lo que están totalmente equivocados. Taber y Lodge encontrado este muy preocupante puesto que los pensadores sofisticados son aquellos en los que "la teoría democrática se basa con más fuerza."
En un mundo ideal, los ciudadanos serían capaces de mantener una atención constante, vigilando tanto la información que reciben como la manera en que su cerebro está procesando esa información. Pero mantenerse al día con las noticias lleva tiempo y esfuerzo.Y cuestionarlo todo continuamente, como siglos los filósofos han demostrado, puede ser agotador. Nuestros cerebros están en realidad diseñados para crear atajos cognitivos - inferencia, intuición, etc - para evitar precisamente ese tipo de molestias al hacer frente a la avalancha de información que recibimos a diario. Sin estos atajos pocas cosas podríamos hacer cada día. Desgraciadamente con su utilización somos presa fácil de las falsedades políticas.
Nyhan, en última instancia, recomienda un enfoque por el lado de la oferta. En lugar de centrarse en los ciudadanos y consumidores de información falsa, sugiere centrarse en las fuentes. Si aumentara el "costos de reputación" de producir mala información, sugiere, es posible que la gente deje de hacerlo tan a menudo. Así que si usted sale en un medio público y es machacado por decir algo engañoso ", dice," se lo pensaría dos veces antes de ir y hacerlo de nuevo. "
Desafortunadamente, esta solución basada en la vergüenza, puede ser tan razonable como inaplicable. Mientras que los charlatanes del la política han ascendido al reino del lucrativo entretenimiento popular los estudioso que realmente se dedican a la comprobación de los hechos languidecen en oscuras mazmorras fuera de los medios. encontrar un político o un ‘experto’ para argumentar directamente que George W. Bush ordenó el 09.11, o que Barack Obama es la culminación de una conspiración fraguada en cinco décadas por el gobierno de Kenia para destruir a los Estados Unidos - eso es fácil. Conseguir que esas gentes sientan la más mínima vergüenza, eso no es nada fácil.
How facts backfire, Joe Keohane.