lunes, 11 de abril de 2016

Perú o Masoquilandia

-No, por lo visto no hemos aprendido nada de la historia y volvemos a cometer los mismos errores del pasado.

Casi gana la hija del ex dictador pero la gente tan reflexiva como una piedra le ha dado mayoría en el Congrezoo. Me niego a llamarlo Congreso.

El que su padre esté en la cárcel por una serie de delitos -masacres, corrupción, etc.- y de todo lo demás que pasó a los peruanos en gran parte todo eso les importa un rábano.

P.P. Kuczynski no me da ninguna confianza con sus cambios de opinión como si fuera una tortilla.


Ya casi me da igual quien gane porque serán otros 5 años de porquería desperdiciados llenos de pleitos y retrocesos, y seguiremos jodidos.


-Estados Unidos se va a recontrajoder si elige a ese tipejo insoportable y xenófobo llamado Donald Trump.

No es o sería ninguna novedad que eso pase porque aún 20% de idiotas de allá sigue creyendo que Nixon fue un héroe.

Claro, Watergate y todo lo demás ya fue olvidado por los que sufren de una especie de hipócrita amnesia selectiva.

No digo nada más del resto del mundo porque cada país tiene los gobernantes que se merece.


Qué manera tiene cada estado para complicarse la vida.
 

Y este espectáculo tan lamentable continuará hasta el fin del mundo.

sábado, 2 de abril de 2016

Por qué tendemos a creernos todo lo que nos dicen

Por


i alguna vez necesitas pruebas de la credulidad del ser humano, permíteme hablarte del "ataque de las bananas come-carne".

En enero de 2000, una cadena de correos electrónicos comenzó a reportar que bananas importadas estaban afectando a quienes las comían con una "fascitis necotrizante", una rara enfermedad por la cual la piel se brotaba de burbujas color púrpura antes de desintegrarse y dejar expuestos los músculos y los huesos.

Según la cadena de emails, la FDA (el organismo de control de alimentos en Estados Unidos) estaba tratando de ocultar la epidemia para evitar el pánico.

El texto exhortaba a los lectores a regar la voz entre sus familiares y amigos.

Se trataba de algo sin ninguna clase de sentido, por supuesto. Pero para el 28 de enero, la preocupación se había vuelto lo suficientemente grande como para que el Centro de Control de Enfermedades de Estados Unidos (CDC, por sus siglas en inglés) emitiera una declaración desmintiendo el rumor.

¿Eso ayudó? Ni por casualidad. Más bien le echó leña al fuego.

En unas pocas semanas, el CDC estaba recibiendo tantas llamadas de personas angustiadas que tuvo abrir una línea especial para el tema de las bananas.

Los hechos fueron distorsionados de tal forma que, eventualmente, la gente comenzó a decir que el CDC era la fuente del rumor.

Incluso hoy variantes del mito vuelven a avivar temores de vez en cuando.

Puede que esto nos cause risa; tanto como otros mitos urbanos, incluida la teoría según la cual Paul McCartney, Miley Cirus y Megan Fox fueron, de hecho, asesinados y reemplazados por dobles.

Pero las mismas grietas en nuestra lógica que dan cabida a estas ideas son las que permiten la propagación de otras más peligrosas, tales como la creencia de que el VIH es inocuo, que los suplementos vitamínicos pueden curar el sida, que los ataques del 11 de septiembre fueron obra del propio gobierno estadounidense o que el papel aluminio impide que el FBI te lea el pensamiento.

¿Por qué tantas creencias falsas persisten cuando hay evidencia dura que las desmiente?

¿Y por qué tratar de negarlas sólo alimenta el molino de los rumores?

No es cuestión de inteligencia; incluso premios Nobel han caído por inocentes con ciertas teorías sin ninguna base.

Pero una serie de avances psicológicos pueden ofrecer algunas respuestas, mostrando cuán fácil es construir un rumor que burle los filtros contra el engaño del cerebro.
 Ahorro de tiempo y energìa

Una explicación algo aleccionadora es que todos somos unos "tacaños cognitivos". Es decir, para ahorrar tiempo y energía, nuestro cerebro utiliza la intuición en vez del análisis.
A manera de ejemplo simple, responde rápidamente a las siguientes preguntas:
  • ¿Cuántos animales de cada tipo iban en el Arca de Moisés?
  • ¿De qué país fue presidenta Margaret Thatcher?
Entre el 10% y el 50% de quienes participaron en un estudio en el que se formulaban estas dos preguntas no notaron que fue Noé, y no Moisés, quien construyó el Arca, y que Margaret Thatcher fue primera ministra -no presidenta-, aún cuando se les había pedido explícitamente que se fijaran en detalles inexactos.

 Conocido como la "Ilusión de Moisés", este despiste ilustra cuán fácilmente dejamos pasar los detalles de una afirmación, favoreciendo la impresión general que nos deja en lugar de lo específico.

En este sentido, normalmente juzgamos si algo se "siente" bien o mal antes de aceptar o rechazar un mensaje.

"Incluso si 'sabemos' que deberíamos prestar atención de los hechos y la evidencia, simplemente nos asimos de los sentimientos", dice Eryn Newman, investigadora de la Universidad del Sur de California, cuyo próximo trabajo recoge la investigación más reciente en materia de desinformación.

Basada en los estudios hasta la fecha, Newman sugiere que nuestras reacciones instintivas giran alrededor de cinco preguntas simples:
  • ¿Proviene el dato de una fuente creíble?
  • ¿Otras personas creen en él?
  • ¿Hay suficiente evidencia para apoyarlo?
  • ¿Es compatible con lo que creo?
  • ¿Cuenta una buena historia?

Crucialmente, nuestras respuestas a cada uno de estos puntos pueden verse afectadas por detalles frívolos que no tienen nada que ver con la verdad.

Opinadores de Oficio

Considera por un momento la cuestión de si otros creen en una afirmación o no, así como el tema de si la fuente es creíble.

Tendemos a confiar en personas que nos son familiares, lo que significa que mientras más vemos a un opinador de oficio, más rápido comenzamos a creer en lo que dice.

"El hecho de que no se trata de un experto no entra en nuestra ponderación de la verdad", indica Newman.

Aun más, no llevamos la cuenta de cuántas personas apoyan una visión.

Cuando ese opinador de oficio repite la idea en incontables programas (de radio o televisión), crea la ilusión de que la opinión es más popular de lo que realmente es. De nuevo, el resultado es que tendemos a aceptarlo como si fuera la verdad.

Fluidez Cognitiva

Luego está la "fluidez cognitiva" de una afirmación: esencialmente, si cuenta una historia buena y coherente que es fácil de imaginar.

"Si algo se siente fácil de procesar, por defecto tendemos a esperar que sea verdad", dice Newman.
Esto es particularmente cierto si un mito calza o se ajusta sin problemas a nuestras expectativas.

Si algo se siente fácil de procesar, por defecto tendemos a esperar que sea verdad"
Eryn Newman, investigadora
"Tiene que ser pegajoso, una frase o una cita que se vincule con lo que sabes, que reafirme lo que crees", añade Stephan Lewandowsky, de la Universidad de Bristol, en Reino Unido, quien ha examinado la psicología de quienes niegan el cambio climático.

Una presentación pulida eleva instantáneamente la fluidez cognitiva de una afirmación, incrementado su credibilidad.

En un estudio reciente, Newman le mostró a los participantes un artículo (falso) que decía que un conocido cantante de rock había muerto.

Era más probable que las personas lo creyeran si el artículo aparecía junto a una foto del cantante, simplemente porque era más fácil traerlo a la mente, elevando la fluidez cognitiva de la afirmación.

De manera similar, escribir en un tipo de letra fácil de leer o hablar con buena enunciación incrementan la fluidez cognitiva.

De hecho, Newman ha demostrado que algo aparentemente sin consecuencias como el sonido del nombre de una persona puede hacer que nos inclinemos hacia un lado: mientras más fácil sea pronunciarlo, más probable es que aceptemos sus opiniones.

 A la luz de estos descubrimientos puede entenderse por qué el temor a las bananas come-carne era tan contagioso.

Por un lado, la cadena de emails venía de personas en las que las personas confiabans inherentemente -sus amigos-, incrementando la credibilidad de la afirmación y haciéndola parecer más popular.

El concepto mismo era vívido y fácil de imaginar (tenía fluidez cognitiva). Y si por casualidad la persona no confiaba en la FDA o en el gobierno, la idea de un ocultamiento hubiera calzado fácilmente en la visión que tenía del mundo.

Contraproducente

Esa avaricia cognitiva también puede ayudar a explicar por qué los esfuerzos por corregir un mito han sido contraproducentes de manera espectacular, como descubrió el CDC en carne propia.

Experimentos de laboratorio confirmaron que ofrecer evidencia que contradice la afirmación sólo fortalece la convicción de la persona.

 En apenas 30 minutos puedes ver un efecto de rebote, en el que la gente está aun más dispuesta a creer que la afirmación original es verdad", dice Newman.

El problema, dice, surge de nuestras memorias profundamente imperfectas.

Corregir los hechos "funcionaría muy bien si pudiéramos rebobinar y recordar cosas como si fueran videos, pero años de investigación demuestran que la memoria no es perfecta, que llenamos los vacíos y que perdemos información", señala.

Còmo reparar el daño

Como consecuencia de estas flaquezas, nos vemos atraídos instantáneamente por los detalles más jugosos de una historia -el mito original-, mientras que olvidamos el pequeño hecho de que se ha demostrado que es falsa.

Todavía peor, al repetir el mito original, la corrección incrementa la familiaridad de la afirmación.

Y, como ya hemos visto, la familiaridad engendra credibilidad. En vez de desterrar el mito, la bien intencionada corrección simplemente lo enraiza más.

Un mito desmentido puede dejar un agujero incómodo en la mente.

Lewadowsky explica que nuestras creencias están integradas en nuestros "modelos mentales" de cómo funciona el mundo: cada idea está interrelacionada con nuestras otras visiones.

Es como un libro muy bien empastado: una vez que arrancas una página, otras pueden comenzar a despegarse.

Terminas con un agujero negro en tu representación mental, y a la gente no le gusta eso", señala el especialista.

Para evitar la incomodidad, preferimos aferrarnos al mito a que todo nuestro sistema de creencias se desmorone.

Afortunadamente, hay formas más efectivas de corregir errores y hacer que la verdad prevalezca.
Para empezar, debes evitar repetir la historia original (en lo posible)y tratar de crear toda una alternativa para remendar la ruptura en el modelo mental.

"Si te digo que la Luna no está hecha de queso, te será difícil abandonar la creencia. Pero si te digo que no es de queso sino de roca, te dejaré con una idea de cómo es la Luna (en vez de con un vacío)", explica Lewandosky.

Newman coincide en que se trata de una estrategia útil.

Por ejemplo, en el caso de los temores a las vacunas supuestamente vinculadas con el autismo, sugiere construir una narrativa alrededor del fraude científico que dio lugar al miedo, en vez de escribir el típico artículo "desmintiendo el mito" que, sin quererlo, refuerza el estado de desinformación.

Andrew Wakefield manipuló elementos de investigación que apuntaron, erróneamente, a un vínculo entre vacunas y autismo.

Cualquiera sea la historia que elijas, debes incrementar la fluidez cognitiva con un lenguaje claro, imágenes y una buena presentación.

Y repetir el mensaje, solo un poco pero con frecuencia, ayudará a mantenerlo fresco en la mente.

 Pronto comenzará a sentirse tan familiar y cómodo como el mito, y la ola de opinión debería comenzar a cambiar de sentido.

Como mínimo, mantenerse consciente de estos fallos en el pensamiento te ayudará a identificar cuándo te han engañado.

Siempre vale la pena preguntarse si has pensado cuidadosamente en las cosas que escuchas y lees.

¿O estas siendo un tacaño cognitivo, persuadido por sentimientos subjetivos más que los hechos?

Algunas de tus opiniones más establecidas podrían no tener más sustancia que el gran fraude de las bananas de 2000.


Fuente:

http://www.bbc.com/mundo/especial/vert_fut/2016/04/160329_vert_ciencia_por_que_somos_credulos_yv



Por qué es crucial cuidarse de ingerir demasiadas proteínas