Economista influyente Tim Harford: «Cuando las personas están mejor informadas, las controversias en realidad aumentan»


Tim Harford, economista.Estatua Matt Writtle / Evening Standard / Eyevine

Uno de los libros de estadística más populares de todos los tiempos trata sobre cómo hacer trampa con los números. Cómo mentir con estadísticas salió en 1954 y se han vendido más de un millón. Pinta las estadísticas como un truco de mago, cree Tim Harford (48): todo agradable y agradable, pero nada para tomar en serio.

El economista y columnista del periódico económico británico Tiempos financieros se ha vuelto cada vez más perturbado por esto a lo largo de los años. “¿Qué dice sobre las estadísticas, y sobre nosotros, que el libro más exitoso sobre el tema de la A a la Z sea una advertencia contra la desinformación?”, pregunta en un comentario. Cómo hacer que el mundo sume

Ese libro de 2020, que ahora ha sido traducido al holandés. (Los números pueden salvar el mundo), debe ser un antídoto, una oda a los beneficios de los números. Ofrecen esperanza, porque muestran avances en alfabetización, democracia y sufragio femenino. La escolarización también para las niñas, el acceso a agua limpia, los rendimientos agrícolas y el precio de la energía solar.

Al menos, si los números se usan correctamente. Harford ilustra con ejemplos sorprendentes lo que sucede cuando este no es el caso. Por ejemplo, algunos cirujanos cardíacos se niegan a operar a sus pacientes más enfermos porque temen que esto reduzca su tasa de éxito. Inteligente de esos cirujanos, claro, pero los pacientes que son abandonados no lo aplaudirán.

Confía en mí, soy economista.

Harford se hizo un nombre como un maestro en el uso de la teoría económica para resolver problemas cotidianos, como por qué el empaque de marca privada es tan feo (debería disuadir a los clientes que pueden pagar más por el producto de marca). De su libro más popular. El economista encubierto también el nombre de su columna semanal en el Tiempos financieros – desde 2005, se han vendido más de un millón de copias, en treinta idiomas. En sus escritos navega con soltura por la economía, la psicología, la sociología y la historia. También es el travieso presentador de programas de radio y televisión en la BBC, entre ellos Más o menos y Confía en mí, soy economista

Sentado en su estudio de Oxford, frente a un ordenador y frente a un imponente micrófono (‘for my radio work’), Harford se muestra profundamente británico, cada centímetro un caballero† Si la conexión de video en Amsterdam se rompe, él es quien se disculpa por eso.

Estamos mejor con números, enfatiza Harford. ¿De qué otra forma habríamos sabido que fumar puede provocar cáncer, o qué tan grande es el problema de la desigualdad? Su declaración viene con una advertencia importante, que es que tenemos que apegarnos a las reglas de las buenas estadísticas.

Eso plantea el inevitable cliché de que puedes probar cualquier cosa con números, incluso sin mentir. Basta con mirar el debate en los Estados Unidos sobre el derecho al aborto. Los defensores apuntan a las encuestas que muestran que la mayoría de los estadounidenses están a favor. Los opositores señalan sutilmente que todos los defensores del aborto nacieron y, por lo tanto, podrían participar en la encuesta.

Harford frunce el ceño, diciendo que aún no ha escuchado ese último argumento. En cualquier caso, es original, pero aprieta. Me parece un argumento igualmente bueno contra las encuestas de opinión sobre anticonceptivos. Todas las personas que fueron concebidas de manera diferente tampoco tienen voz en eso.’

Prejuicio precocido

Sin embargo, toca una pregunta más amplia que siempre debemos hacernos, dice. ‘¿A quién extrañas? ¿Quién no está representado? No siempre hay respuestas claras. Por ejemplo, ¿qué haces con las personas que aún no han nacido? Vivirán en un futuro con el cambio climático provocado por sus predecesores, que nada pudieron hacer para evitarlo.’

La afirmación ‘medir es saber’ tiene, por tanto, sus limitaciones. También puede conducir a la discriminación. Por ejemplo, el gobierno holandés tuvo que admitir recientemente que había habido «racismo institucional» en las autoridades fiscales durante años. No solo por correos electrónicos internos que eran condescendientes con ciertos grupos de población, sino también por el uso de perfiles de riesgo. Por ejemplo, se utilizó la nacionalidad, por lo que alguien que no era holandés se consideraba más sospechoso. Los musulmanes que habían hecho una donación a una mezquita fueron incluidos en una lista negra de posibles estafadores.

Harford no se sorprende cuando se entera del escándalo holandés. ‘Si entrenas un algoritmo con un sesgo preconcebido sobre cómo se ve el mundo, ese algoritmo aprende a ser sesgado. Hará más del mal, ya sea técnica o moralmente mal. Si hay racismo en él, se copiará más rápido que nunca y a escala industrial. Por otro lado, es mucho más fácil de descubrir.

¿Cómo es eso?

‘Si las personas en las autoridades fiscales están predispuestas hacia las personas con apellido extranjero, esa desventaja puede pasar desapercibida y, por lo tanto, es difícil de detectar. Pero si hay una hoja de cálculo que marca sistemáticamente a muchas personas, puedes analizar quiénes son y por qué. Así se puede identificar el problema.

¿Qué sucede si existe un vínculo estadístico entre un determinado grupo de personas y el fraude? Por ejemplo, donantes a una mezquita. Las autoridades fiscales pueden decir: buscaremos dónde se puede encontrar más según los datos.

‘Esa es una decisión que debe ser discutida en una sociedad democrática. Puede indicar claramente que no puede discriminar por determinados motivos, como la raza, el género, la sexualidad o la religión, incluso si tiene información de que existe una distinción entre estos grupos.

‘Permítanme dar otro ejemplo que es fundamentalmente sobre lo mismo, pero sobre el cual la gente piensa de manera muy diferente. Las mujeres tienen menos probabilidades de sufrir daños o tener un accidente con su automóvil que los hombres. Realmente no sabemos por qué. Tal vez los hombres son peores conductores, tal vez solo conducen más. Como asegurador, es relevante saber si el tomador de la póliza es hombre o mujer. Pero desde 2012, las regulaciones europeas han prohibido a las aseguradoras discriminar por motivos de género en sus primas. ¿Es eso justo para las mujeres, que tienen que pagar más para cubrir los riesgos adicionales de los hombres? Esta no es una cuestión estadística, es una cuestión ética y política.’

El pasaje más deprimente del libro de Harford trata sobre los peligros de una mejor información y números. Más detalles a menudo nos brindan más oportunidades para encontrar debilidades en los argumentos de otras personas, dice el británico. Se refiere a un estudio de 2006 realizado por dos politólogos que querían examinar cómo razonaban los estadounidenses sobre el control de armas y la acción afirmativa, dos temas controvertidos en Estados Unidos.

Los participantes en el experimento tenían que leer los argumentos a favor y en contra y juzgar qué tan buenos eran. La suposición era que esto les daría una mayor comprensión del punto de vista de los disidentes. Nada resultó ser menos cierto. La nueva información resultó alejar aún más a los participantes. «El efecto contrario a la intuición es que las personas a las que se les presenta un argumento detallado y equilibrado de puntos de vista opuestos sobre un tema tienen más probabilidades de ser empujadas fuera del medio que atraídas hacia él», concluye Harford.

Esto es especialmente cierto para temas controvertidos sobre los cuales las personas ya tienen opiniones firmes. “Si la nueva información respalda esa opinión o parece confirmar nuestras ideas preconcebidas, es muy bienvenida. Si no, encontramos esos argumentos irritantes y buscamos maneras de negar la evidencia que no nos gusta. Eso significa que esos argumentos son aún más detestables.

Cuando estamos mal informados, somos fácilmente engañados. Cuanto más sabemos al respecto, menos matizados queremos pensar en ello. Parece imposible ganar.

‘El pecado original aquí es la polarización y la parcialidad. Cuando las personas están dispuestas a ganar una pelea política, es poco lo que se puede hacer al respecto. Puede darles nueva información, pero no estarán abiertos a ella si no se adapta a su stand. A menos que pueda reducir la intensidad y conseguir que la gente se interese genuinamente en lo que piensa la otra parte y en las lagunas que existen en su propio conocimiento.

‘No es fácil, porque las personas con prejuicios creen que no tienen prejuicios. Por supuesto que no. Pero eso significa que cualquiera que se desvíe de su postura política ‘razonable’ debe estar equivocado’.

¿Cómo combate la información errónea que la gente no comparte voluntariamente?

‘A menudo no prestamos atención a si algo es cierto o no. Leemos noticias o publicaciones en las redes sociales de una manera diferente: ¿hay algo interesante, puedo compartirlo o retuitearlo? En un estudio reciente sobre desinformación, los académicos preguntaron a los usuarios de Twitter si creían que el titular de un artículo en particular era correcto o no. Lo interesante no es tanto lo que respondieron, sino cómo cambió su comportamiento en la red social durante las siguientes 48 horas. Parecían retuitear mucha menos información errónea simplemente porque una vez se les pidió que pensaran si algo era cierto o no. En ese sentido, es bueno que Twitter pregunte a sus usuarios si realmente quieren retuitear un mensaje si no han hecho clic en el enlace al artículo que contiene.

Como dijo una vez el cineasta Orson Welles: “Una vez que las personas se interesan, entienden todo lo que hay en el mundo. El problema es conseguir que se interesen».



ttn-es-23