Toda vez que há um desastre nacional, um evento gigantesco, um tiroteio, um avanço, realmente qualquer novidade, você pode confiar nos noticiários da televisão para encontrar um especialista. Alguns deles sabem muito sobre o que aconteceu, o que acontecerá e por quê. Mas quando se trata de um monte de especialistas, eles realmente não têm idéia do que estão falando.
O blogueiro Eric Barker aponta que os prognósticos dos especialistas políticos são apenas ligeiramente melhores do que um palpite aleatório, e muito pior do que um modelo estatístico. Na verdade, os chamados especialistas eram melhores em prever eventos fora de seu próprio campo. Barker aponta para um estudo dos anos 80, quando Philip Tetlock teve 284 "especialistas" políticos fazendo cerca de cem previsões. O estudo está resumido no livro Tudo é óbvio * Uma vez que você conhece a resposta:
Para cada uma dessas previsões, Tetlock insistiu que os especialistas especificassem quais dos dois resultados esperavam e também atribuíam uma probabilidade à sua previsão. Ele fez isso de uma forma que previsões confiantes marcaram mais pontos quando corretas, mas também perderam mais pontos quando erradas. Com essas previsões em mãos, ele então se sentou e esperou que os eventos se desenrolassem. Vinte anos depois, ele publicou seus resultados, e o que ele encontrou foi impressionante: embora os especialistas tenham se saído um pouco melhor do que adivinhações aleatórias, eles não tiveram um desempenho tão bom nem mesmo um modelo estatístico minimamente sofisticado. Ainda mais surpreendentemente, os especialistas fizeram um pouco melhor quando operavam fora de sua área de especialidade do que dentro dele.
Outro estudo descobriu que “especialistas” que tentam prever o resultado dos casos da Suprema Corte não eram muito melhores do que um computador. O mundo viu evidências disso em sua recente decisão sobre cuidados de saúde, surpreendendo quase todos os “especialistas” por aí.
Mas isso é política. Outros campos devem ser melhores, certo? Não. A tecnologia é da mesma maneira. Outro cientista analisou a precisão das previsões de tendência de tecnologia. Cerca de oitenta por cento deles estavam errados, independentemente de essas previsões terem sido feitas por especialistas ou não.
Em 2005, Tetlock escreveu um livro sobre a previsão de especialistas chamado “Perito do Julgamento Político: quão bom é? Como podemos saber? ”Nele, ele explica que os especialistas não apenas estão errados, mas quase nunca são chamados para isso. The New Yorker explica:
Quando estão errados, raramente são responsabilizados e raramente admitem isso. Eles insistem que estavam fora do prazo, ou foram pegos de surpresa por um evento improvável, ou quase certo, ou errado pelas razões certas. Eles têm o mesmo repertório de auto-justificativas que todo mundo tem, e não estão mais inclinados do que ninguém a revisar suas crenças sobre a maneira como o mundo funciona, ou deveria funcionar, só porque cometeram um erro.
Tetlock ressalta que, apesar de sermos terríveis nas previsões, os especialistas se encaixam em dois “estilos cognitivos” quando estão fazendo essas previsões: raposas e ouriços. O Huffington Post resume:
Raposas sabem muitas coisas, enquanto ouriços sabem uma coisa grande. Ter um conhecimento profundo de um assunto restringe o foco e aumenta a confiança, mas também embaça pontos de vista divergentes até que eles não sejam mais visíveis, transformando a coleta de dados em confirmação de preconceito e transformando o auto-engano em autoconfiança. O mundo é um lugar confuso, complexo e contingente, com inúmeras variáveis intervenientes e fatores confusos, com os quais as raposas se sentem confortáveis, mas os ouriços não são. Os que menos pontuaram no estudo de Tetlock foram “pensadores que 'sabem uma coisa grande', agressivamente estender o alcance explicativo dessa grande coisa em novos domínios, mostrar impaciência com aqueles que“ não entendem ”e expressar confiança considerável de que são Em contraste, diz Tetlock, os maiores pontuadores foram "pensadores que conhecem muitas pequenas coisas (truques de seu ofício), são céticos em relação a grandes planos, veem explicação e previsão não como exercícios dedutivos, mas como exercícios em flexíveis". “mantimentos” que exigem que se coloquem diversas fontes de informação e sejam bastante desconfortáveis com suas proezas de previsão. ”
Mas e a técnica das 10.000 horas? Você realmente gastou apenas 10.000 horas para ter apenas uma chance um pouco melhor que aleatória em prever o resultado do seu campo escolhido? Provavelmente. Barker cita outro livro, Talent Is Overrated: O que realmente separa os artistas de classe mundial de todos os outros:
Uma extensa pesquisa em uma ampla gama de campos mostra que muitas pessoas não apenas deixam de se tornar excepcionalmente boas naquilo que fazem, não importa quantos anos gastam fazendo isso, elas frequentemente não conseguem nem melhor do que quando começaram.
Em campo após campo, quando se tratava de habilidades centralmente importantes - corretores recomendando ações, oficiais de liberdade condicional prevendo reincidência, funcionários de admissão em universidades julgando candidatos - pessoas com muita experiência não eram melhores em seus empregos do que aquelas com pouca experiência.
A moral aqui? Nós realmente não temos ideia do que vai acontecer, nunca.
Mais de Smithsonian.com
Como ganhar dinheiro prevendo as Olimpíadas
Cientistas italianos podem enfrentar julgamento por não prever o terremoto de 2009