Psicologia Disruptiva

O Blog da Psicologia 5.0

falacias

10 Falácias em Estatísticas e como evitá-lasTempo estimado: 5 minutos de leitura

Índice

Dados e estatísticas resolvem muitos problemas e otimizam o nosso tempo quando o assunto é tomar decisões.

Entretanto – assim como tudo o que possui o fator humano envolvido – a análise dos dados coletados é suscetível a erros, podendo apresentar interpretações e possíveis soluções que vão completamente ao sentido oposto do que seria o certo.

Nesta nova fase que estamos vivendo, os dados possuem muita validade, e por isso, os dados mal interpretados podem ser críticos para pessoas e Organizações.

Confira a seguir algumas falácias envolvendo dados e como evitá-las:

1.Evidência suprimida (Cherry Picking)

Assim como os dados podem facilitar nossa tomada de decisões, é necessário considerar que o fator humano possui falhas, e nós, enquanto tomadores de decisão, precisamos nos atentar aos deslizes que podemos cometer ao avaliarmos dados e estatísticas que comprovem o que nós já temos tendência a acreditar.

Vamos imaginar que você precisa fazer uma apresentação para provar um determinado ponto e, para isto, busca dados que comprovem que sua proposta é boa.


Em sua pesquisa você encontra dados que provam o seu ponto de vista mas também encontra dados que dizem o oposto ao que você quer provar.

O que você faz?

A nossa tendência cognitiva é ignorar ou invalidar aquilo que vai contra as nossas crenças iniciais. A fim de evitar compactuar com a falácia da evidência comprida, é necessário se dispor à contrariedade e tentar compreender o porquê dos vários pontos de vista que podem ir contra o que você acredita ser a verdade.

Se, por acaso, você receber dados de outras pessoas que provem um determinado ponto, pergunte-se: o que NÃO estou dizendo com estes dados?

2. Efeito Cobra (Cobra Effect)

Depois de te apresentarem dados sobre um determinado problema, como você busca resolvê-lo?

Outro cuidado que devemos tomar está relacionado à forma que imaginamos resolver um problema. Não basta termos os dados certos sobre a causa dos problemas se não entregarmos a solução que realmente o resolva.

O efeito cobra ocorre quando tentamos resolver um problema mas por consequência passamos a agravá-lo. Foi dado este nome porque, segundo a História, os britânicos em meados de 1850 tinham uma grande preocupação: a quantidade de cobras que estava aumentando cada vez mais e ameaçava a vida de muitas pessoas em Deli ( até então colônia britânica situada na Índia).

Para diminuir a quantidade de cobras, as autoridades passaram a incentivar financeiramente a população à caça de cobras. O grande problema é que alguns empreendedores começaram a enxergar na criação de cobras uma forma de ganhar a vida(criando cobras para depois matá-las e entregá-las às autoridades)

Quando o governo percebeu que a estratégia não estava dando certo, parou de remunerar os caçadores de cobras.

O resultado? os empreendedores que criavam cobras passaram a soltá-las, aumentando, assim, o número de cobras soltas pelas ruas – ou seja: uma solução que visava resolver um problema, passou a agravá-lo.

Ao definir incentivos e metas, pense nos contras e efeitos negativos que podem vir a acontecer.

3. P-hacking

O p-hacking – ou data draging – é a manipulação da pesquisa de modo que seja apresentado forçadamente os resultados positivos, aumentando o risco de falsos positivos.

Isso é feito a partir da execução de muitos testes estatísticos nos dados, relatando apenas aqueles que retornam com resultados significativos.

A aplicação de testes de significância estatística só funciona se você definiu sua hipótese previamente.

Historicamente, o p-hacking tem sido um problema em ensaios clínicos em que os pesquisadores ‘coletaram dados’ de seus resultados e mudaram para o escopo do que estavam testando.

Para evitar isso, agora está se tornando uma prática padrão registrar os ensaios clínicos, informando com antecedência qual o seu objetivo inicial.

4.Viés do sobrevivente (Survivorship bias)

O viés do sobrevivente é a tendência que temos a nos concentrar nos vencedores de um determinado acontecimento, ignorando a parcela que, por não terem vencido, se tornaram “dados invisíveis”.

Por exemplo, faça o simples exercício de perguntar ao Google “pessoas que fracassaram” e veja os resultados que aparecem.

Será que realmente a parcela de pessoas que fracassaram antes de atingir o sucesso é significativa diante da quantidade de pessoas que fracassaram e não conseguiram ter o seu nome lembrado?

Ao analisar dados, é importante se perguntar quais dados você não possui.

Às vezes, a imagem completa é obscurecida porque os dados que você obteve sobreviveram a uma seleção de algum tipo.

5. Falsa causalidade

A falácia da falsa causalidade ocorre quando dados que não tem nenhuma relação de causa e efeito apresentam um alto valor de causalidade. Este valor é representado por um coeficiente de Pearson elevado, entretanto, na prática estes dados não apresentam nenhuma relação.

Para evitar cair nesta falácia, nunca assuma uma correlação como verdadeira sem buscar outras evidências e pesquisas para isto.

Escrevi um pouco mais sobre esta falácia no artigo abaixo:

6. Amostra polarizada

A falácia da amostra polarizada consiste em dados que não possuem validade por serem coletados em um pequeno grupo onde a amostra utilizada apresenta as mesmas inclinações, por exemplo: perguntar apenas aos eleitores de esquerda o que acham do atual governo ou perguntar apenas aos eleitores do Bolsonaro a respeito da satisfação com o governo atual (2020).

Em ambos os casos, as amostras seriam polarizadas, não apresentando um panorama geral e, portanto, os dados não expressariam nada a respeito da nossa realidade atual.

7.Falácia do apostador ( Gambler’s Fallacy )

A falácia do apostador nos tendencia a “calcular” a chance de algo acontecer tomando por base a quantidade de vezes que isso já aconteceu em outros momentos.

A falácia do apostador também é conhecida como falácia de Monte Carlo pois faz alusão à algo que aconteceu num cassino de Monte Carlo numa mesa de roleta em 1913.

A bola caiu no preto 26 vezes seguidas e os jogadores perderam milhões apostando contra o preto. No entanto, a chance de preto é sempre a mesma do vermelho, independentemente do que aconteceu no passado.

Uma mesa de roleta não tem memória.

Quando tentado por essa falácia, lembre-se de o universo não tendencia pelo equilíbrio. Pense probabilidades matematicamente.

8.Efeito Hawthorne

Na década de 1920, em Hawthorne Works, uma fábrica de Illinois, um experimento em ciências sociais presumiu que os trabalhadores se tornariam mais produtivos após várias mudanças em seu ambiente, como horário de trabalho, níveis de iluminação e intervalos.

No entanto, descobriu-se que o que realmente motivou a produtividade dos trabalhadores foi alguém se interessar por eles.

Os sujeitos foram impactados positivamente por perceberem que a gerência se preocupava com eles.

Ao fazer pesquisas com seres humanos, é importante analisar os dados resultantes, levando em consideração este efeito.

9. Paradoxo de Simpson

Este é um paradoxo estatístico no qual é possível tirar duas conclusões opostas dos dados dependo da forma como você os seleciona. É preciso ir além da pura matemática, buscando compreender a relação de causalidade envolvida nos fatos.

Na década de 1970, a Universidade de Berkeley foi acusada de sexismo porque as candidatas eram menos propensas a serem aceitas do que as masculinas. No entanto, ao tentar identificar a fonte do problema, eles descobriram que, para indivíduos, as taxas de aceitação eram geralmente melhores para mulheres do que homens.

O paradoxo foi causado por uma diferença em que sujeitos homens e mulheres estavam se candidatando. Uma proporção maior de mulheres candidatas se candidatava a indivíduos altamente competitivos, onde as taxas de aceitação eram muito mais baixas para ambos os sexos.

10. Falácia de McNamara

Esta falácia ocorre quando as decisões são tomadas apenas com base em dados quantitativos, não tornando possível uma análise mais específica e qualitativa, dando espaço para análises incompletas e decisões imprecisas.

Foi assim nomeada em homenagem a Robert McNamara, o Secretário de Defesa dos EUA (1961-1968), que acreditava que a verdade só poderia ser encontrada em dados e rigor estatístico.

A falácia refere-se à sua abordagem de considerar a contagem de corpos inimigos como a medida do sucesso na Guerra do Vietnã.

Esta publicação foi inspirado em um post do site Geckoboard

Veja posts relacionados >>