in

Por que fatos não mudam a nossa opinião?

Por (originalmente publicada na New Yorker)

 

Em 1975, pesquisadores de Stanford convidaram um grupo de estudantes de graduação para participar de um estudo sobre suicídio. Eles foram apresentados com pares de notas de suicídio. Em cada par, uma nota tinha sido escrita por uma pessoa que posteriormente tinha tirado a própria vida. Os alunos foram então convidados a distinguir as notas genuínas das falsas.

Alguns alunos descobriram que tinham tino para a tarefa. Dos 25 pares de notas, eles identificaram a nota verdadeira em vinte e quatro. Outros descobriram que não tinha jeito para a tarefa e identificaram a nota real em apenas 10 casos.

Como é frequente com estudos psicológicos, a coisa toda era uma pegadinha. Embora metade das notas fosse realmente genuína – obtidas no escritório do legista do município de Los Angeles – os resultados eram fictícios. Os alunos que tinham sido informados que estavam quase sempre certos não eram, em média, mais exigentes do que aqueles que haviam sido informados de que estavam frequentemente errados.

Na segunda fase do estudo, a manobra foi revelada. Os alunos foram informados de que o verdadeiro fim da experiencia era calibrar suas respostas para que pensassem que estavam certos ou errados (acontece que isso também era um embuste). Finalmente, pediu-se aos alunos que estimassem quantas notas de suicídio eles haviam categorizado corretamente e quantas eles acreditavam que um aluno mediano perceberia como corretas. Neste momento, algo curioso aconteceu. Os alunos do grupo de alta pontuação disseram que achavam que eles tinham , de fato, obtido resultados significativamente melhores que os alunos médios – mesmo que, como eles acabavam de dizer, tivessem zero motivos para acreditar nisso. Por outro lado, aqueles que tinham sido associados ao grupo de baixa pontuação , disseram que tinham atingido resultados significativamente piores que o estudante médio – uma conclusão igualmente infundada.

“Uma vez formadas”, observam secamente os pesquisadores,”as impressões são notavelmente perseverantes”.

Alguns anos depois, um novo grupo de estudantes de Stanford foi recrutado para um estudo relacionado. Os estudantes receberam pacotes com informações sobre uma dupla de bombeiros, Frank K. e George H. A biografia de Frank mostrava que, entre outras coisas, ele tinha uma filha e que gostava de mergulhar. George tinha um filho pequeno e jogava golfe. Os pacotes também incluíam as respostas dos homens sobre o que os pesquisadores chamaram de “teste de escolha conservador” e de acordo com uma versão do pacote, Frank era um bombeiro de sucesso que, no teste, sempre foi com a opção segura. Na outra versão, Frank também escolheu a opção mais segura, mas ele era um péssimo bombeiro que tinha sido colocado”sob observação” por seus supervisores várias vezes. Mais uma vez, no meio do estudo, os alunos foram informados de que haviam sido enganados e que as informações que receberam eram inteiramente fictícias. Os alunos foram então convidados a descrever suas próprias crenças. Que tipo de atitude eles acreditavam que um bombeiro de sucesso teria em relação ao risco ? Os alunos que receberam o primeiro pacote pensaram que ele iria evitá-lo. Os alunos do segundo grupo pensaram q ele iria abraçá-lo.

Mesmo depois que a evidencia “para suas crenças fora totalmente refutada, as pessoas não conseguem fazer revisões adequadas nessas crenças” observaram os pesquisadores. Neste caso, a falha foi ”particularmente impressionante”, já que dois pontos de dados nunca teriam sido informação suficiente para generalizar.

Os estudos de Stanford tornaram-se famosos. Vindos de um grupo de acadêmicos nos anos 1970, a afirmação de que as pessoas não conseguem pensar direito foi chocante. Não é mais. Milhares de experimentos posteriores confirmaram(e detalharam) essa descoberta. Como todos os que seguiam essa pesquisa- ou até mesmo pegaram uma copia do Psychology Today ocasionalmente- sabem, qualquer aluno de pós-graduação com uma prancheta pode demonstrar que pessoas aparentemente razoáveis muitas vezes podem ser totalmente irracionais . Raramente essa percepção parece mais relevante que agora: como nos tornamos assim?

 

Em um novo livro “O Enigma da razão”, os cientistas cognitivos Hugo Mercier e Dan Sperber cutucam fundo ao responder essa pergunta. Mercier, que trabalha em um instituto francês de pesquisa em Lyon, e Sperber, agora sediado na universidade centro-europeia, em Budapeste, apontam q a razão é uma característica evolutiva, como o bipedalismo ou a visão tricolor. Ela surgiu nas savanas africanas, e deve ser entendida nesse contexto.

Despido do que se poderia chamar de ciência cognitiva, o argumento de Mercier e Sperber discorre mais ou menos da seguinte maneira: a maior vantagem dos humanos é a nossa capacidade de cooperar. Cooperação é algo difícil de estabelecer e difícil de manter. Para qualquer indivíduo, parasitismo é sempre o melhor rumo de ação. A razão não se desenvolveu para nos permitir resolver problemas abstratos, lógicos ou até mesmo para nos ajudar a tirar conclusões de dados desconhecidos; em vez disso, se desenvolveu para resolver os problemas colocados pela vida em grupos colaborativos.

“A razão é uma adaptação ao nicho hiperssocial em que os humanos evoluíram”, escrevem Mercier e Sperber. Hábitos mentais que parecem estranhos ou bobos ou simplesmente imbecis de um ponto de vista “intelectualizado” provam sua astucia quando vistos de uma perspectiva “interacionista” social.

Considere o que se tornou conhecido como “viés de confirmação”, a tendencia que as pessoas tem de adotar informações que confirmam suas crenças e rejeitar as informações que as contradizem. Das muitas formas de pensamento falho que foram identificadas, o viés de confirmação está entre os mais bem catalogados. É o assunto de livros didáticos inteiros e experiencias. Uma das mais famosas foi realizada, mais uma vez, em Stanford. Para esta experiencia, os pesquisadores reuniram um grupo de estudantes que tinham opiniões opostas sobre a pena de morte. Metade dos estudantes era a favor e pensava que isso dissuadia a pratica de crimes; a outra metade era contra e pensava que isso não tinha efeito nenhum sobre o crime.

Os alunos responderam a dois questionários. Um forneceu dados em apoio ao argumento da dissuasão, e o outro forneceu dados que colocavam a dissuasão em duvida. Ambos os estudos -advinha…- foram armados, e tinham sido projetados para apresentar o que eram objetivamente falando, estatísticas igualmente convincentes. Os estudantes que haviam inicialmente apoiado a pena de morte classificaram os dados pró-dissuasão como altamente convincentes e os dados anti-dissuasão como pouco convincentes; os estudantes que originalmente se opuseram à pena de morte fizeram o contrario . No final do experimento os alunos foram novamente perguntados sobre suas opiniões. Aquele que começaram a favor da pena capital estavam mais a favor dela; aqueles que se opunham a ela se tornaram ainda mais hostis.

Se a razão foi projetada para gerar julgamentos sólidos, então é difícil conceber uma falha de projeto mais séria do que um viés de confirmação. Imagine, Mercier e Sperber sugerem, um rato que pensa da maneira como fazemos. Esse tato, “inclinado a confirmar sua opinião de que não há gatos em torno”, se tornaria jantar logo. Na medida que o viés de confirmação leva as pessoas a descartar evidencias de ameaças novas ou subestimadas equivalente humano do gato da esquina- é uma característica que deveria ter sido excluída na seleção natural(?). O fato de que tanto nós quando ela sobrevivemos, Mercier e Sperber argumentam, prova que ela deve ter alguma função adaptativa, e essa função, eles sustentam, está relacionada à nossa “hiperssociabilidade”.

Mercier e Sperber preferem o termo “viés do meu lado da história”. Os seres humanos , apontam eles, não são aleatoriamente crédulos. Expostos ao argumento de outra pessoa, somos bastante hábeis em detectar as fraquezas. Quase invariavelmente, as posições sobre as quais estamos cegos são nossas.

Um experimento recente realizado por Mercier e alguns colegas europeus claramente demonstra essa assimetria. Os participantes foram solicitados a responder uma série de problemas simples de raciocínio. Eles foram convidados então a explicar suas respostas, e tiveram a chance de modificá-los se identificassem os erros. A maioria estava satisfeita com suas escolhas originais; menos de 15% mudaram de ideia na segunda etapa.

Na etapa 3, os participantes foram mostrados um dos mesmos problemas, juntamente coma sua resposta e a de outro participante, que chegou á uma conclusão diferente. Mais uma vez, eles tiveram a chance de mudar suas respostas. Mas um truque estava em jogo: as respostas apresentadas a eles como de outras pessoas eram as deles mesmos, e vice versa. Cerca de metade dos participantes perceberam o que estava acontecendo. Na outra metade, de repente as pessoas tornaram-se muito mais criticas. Quase 60% agora rejeitaram as respostas com as quais estavam satisfeitas antes.

Essa desorientação, de acordo com Mercier e Sperber, reflete a tarefa que a razão evoluiu para realizar, que é a de nos impedir de ser atormentado por outros membros do nosso grupo. Vivendo em pequenos bandos de caçadores-coletores, nossos ancestrais estavam perincipalmente preocupados com sua posição social, e coma certeza de que não seriam os que arriscariam suas vidas na caça enquanto outros andavam de um lado para o outro dentro da caverna. Havia pouca vantagem em raciocinar claramente, e muito a ser ganho vencendo discussões.

Na maioria,os problemas com os quais nossos ancestrais se preocupavam eram como os efeitos dissuasivos da pena de morte e os atributos do bombeiro ideal. Eles não tinham que lidar com estudos fabricados, noticias falsas ou com o Twitter. Não é de admirar, então, que hoje a razão muitas vezes pareça nos falhar. Como Mercier e Sperber escrevem, “este é um dos muitos casos em que o ambiente mudou muito rapidamente para a seleção natural correr atrás do prejuízo”.

Em um estudo conduzido em Yale , foi pedido aos estudantes de graduação que avaliassem sua compreensão do funcionamento dos dispositivos cotidianos, incluindo privadas, zíperes e fechaduras. Eles foram convidados a escrever explicações detalhadas, passo a passo como osa dispositivos funcionam, e então classificar a sua compreensão novamente. Aparent3mente, o esforço revelou aos alunos a sua própria ignorância por que o valor das suas próprias autoavaliações caiu.(privadas, aparentemente são mais complicadas que parecem.)

Sloman e Fernbach veem esse efeito, que chamam de “ilusão de profundidade explicativa” em quase todos os lugares. As pessoas acreditam que sabem muito mais do que realmente sabem. O que nos permite manter essa crença são as outras pessoas. No caso da sua privada, alguém projetou para que possa operá-la facilmente. Isso é uma coisa na qual os humanos são muito bons. Nós temos confiado na pericia uns dos outros desde que descobrimos como caçar juntos, o que foi , provavelmente, um avanço chave em nossa história evolucionária. Estamos tão bem colaborando, argumentam Sloman e Fernbach, que dificilmente podemos dizer onde o nosso entendimento das coisas acaba e onde o entendimento dos outros começa .

“um das implicações da naturalidade com a qual dividimos o trabalho cognitivo”, escrevem eles, é que não há”limite nítido entre as ideias e o conhecimento de uma pessoa” e “as de outros membros” do grupo.

Essa ausência de fronteiras,ou, se preferir, confusão, também é crucial para o que consideramos progresso. À medida que as pessoas inventavam novas ferramentas para novas formas de viver, criavam simultaneamente novos domínios de ignorância; se todos tivessem insistido, digamos, em dominar os fundamentos da metalurgia antes de pegar uma faca, a Idade do Bronze não teria rendido muito. Quando se trata de novas tecnologias, compreensão incompleta é empoderadora.

No domínio politico, segundo Sloman e Fernbach, é onde essa questão nos coloca em apuros. Uma coisa é limpar um banheiro sem saber como funciona uma privada, e outra é ser a favor(ou contra) um decreto anti-imigração se saber do se trata. Sloman e Fernbach citam um pesquisa realizada em 2014, pouco tempo depois que a Rússia anexou o território Ucraniano da Crimeia. Os entrevistados foram perguntados sobre como eles acreditavam que os EUA deveriam reagir também se eles conseguiam identificar a Ucrânia em um mapa. Quando longe passavam na geografia, mais provável o apoio a uma intervenção militar(os entrevistados estavam tão inseguros quanto á localização da Ucrânia que a média de ‘chute’ estava errada por mil e oitocentas milhas, aproximadamente a distancia entre Kiev e Madrid.)

pesquisas nesse sentido em vários outros assuntos renderam resultados igualmente desanimadores.” Via de  regra, sentimentos fortes sobre as questões não emergem de uma compreensão profunda”, escrevem Sloman e Fernbach. E aqui nossa dependência de outras mentes reforça o problema. Se sua posição sobre o “Affordabble Care Act” (N.T.: também conhecido como “Obamacare) for sem fundamento e eu acreditar nela, então a minha opinião também é sem fundamento. Quando eu falo com fulano e ele decide que conroda comigo, sua opinião também é infundada, mas agora que nós três concordamos, nos sentimos muito mais arrogantes sobre as nossas opiniões. Se todos nós rejeitarmos qualquer informação que contradiga a nossa e a considerarmos pouco convincente, ai teremos, bem, o governo Trump.

é assim que uma comunidade de informação pode se tornar perigosa” , observam Sloman e Fernbach. Os dois realizaram sua própria versão do experimento da privada, substituindo a politica publica por bugigangas domésticas. Em um estudo realizado em 2012, eles pediram às pessoas a sua posição sobre questões como :” deve haver um único sistema publico de saúde? Ou a remuneração dos professores deve ser baseada em seu rendimento em sala? Os participantes foram convidados a avaliar suas posições dependendo do quanto eles concordavam ou discordavam das questões propostas. Em seguida, foram instruídos a explicar, com o maior detalhamento possível, os impactos de cada questão. A maioria das pessoas , neste momento, entrou em apuros. Pedidos mais uma vez para avaliar suas opiniões, eles diminuíram a intensidade, de uma forma que concordaram ou discordaram com menos veemência.

Sloman e Fernbach veem neste resultado uma luz no fim do túnel. Se nós, nossos amigos ou os especialistas da CNN, passássemos menos tempo demarcando nossas posições e tentássemos trabalhar com as implicações das propostas politicas, perceberíamos como somos destituídos de clareza e moderaríamos nossas opiniões. Isso, escrevem eles, “pode ser a única forma de pensar que irá destruir a ilusão de profundidade explicativa e levar a uma mudança de atitude das pessoas”.

Uma maneira de olhar para a ciência é vê-la como um sistema que corrige as inclinações instintivas das pessoas. Em um laboratório bem administrado, não espaço para viés de opinião; os resultados tem que ser reproduzíveis em outros laboratórios, por pesquisadores q não tem nenhum motivo para confirmá-los. E isso, pode-se argumentar, é por que o sistema provou ser bem sucedido. A qualquer momento, um campo pode ser dominado por disputas, mas, no final, a metodologia prevalece. A ciência avança, mesmo quando permanecemos presos no mesmo lugar.

 

Uma maneira de olhar para a ciência é vê-la como um sistema que corrige as inclinações instintivas das pessoas. Em um laboratório bem administrado, não espaço para viés de opinião; os resultados tem que ser reproduzíveis em outros laboratórios, por pesquisadores q não tem nenhum motivo para confirmá-los. E isso, pode-se argumentar, é por que o sistema provou ser bem sucedido. A qualquer momento, um campo pode ser dominado por disputas, mas, no final, a metodologia prevalece. A ciência avança, mesmo quando permanecemos presos no mesmo lugar.

Em “Denying to the Grave: Why We Ignore the Facts That Will Save Us” Jack Gorman, psiquiatra e sua filha, Sara Gorman, especilista em saúde publica, investigam a lacuna entre o que a ciência nos diz e o que nós dizemos a nós mesmos. Sua preocupação é com essas crenças persistentes que não são apenas demonstravelmente falsas , mas também potencialmente fatais, como a convicção de que as vacinas são perigosas. Naturalmente, o que é arriscado é não se vacinar; por isso as vacinas foram criadas. “a imunização é um dos triunfos da ciência moderna” observam os Gorman. Mas não importa quantos estudos científicos concluam que as vacinas são seguras e que não há nenhuma ligação entre imunização e autismo, anti-vaxxers permanecem com opiniões imutáveis.(eles podem contar com o apoio- ou coisa do tipo- de Donald Trump, que disse que embora ele e sua esposa tivessem vacinado seu filho Barron, eles se recusaram a fazer na frequência recomendada pelos pediatras.)

Os Gorman também argumentam que formas de pensar que hoje se mostram auto destrutivos, em algum momento devem ter tido função adaptativa. Ele também dedicam muitas páginas no seu livro ao ciés de confirmação que segundo eles tem um componente fisiológico. Eles citam pesquisas que sugerem que as pessoas experimentam prazer genuíno -uma onda de dopamina- ao processar informações que apoiam suas crenças.”é bom ‘manter nossas armas’, mesmo que estejamos errados” observam.

Os Gorman não querem catalogar apenas as formas pelas quais erramos; eles querem corrigi-las. Deve haver alguma maneira, sustentam eles, de convencer as pessoas que vacinas são boas para seus filhos, e que as armas de fogo são perigosas (outra crença generalizada, mas sem suporte nas estatísticas, que eles gostariam de demonstrar que ter uma arma não te deixa mais seguro) mas aqui eles encontram os mesmos problemas que enumeraram antes. Fornecer informações precisas às pessoas não aprece ajudar. Apelar para suas emoções, parece funcionar melhor, mas fazê-lo é obviamente anti-ético ao objetivo de dar eco à ciência. “o desafio que continua”, escrevem ao fim de seu livro, “é descobrir como abordar as tendencias que levam à falsa crença cientifica”.

O “O Enigma da Razão”, “A Ilusão do Conhecimento” e “Denying do the Grave” foram todos escritos antes da eleição de novembro(N.T: de 2016, que elegeu Donald Trump). No entanto, eles anteciparam Kellyanne Conway na surgimento da “pós-verdade”. Hoje, é possível perceber como todo o país aprece entregue a um vasto experimento psicológico sendo executado ou por ninguém , ou por Steve Bannon. Os agentes da racionalidade poderiam pensar em uma possível solução. Mas sobre este assunto, a teoria não é tranquilizadora.

 

Facebook Comments Box

Written by Pimentel

cozinheiro, propagandista, rabisca uns textos de vez em quando....