Ataque ao conhecimento é a maior ameaça global na era da pós-verdade
GETTY IMAGES
Legenda: Os chamados filtros bolha podem levar a comunidades que vivem lado a lado com crenças radicalmente diferentes. Foto Wang Zhao
Por Elizabeth Seger
Muitas pessoas aderiram, mas algumas foram mais resistentes às recomendações. Informações falsas sobre vacinas e máscaras, tratamentos ineficazes e rumores infundados sobre as origens da covid-19 tornaram extremamente difícil coordenar o comportamento dos cidadãos.
Esta resposta fragmentada a um grande evento mundial demonstra uma tendência preocupante que é um mau presságio para outras crises que poderemos enfrentar no século 21, de futuras pandemias às mudanças climáticas.
Na era da pós-verdade, está se tornando cada vez mais difícil garantir que todos estejam bem informados. Em outras palavras, mesmo que estivesse claro como salvar o mundo, um ecossistema de informações degradado e não confiável poderia impedir que isso acontecesse.
Em um relatório recente (em inglês) publicado pelo Instituto Alan Turing, no Reino Unido, meus colegas e eu argumentamos que essa mudança é nada menos do que uma ameaça à própria segurança global.
Os termos "segurança nacional" ou "cibersegurança" são familiares. Mas defendemos que mais atenção deve ser dada à "segurança epistêmica" — porque sem ela, nossas sociedades perderão a capacidade de responder aos riscos mais graves que enfrentaremos no futuro.
Se a segurança doméstica diz respeito a garantir que nossos pertences estão seguros, a segurança financeira se propõe a manter nosso dinheiro seguro, e a segurança nacional trata de manter nosso país seguro, então segurança epistêmica significa manter nosso conhecimento seguro.
Episteme é um termo filosófico grego que significa "saber". A segurança epistêmica, portanto, envolve a garantia de que realmente sabemos o que sabemos, que podemos identificar alegações sem fundamento ou que não são verdadeiras, e que nossos sistemas de informação são robustos a "ameaças epistêmicas", como notícias falsas.
Em nosso relatório, analisamos potenciais contra-medidas e áreas de pesquisa que podem ajudar a preservar a segurança epistêmica em sociedades democráticas.
Mas neste artigo, vamos examinar quatro tendências principais que exacerbaram o problema e tornaram cada vez mais difícil para as sociedades responderem a desafios e crises urgentes:
1. Escassez de atenção
No século 13 — bem antes da invenção da imprensa na Europa —, estudiosos já reclamavam da sobrecarga de informações. Em 1255, o dominicano Vicente de Beauvais escreveu sobre "a infinidade de livros, a falta de tempo e os deslizes da memória".
No entanto, a internet tornou quantidades enormes de informações difíceis de verificar mais facilmente acessíveis do que nunca. É complicado filtrar que boatos são verdadeiros e quais não são. Nossa capacidade limitada de atenção é simplesmente muito dispersa.
A abundância de informações e as limitações de atenção criaram uma "economia da atenção" feroz, na qual governos, jornalistas, grupos de interesse, entre outros, precisam competir por visualizações.
Infelizmente, algumas das estratégias mais eficazes para chamar a atenção apelam para as emoções e crenças existentes das pessoas, e essas fontes são ambivalentes quanto à verdade.
2. Filtro bolha e racionalidade limitada
Uma consequência particularmente preocupante da economia da atenção é a formação de filtros bolha, em que as pessoas são expostas sobretudo às suas próprias crenças, e pontos de vista divergentes são filtrados.
Diante da sobrecarga de informações, as pessoas preferem naturalmente prestar mais atenção a indivíduos com a mesma mentalidade que pertencem a suas próprias comunidades do que a desconhecidos de fora.
Por meio das plataformas de rede social, é mais fácil do que nunca formar e fazer parte de comunidades unificadas por crenças e valores compartilhados.
A consequência epistêmica dos filtros bolha é chamada de "racionalidade limitada". Se o acesso à informação é a base do bom raciocínio e da tomada de decisão, então limitar o acesso de alguém a informações potencialmente relevantes, ao ficar entrincheirado em filtros bolha, limitará a capacidade de raciocinar bem.
3. Adversários e desajeitados
É mais fácil do que nunca distribuir e acessar informações. A desvantagem é que essas mesmas tecnologias também tornam mais fácil para as pessoas espalhar informações falsas ou enganosas — seja intencional ou acidentalmente.
Atores (indivíduos, organizações ou Estados) que manipulam informações intencionalmente para confundir ou enganar os destinatários de forma maliciosa, a fim de levá-los a crenças falsas, são chamados de "adversários".
Os adversários organizam "ataques" para incitar as pessoas a agirem com base em informações enganosas ou falsas. Por exemplo, uma campanha política pode usar a tecnologia deepfake para produzir vídeos incriminatórios de outros candidatos a fim de manipular os resultados das eleições a seu favor.
Por outro lado, os atores que espalham crenças falsas ou pouco fundamentadas de forma bem-intencionada ou acidental são chamados de "desajeitados".
Por exemplo, um pesquisador de vacinas cauteloso com os efeitos colaterais e desconfiado da autoridade médica pode fazer um comentário bem-intencionado, mas ligeiramente alarmista, durante uma entrevista, que pode então ser captado e divulgado nas redes sociais, instigando uma ampla campanha antivacinação.
4. Erosão da confiança
Os humanos desenvolveram técnicas naturais para decidir quando confiar nos outros.
Por exemplo, temos mais probabilidade de confiar em alguém se um grande número de pessoas acredita nessa pessoa, e estamos ainda mais dispostos a acreditar em uma pessoa que é membro da nossa própria comunidade — um sinal de que ela possui valores e interesses semelhantes aos nossos.
Também usamos linguagem corporal, entonação vocal e padrões de fala para julgar a honestidade. Essas estratégias são passíveis de falha, mas, em geral, têm servido bem aos seres humanos.
No entanto, as tecnologias de informação modernas podem minar esses artifícios. Por exemplo, o surgimento de filtros bolha pode tornar as opiniões de minorias muito mais visíveis, parecendo que são muito mais amplamente aceitas do que realmente são.
Embora algumas perspectivas minoritárias devam se tornar mais visíveis, há um problema quando narrativas perigosas e extremistas parecem muito mais convencionais do que realmente são.
Algumas tecnologias também interferem na nossa tendência subconsciente de procurar sinais de honestidade e falta de sinceridade nos padrões vocais e na linguagem corporal.
Discursos gerados artificialmente ou vídeos deepfake não são afetados pelos pequenos sinais que nos avisam quando alguém está mentindo.
O que tudo isso significa?
Para aqueles que estão dispostos a se esforçar, uma dieta rica e balanceada de imprensa está mais acessível do que nunca.
No entanto, estar bem informado é muitas vezes um privilégio de tempo e recursos pelo qual a maioria das pessoas não pode pagar facilmente.
Portanto, quando se trata de enfrentar desafios complexos como a covid-19 — desafios que exigem tomada de decisão oportuna e a coordenação de ampla ação coletiva — é importante lembrar que recomendações sensatas de saúde pública e vacinas seguras não são suficientes.
As pessoas também têm que acreditar nas soluções e em quem as oferece.
Em nosso relatório, analisamos algumas das possíveis consequências se não agirmos. Um dos piores cenários é o que chamamos de "balbucio epistêmico". Nesse futuro, a capacidade da população em geral de diferenciar entre a verdade e a ficção se perde completamente.
Embora as informações estejam facilmente disponíveis, as pessoas não sabem dizer se algo que veem, leem ou ouvem é confiável ou não. Então, quando surgir a próxima pandemia, a cooperação de toda a sociedade vai se tornar impossível.
É uma ideia assustadora — mas a covid-19 mostrou que estamos mais perto disso do que poderíamos imaginar (Elizabeth Seger é pesquisadora da Universidade de Cambridge e do Centro Leverhulme para o Futuro da Inteligência, no Reino Unido; BBC Brasil, 28/3/21)