A verificação de fatos é necessária para parar a Infodemia – mas não é suficiente.
Capa: Espalhando veneno das redes sociais, CIGI, Models for Platform Governance.
Autor: Taylor Owen. 23 de abril de 2020. Publicado pelo Centre for International Governance Innovation (CIGI) . Ele é membro do CIGI, editor do Models for Platform Governance e especialista em governança de tecnologias emergentes, jornalismo e estudos de mídia e nas relações internacionais da tecnologia digital.
Como sempre, há muitos conteúdos realmente terríveis na Internet, e alguns deles são realmente perigosos.
A Organização Mundial da Saúde (OMS) chamou isso de Indodemia, que ela define como
“uma superabundância de informações – algumas precisas e outras não – que dificulta que as pessoas encontrem fontes confiáveis e orientações confiáveis quando precisam”.
Heidi Larson, chefe do Vaccine Confidence Project, disse em um artigo da Nature em 2018 que
“o dilúvio de informações conflitantes, desinformação e informações manipuladas nas mídias sociais deve ser reconhecido como uma ameaça global à saúde pública”.
Quando você está tentando informar bilhões de pessoas sobre por que e como elas devem mudar drasticamente seu comportamento, a qualidade das informações que estão sendo divulgadas é crítica.
E muito do que está circulando é realmente ruim. Inclui:
- desinformação médica, como má ciência, curas falsas e casos falsos;
- conteúdo ideológico de comunidades que desconfiam da ciência e de medidas comprovadas, como vacinas;
- anúncios de “curas” ou outros produtos de saúde e bem-estar de pessoas aproveitadoras, fabricantes e traficantes de falsos medicamentos e “phishers“;
- teorias da conspiração, entre elas que o vírus COVID-19 é uma arma biológica ou foi criado em um laboratório chinês ou americano, e que Bill Gates planejou a pandemia;
- discurso prejudicial que varia de ataques racistas a neonazistas, falando sobre maneiras de “espalhar” o coronavírus para causar o caos.
Toda essa atividade está ocorrendo em plataformas sociais, em grupos privados e em plataformas de mensagens.
As informações erradas sobre a pandemia costumam fluir do topo.
O governo chinês piorou a pandemia censurando os cientistas, e figuras de destaque como Elon Musk usaram suas plataformas para espalhar desinformação prejudicial.
- Elon Musk twittou na quinta-feira que as crianças eram “essencialmente imunes” ao novo coronavírus, que é falso.
- O Twitter anunciou em um post no blog um dia antes que iria reprimir a desinformação do coronavírus, incluindo coisas como: “O COVID-19 não infecta crianças porque não vimos nenhum caso de criança doente”.
- Mas o Twitter diz que não suprimirá o tweet de Musk.
Talvez o mais extraordinário seja que não se pode confiar no presidente dos Estados Unidos para fornecer informações precisas ao público, e
Musk está usando seus briefings diários para divulgar informações perigosas.
Isso levou importantes estudiosos do jornalismo e colunistas da mídia, como Jay Rosen e Margaret Sullivan, a pedir que a mídia pare de transmitir ao vivo os briefings de Trump. Vale a pena fazer uma pausa para digerir o quão extraordinário é esse momento.
Estamos passando por um raro momento em que o mundo inteiro precisa saber (mais ou menos) a mesma coisa. Essa situação torna a fragmentação das verdades ainda mais preocupante. Se todos soubermos fatos diferentes sobre a pandemia, todos nos comportaremos de maneiras diferentes, exatamente em um momento que exige ação coletiva coordenada. O problema de saúde pública não é um conteúdo ruim, mas o efeito da soma das partes.
Estamos sendo inundados com conteúdo, bom e ruim, o que cria um problema epistemológico: como chegamos a saber o que sabemos?
As empresas de plataforma parecem reconhecer a urgência desse problema e estão respondendo agressivamente.
A moderação do conteúdo é sempre um conflito de valores:
a liberdade de falar versus o direito de ser protegido dos danos que a fala pode causar.
Esse conflito está mudando em tempo real. Apenas um mês atrás, as plataformas ainda (em graus variados) priorizavam o valor da fala sem conflito sobre os possíveis danos dessa fala. Mas agora, o Facebook, o YouTube e o Twitter adotaram uma postura muito mais agressiva com relação à moderação de conteúdo sobre esse assunto do que, por exemplo, com conteúdo político. Eles estão tão claramente rompendo com suas posições anteriores sobre moderação de conteúdo e fala prejudicial que um legado duradouro da pandemia poderia ser uma mudança maior no debate sobre moderação de conteúdo e governança da plataforma.
As plataformas estão assumindo mais responsabilidade pelo conteúdo, o que não significa que a auto-regulação da plataforma seja suficiente. Em vez disso, mostra que cidadãos e governos podem (e deveriam) exigir mais responsabilidade deles.
Mas como é isso? É suficiente simplesmente verificar fatos e baixar mais conteúdo?
Ou precisamos pensar de maneira mais ampla sobre as causas e soluções estruturais para o desafio de conteúdo prejudicial?
A desinformação nunca foi um problema de maus atores individuais. Em vez disso, sempre foi um problema estrutural.
Trata-se do design de nossa infraestrutura digital :
- a escala da atividade da plataforma (um bilhão de postagens por dia no Facebook);
- o papel da inteligência artificial na determinação de quem e o que é visto e ouvido;
- e o modelo financeiro que cria um mercado livre para nossa atenção, priorizando a viralidade e o engajamento em detrimento de informações confiáveis.
Se esses são verdadeiros fatores da INFODEMIA, essas empresas devem mudar o modo como funcionam?
- Eles deveriam estar ajustando seus algoritmos para priorizar informações confiáveis?
- Eles deveriam limitar radicalmente a micro-segmentação?
- E, talvez mais importante, queremos plataformas que tomem essas decisões amplas sobre a fala? Caso contrário, como os governos democráticos podem intervir?
As opiniões expressas neste artigo são de Angie Drobnic Holan, editor da Politifact, sobre a verificação de fatos e a Infodemia.