🕐 ESTA REPORTAGEM FOI PUBLICADA EM Outubro de 2023. INFORMAÇÕES CONTIDAS NESTE TEXTO PODEM ESTAR DESATUALIZADAS OU TEREM MUDADO.

Notas da Comunidade do ex-Twitter são capturadas por grupos e expõem usuários ao ódio

Por Tai Nalon

27 de outubro de 2023, 09h15

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.

Para a surpresa de rigorosamente ninguém, a ferramenta de Notas da Comunidade do ex-Twitter tem problemas. Vendida por Elon Musk e Linda Yaccarino, dono e CEO da plataforma, respectivamente, como a solução para o combate à desinformação em seus domínios, tem sido capturada por grupos mal-intencionados, é vulnerável a campanhas de influência e expõe usuários ao ódio de seus pares.

Vamos jogá-la no lixo e contratar apenas moderadores profissionais, de preferência treinados pelo Aos Fatos? Não. Este texto não traz soluções simples. Na verdade, jamais esgotará a questão.

As Notas da Comunidade fazem parte de um projeto de combate à desinformação posto em curso pela gestão pré-Musk, quando ainda havia o passarinho azul. Chamado Birdwatch, o programa pretendia corrigir e dar contexto a tuítes com informações falsas como complemento à política de moderação do próprio Twitter, que mantinha equipes dedicadas ao tema em nível global. Ao longo da pandemia de Covid-19, a plataforma ativamente barrou desinformação antivacina e, durante as eleições do ano passado, desincentivou ataques a processos eleitorais.

O sistema de Notas da Comunidade agora é o único pilar da política de combate à desinformação do Xwitter e gira em torno de dois principais componentes:

  • Anotação, por meio da qual um usuário “avaliador” pode propor uma nota sobre qualquer tuíte;
  • Votação, que é quando os usuários avaliam a utilidade de uma nota já submetida por outros usuários.

De acordo com a plataforma, as Notas da Comunidade valorizam quem “contribui para o entendimento” dos usuários, age de “boa-fé” e traz benefícios “mesmo entre aqueles que discordam”. Para que uma nota da comunidade ganhe o mundo, usuários que discordaram em avaliações anteriores devem concordar se a nota em questão deve ou não ser publicada. E é aí que o problema ganha maiores proporções.

  • Não se sabe quem são os usuários, uma vez que o sistema de admissão para o programa não é claro. (Eu mesma nunca fui aceita, mas outros jornalistas do Aos Fatos tiveram suas credenciais aprovadas.) E, uma vez dentro, todo voluntário ganha um pseudônimo que garante seu anonimato;
  • Para ganhar o direito de fazer anotações, é obrigatório votar tantas vezes quanto forem necessárias até que o impacto de suas avaliações chegue ao grau 5. O impacto é medido pela frequência com a qual o voto de um usuário esteve de acordo com a qualificação de uma nota antes ou depois de estar pública — ou seja, o usuário é incentivado a votar com a maioria, e não a favor do que é de fato acurado;
  • Não se sabe quantos votos são necessários para que uma nota seja publicada. Em agosto e setembro, o ex-Twitter anunciou duas diferentes atualizações para evitar que as notas ficassem aparecendo e desaparecendo à medida que votos virassem e notas com avaliações opostas ganhassem volume. Basicamente, uma admissão de que o sistema foi gamificado e capturado por interesses de grupos organizados;

Não existe instância recursal para o autor do tuíte original em caso de abuso por parte dos colaboradores da ferramenta. Se uma nota está errada ou não explicita o problema na informação que pretende qualificar, resta ao usuário lidar com ódio que a divergência na rede da saúde mental proporciona. Foi o caso de jornalistas da GloboNews e do jornal O Globo, mas parece ser algo bem comum: volta e meia alguns deles são “checados” por supostamente sonegarem informações que na verdade constam de suas reportagens. Algumas notas não trazem fontes que demonstram o que está errado.


Primeira vez por aqui? Assine de graça O Digital Disfuncional e receba análises exclusivas e bastidores sobre a relação entre a tecnologia e a política.


Uma reportagem da publicação norte-americana Wired de 17 de outubro ilustra bem como essas limitações geram distorções reais. Segundo a revista, as Notas da Comunidade “parecem não estar funcionando conforme o projetado”. O sistema de avaliações “pode ser vulnerável à manipulação coordenada por grupos externos e carece de transparência quanto à aprovação das notas”.

Um usuário disse à reportagem que usa duas contas diferentes no Xwitter para propor notas. Outro colaborador disse integrar um grupo de 25 usuários que coordenam votos para ajudar notas de determinados temas a serem publicadas ou vetadas. Se a falha for generalizada, o que parece ser, trata-se de uma problema grave.

“O programa pode ser vulnerável a uma manipulação ainda mais abrangente, assim como os trolls do Kremlin conseguiram operar várias contas no Twitter se passando por cidadãos dos Estados Unidos e influenciar as eleições de 2016”, escreve a Wired.

Um repórter do jornal Le Monde relatou em julho sua incursão nas Notas da Comunidade. Disse ter sido instado a classificar tuítes relacionados à política estadunidense, mesmo sendo francês, e a votar em questões relacionadas a política tarifária de trens alemães — o que é uma brecha para campanhas de influência estrangeira. Contou também ser possível votar numa publicação que trazia uma informação que ele mesmo havia apurado, ainda que isso gerasse conflito de interesse.

“No passado, trabalhei como moderador, tanto de forma remunerada quanto voluntária, em diversos fóruns de discussão online. Eu sei que moderação demanda regras. Essa é a única maneira de limitar decisões arbitrárias e estabelecer denominadores comuns. Não há nada disso nas Notas da Comunidade, e os limites ficam rapidamente evidentes”, disse.

Por isso, ele defende, a ferramenta não substitui a moderação tradicional. “Logo fica evidente que nenhuma quantidade de ‘contexto adicional’ resolve o problema de atores que publicam mensagens intencional e industrialmente, cujo objetivo principal é enganar seus leitores para ganhos financeiros ou políticos.”


Confiável para quem? Elon Musk, atual dono do ex-Twitter, e Jack Dorsey, ex-CEO, interagem sobre o potencial informativo da plataforma

As fragilidades da ferramenta não são surpreendentes para quem supervisionou sua implementação. Yoel Roth, responsável pela área de integridade do Twitter até ano passado, disse em junho que a estratégia de combate à desinformação da empresa era centrada em dois pólos: de um lado, moderação própria e, de outro, rotulação de origem comunitária. A intenção nunca foi apostar somente na contribuição voluntária.

“É um fracasso [apostar em apenas uma estratégia]”, disse Roth. “Eu acho que as Notas da Comunidade são um conceito interessante. Acho que tem áreas em que é bem-sucedido. Estamos vendo algumas aplicações interessantes do produto. Mas há muitas outras áreas em que não é uma solução robusta para mitigação de danos.”

Com a fuga de anunciantes, tem sido comum ver no ex-Twitter vários posts patrocinados de golpes vendidos como anúncios publicitários. De jogos a sites de apostas e criptoativos, todo o catálogo da fraude digital parece estar à disposição — e muitos desses anúncios são acompanhados de notas da comunidade avisando de que se trata de, no mínimo, propaganda enganosa. Há quem exalte isso como uma virtude da ferramenta, mas quem põe dinheiro no bolso às custas de negócios obscuros e do tempo de voluntários é o multibilionário dono do Xwitter.

O modelo de voluntariado é também apontado como uma limitação do sistema. Tanto a reportagem da Wired quanto a do Le Monde, além de análises sobre a ferramenta, mencionam que a maior parte das notas jamais chega às timelines por falta de endosso. Na avaliação do repórter do Le Monde, notas pouco escrutinadas podem afastar autores bem-intencionados da iniciativa. Um colaborador informou a Wired que as 503 notas que ele havia avaliado na última semana não foram aproveitadas porque não ultrapassaram o limite mínimo de votos.

“Acredito que um dos problemas fundamentais do sistema de Notas da Comunidade é que ele não é realmente escalável em relação à quantidade de mídia que está sendo consumida ou publicada em qualquer dia”, disse, sob o pseudônimo Investigator515. E não é mesmo, mas não há sistema de moderação no mundo que daria conta.

Ainda mais preocupante é um modelo que pretende combater desinformação, mas falha em proteger seus voluntários do ódio — até porque não existe nenhuma relação formal entre eles. Usuários das Notas da Comunidade que falaram à Wired pediram para não serem identificados pelo nome. Investigator515 pediu para que não fosse identificado “por medo de danificar sua reputação profissional”. Anna, uma jornalista britânica convidada a participar da ferramenta, pediu para ser identificada apenas pelo primeiro nome, “por medo da retaliação de outros usuários”. Um ex-funcionário da equipe de integridade do Twitter pediu para permanecer anônimo “por medo de represálias”. O usuário que coordena um grupo de colaboradores para votar ou vetar notas da comunidade também pediu anonimato para que não fosse “retaliado por Musk e seus apoiadores”. Isso não é normal.

Veja bem, não estou aqui advogando pela exclusividade da checagem de fatos profissional na política de moderação das plataformas — embora saber por quem, quando e por que determinada informação foi avaliada seja fundamental para erigir confiança. É verdade que grandes comunidades têm impacto na construção de consensos. O problema é que nem todo consenso é factualmente correto.

Sabemos que os maiores disseminadores de desinformação estão em posições de poder e contam com hiperestruturas de coordenação de publicações não só no ex-Twitter, mas também em outras plataformas, grandes ou pequenas. As decisões que cercam a relevância digital dessas pessoas são de caráter privado às companhias que operam plataformas digitais, inclusive no ex-Twitter, de modo que se esconder atrás de uma multidão de anônimos para mimetizar uma falsa ideia de democracia corrói a ideia de democracia em si.

Se as Notas da Comunidade conseguissem gerar incentivos para que mentiras patentes fossem efetivamente marcadas como tal, quem sabe sobrasse mais tempo e recursos para que checadores profissionais investigassem novos tipos de desinformação, desenvolvessem novas técnicas de verificação e focassem em assuntos divisivos cujo debate é mais complexo que uma publicação de 240 caracteres. Embarcar todos os servidores do ex-Twitter num foguete da SpaceX e despachá-los a Marte talvez seja uma expectativa mais realista.

Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.