Projetando Contra Desinformação

Jeff Smith Blocked Unblock Seguir Seguindo 20 de dezembro de 2017

Por Jeff Smith , designer de produto, Grace Jackson , pesquisador de experiência do usuário e Seetha Raj , estrategista de conteúdo

Tratamento atualizado para desinformação no Feed de Notícias usando Artigos Relacionados

Percorrendo o Feed de Notícias, pode ser difícil julgar quais histórias são verdadeiras ou falsas. Você deve confiar em tudo o que vê, mesmo que venha de alguém que você não conhece bem? Se você nunca ouviu falar do editor de um artigo, mas o título parece legítimo, não é?

A desinformação vem em muitas formas diferentes e pode abranger uma ampla gama de tópicos. Pode tomar a forma de memes, links e outras formas. E pode variar da cultura pop à política ou até mesmo a informações críticas durante um desastre natural ou uma crise humanitária.

Sabemos que a grande maioria das pessoas não quer compartilhar “notícias falsas”. E sabemos que as pessoas querem ver informações precisas no Facebook, mas nem sempre sabem em quais informações ou fontes confiar – isso torna mais claro o que é verdade e O que é falso?

Depois de um ano de testes e aprendizado, estamos fazendo uma mudança na forma como alertamos as pessoas quando elas veem notícias falsas no Facebook. Como designer, pesquisador e estrategista de conteúdo que conduziu este trabalho, queríamos compartilhar o processo de como chegamos até aqui e os desafios que surgem ao projetar contra a desinformação.

O que aprendemos

Em dezembro do ano passado, lançamos uma série de alterações para identificar e reduzir a disseminação de notícias falsas no Feed de notícias:

  • Tornamos mais fácil para as pessoas relatarem histórias que consideram falsas notícias.
  • Fizemos uma parceria com organizações independentes de verificação de fatos que revisam artigos que podem ser falsos
  • Reduzimos a distribuição de artigos disputados por verificadores de fatos
  • Lançamos uma coleção de recursos para alertar as pessoas quando contadores de fatos disputaram um artigo e para informar às pessoas se compartilharam ou estão prestes a compartilhar notícias falsas.

Bandeiras disputadas, nosso tratamento anterior para desinformação no News Feed

No último ano, viajamos pelo mundo, da Alemanha à Indonésia, conversando com as pessoas sobre suas experiências com desinformação. Ouvimos dizer que as falsas notícias são uma grande preocupação em todos os lugares que estivemos, e embora seja uma parcela muito pequena do que é compartilhado no Facebook, reduzir a disseminação de notícias falsas é uma das nossas principais prioridades.

Nosso objetivo ao longo desta pesquisa foi entender não apenas como a desinformação se parece em diferentes contextos, mas também como as pessoas reagem a projetos que os informam de que o que estão lendo pode ser uma notícia falsa. Para garantir que ouvimos pessoas de diferentes origens, visitamos pessoas em suas casas, conversamos com as pessoas durante sua vida cotidiana e realizamos entrevistas em profundidade e testes formais de usabilidade em um laboratório com pessoas sozinhas, com seus amigos, ou com um monte de estranhos. Ao conduzir esta pesquisa, descobrimos que havia quatro maneiras pelas quais a experiência original das bandeiras disputadas poderia ser melhorada:

  1. Bandeiras disputadas ocultaram informações críticas: embora a bandeira disputada tenha alertado alguém de que os verificadores de fatos contestaram o artigo, não foi fácil para as pessoas entenderem exatamente o que era falso. Eles exigiam muitos cliques, e esses cliques adicionais dificultavam que as pessoas vissem o que os verificadores de fatos haviam dito sobre a história disputada.
  2. Bandeiras disputadas às vezes poderiam sair pela culatra: aprendemos que dissipar desinformação é um desafio. Só porque algo é marcado como "falso" ou "disputado" não significa necessariamente que seremos capazes de mudar a opinião de alguém sobre sua precisão. De fato, algumas pesquisas sugerem que uma linguagem forte ou visualizações (como uma bandeira vermelha brilhante) podem sair pela culatra e reforçar ainda mais as crenças de alguém.
  3. Os sinalizadores disputados exigiam pelo menos dois verificadores de fatos: Os sinalizadores contestados só eram aplicados depois que duas organizações de verificação de fatos de terceiros determinaram que um artigo era falso porque era um sinal visual forte e queríamos definir um limite para onde o aplicamos. A exigência de duas avaliações falsas diminuiu a nossa capacidade de fornecer contexto adicional e, muitas vezes, significava que não éramos capazes de fazê-lo. Isso é particularmente problemático em países com poucos verificadores de fatos, em que o volume de notícias potencialmente falsas e a capacidade limitada dos verificadores de fatos dificultam a obtenção de classificações de vários verificadores de fatos.
  4. Os sinalizadores contestados funcionaram apenas para avaliações falsas: alguns dos nossos parceiros de verificação de fatos usam uma série de classificações. Por exemplo, eles podem usar "falso", "parcialmente falso", "não comprovado" e "verdadeiro". Aplicamos somente sinalizações disputadas a avaliações "falsas" porque era um sinal visual forte, mas as pessoas queriam mais contexto, independentemente do Avaliação. Há também as raras circunstâncias em que duas organizações de checagem de fatos discordam sobre a classificação de um determinado artigo. Dar às pessoas todas essas informações pode ajudá-las a tomar decisões mais informadas sobre o que lêem, confiam e compartilham.

Para onde vamos

Em abril deste ano, começamos a testar uma nova versão de artigos relacionados que aparece no Feed de notícias antes de alguém clicar em um link para um artigo. Em agosto, também começamos a publicar artigos verificados por fatos neste espaço. Durante esses testes, aprendemos que, embora as taxas de cliques no artigo de fraude não mudem significativamente entre os dois tratamentos, descobrimos que o tratamento de Artigos Relacionados levou a menos ações do artigo de fraude do que o tratamento de flagrante em disputa. Também recebemos comentários positivos de pessoas que usam o Facebook e descobriram que ele aborda as limitações acima: facilita a obtenção de contexto, requer apenas uma revisão de um verificador de fatos, funciona para uma série de classificações e não o faz. t criar a reação negativa que uma linguagem forte ou uma bandeira vermelha pode ter.

Tratamento atualizado para desinformação no News Feed

Pesquisas acadêmicas apóiam a idéia de que a divulgação direta de histórias relacionadas para corrigir um post contendo desinformação pode reduzir significativamente as percepções errôneas. Vimos em nosso próprio trabalho que os artigos relacionados facilitam o acesso aos artigos dos verificadores de fatos no Facebook. Ele nos permite mostrar as histórias dos verificadores de fatos mesmo quando a classificação não é "falsa" – se os verificadores de fatos confirmam os fatos de um artigo, mostramos isso também. Os artigos relacionados também permitem que informações verificadas por fatos sejam exibidas quando apenas um verificador de fatos reviu um artigo. Ao reduzir o número de verificadores de fatos necessários para avaliar um artigo, mais pessoas podem ver essas informações cruciais assim que um único verificador de fatos tenha identificado algo como falso. E como muitas pessoas nem sempre estão cientes de quem são os verificadores de fatos, colocamos um selo de destaque ao lado de cada verificador de fatos para que as pessoas possam identificar mais rapidamente a fonte.

Embora tenhamos feito muitas alterações, também mantivemos as partes mais fortes da experiência anterior. Assim como antes, assim que descobrimos que um artigo foi contestado por verificadores de fatos, imediatamente enviamos uma notificação para as pessoas que o compartilharam anteriormente. Quando alguém compartilha esse conteúdo daqui para frente, uma pequena mensagem aparece explicando que há mais reportagens sobre essa história. Usar uma linguagem imparcial e sem julgamento nos ajuda a construir produtos que falam com pessoas com perspectivas diversas.

Mantivemos as partes mais fortes da experiência anterior, incluindo notificações de conteúdo compartilhado que depois são sinalizadas por um verificador de fatos de terceiros

Quando as pessoas percorrem o Feed de notícias e veem um artigo questionável postado de um contato distante ou de um editor desconhecido, elas devem ter o contexto para tomar decisões informadas sobre se devem ler, confiar ou compartilhar essa história. Como algumas das pessoas por trás deste produto, projetar soluções que suportam leitores de notícias é uma responsabilidade que levamos a sério. Continuaremos a trabalhar arduamente nesses esforços testando novos tratamentos, melhorando os tratamentos existentes e colaborando com especialistas acadêmicos nesse complicado problema de desinformação.