Encontrando a linha

Jeff Jarvis Blocked Unblock Seguir Seguindo 22 de julho de 2018

Em sua entrevista com Kara Swisher , Mark Zuckerberg finalmente desenhou uma linha em torno do que não é aceitável no Facebook. * Acho que ele desenhou a linha no lugar errado. Então , muitos comentaristas .

Então, onde você acha que a linha deve ser desenhada? Onde eu? Se não podemos concordar sobre onde deveria estar, podemos esperar que o Facebook determine isso sozinho e em cada um dos milhões – talvez bilhões – de questões que enfrenta em sua plataforma para o comportamento humano?

Aqui tentarei colocar essa discussão no contexto do papel do Facebook no mundo versus o papel que ele percebeu para si mesmo. Mais precisamente, explorarei alguns dos padrões que poderiam ser usados para definir a linha: dano, ameaça, conspiração, incivilidade, fanatismo, ódio, manipulação. Aviso: vou falhar. Mas especialmente porque eu arrecadei dinheiro do Facebook para a minha escola (divulgações abaixo *), eu preciso resolver essas questões eu mesmo.

Vamos começar com os pronunciamentos de Zuckerberg. Com Swisher, ele parecia defender a negação do Holocausto como liberdade de expressão. Ele disse:

Sou judeu e há um grupo de pessoas que negam que o Holocausto tenha acontecido. Eu acho isso profundamente ofensivo. Mas no final das contas, não acredito que nossa plataforma deva derrubar isso porque acho que há coisas que pessoas diferentes erram. Eu não acho que eles estão intencionalmente errando… É difícil impugnar a intenção e entender a intenção.

Isso não poderia estar mais errado, pois negar algo tão esmagadoramente documentado e universalmente aceito como verdadeiro só pode intencionalmente induzir em erro. Em uma semana marcada por pessoas que voltavam de coisas que eles disseram, Zuckerberg enviou um email a Swisher para que ele voltasse:

Eu pessoalmente acho a negação do Holocausto profundamente ofensiva, e eu absolutamente não pretendia defender a intenção das pessoas que negam isso. Nosso objetivo com notícias falsas não é impedir que alguém diga algo falso – mas impedir que notícias falsas e informações errôneas se espalhem pelos nossos serviços. Se algo estiver se espalhando e for classificado como falso pelos verificadores de fatos, ele perderá a grande maioria de sua distribuição no Feed de notícias. E, claro, se um post cruzasse a linha de advogar por violência ou ódio contra um grupo em particular, ele seria removido. Essas questões são muito desafiadoras, mas acredito que, muitas vezes, a melhor maneira de combater a má fala ofensiva é com boa fala.

Como um exemplo do que cruza a linha, Zuckerberg discutiu Myanmar e disse que o Facebook retiraria conteúdo que incitasse violência iminente ou dano físico contra as pessoas de lá.

Essa é a sua linha.

Ele também disse que não derrubaria Infowars – mas sim promoveria menos – porque não ultrapassou essa linha. Infowars foi o tema de uma acalorada discussão entre o Facebook e jornalistas dias antes, quando o novo chefe da News Feed, John Hegeman, disse que o Facebook não derrubaria Infowars porque o Facebook não “pega notícias falsas…. Eu acho que apenas por ser falso, isso não viola os padrões da comunidade. ”

Raciocínio certo, talvez, mas decisão errada. Eu não acho que devemos esperar que o Facebook derrube tudo ou qualquer coisa que seja falsa. Pela milésima vez, podemos concordar que ninguém – pelo menos o Facebook – quer que eles sejam os árbitros da verdade na sociedade?

Mas eu acho que o Facebook deveria derrubar o Infowars. Para mim, essa é uma decisão fácil de se fazer casualmente, já que os Infowars são tão notoriamente pútridos. Mas, como eu disse em uma discussão no Twitter sobre o assunto no outro dia, a pergunta mais difícil é: qual é o padrão contínuo e aplicável que justifica essa decisão e que pode ser aplicado em outro lugar em escala? Onde esta a linha?

Em uma longa discussão sobre tudo isso na última semana desta semana no Google , o apresentador Leo Laporte mudou a linha, penso eu, para um lugar melhor: o mal. Infowars não podem prejudicar corpos e levar vidas como desinformação, propaganda, discurso de ódio e incitação em Mianmar, mas com suas teorias de conspiração desprezíveis e mentiras raivosas que Alex Jones certamente causa danos – às famílias de Sandy Hook, à democracia, à decência.

Não estou argumentando que o Facebook deva derrubar o Infowars por uma questão de direito ou deixá-lo como uma questão de liberdade de expressão. Eu estou argumentando que derrubar Infowars é um ato de auto-interesse esclarecido para o Facebook: o serviço (sendo gritado por um louco insano-traficante é o que eu chamaria de má experiência do usuário), a marca (o Facebook realmente quer permitir e ser associado com tal como este?), ea empresa (se o Facebook perde usuários e anunciantes por causa deste tipo de porcaria, sua linha de fundo e equidade sofrem).

Eu também diria isso a Zuckerberg: o Facebook não é a internet e não deveria querer ser (embora muitas vezes seja acusado exatamente dessa ambição, especialmente nos mercados em desenvolvimento). Neste contexto, o que quero dizer é que a liberdade de expressão não é o fardo do Facebook. Não é como se Alex Jones não tivesse outro lugar para se aninhar com suas baratas. Essa é a internet e é incontrolável. Facebook é controlável, por você, Mark. As pessoas estão implorando para você controlar isso. Essa responsabilidade – e direita – é sua. Você precisa decidir não se a fala é aceitável (é claro, é), mas se a Infowars é (eu digo que não é).

Isso está longe de ser uma opinião universalmente aceita; Muitos não confiam no Facebook para tomar decisões e, em qualquer caso, não acreditam que deva fazê-lo. De volta ao dia, eu poderia ter concordado, sendo um dogmático do lado da abertura e da liberdade de expressão. Mas as plataformas – e eu – tivemos que aprender que a abertura pura inevitavelmente gera manipulação de origens econômicas, psicológicas e políticas. Vim ver que meu amigo Dov Seidman, fundador do LRN e do How Institute, está certo quando diz que a neutralidade não é uma opção.

Devo acrescentar que, não, não acredito que, se Zuckerberg e companhia escolherem o que é e o que não é apropriado para sua distribuição, promoção e monetização, isso faz dela uma empresa de mídia. As pessoas da mídia tendem a olhar para o mundo, à maneira de Deus, à sua própria imagem e a pensar que qualquer um que faça algo que ele tenha feito é mídia. Não. Ver o Facebook no análogo do passado é o que está nos metendo nessa bagunça, pois nos impede de ver como a internet e o Facebook são novos e diferentes e exigem uma nova perspectiva e novas soluções. O Facebook é uma empresa não construída em torno de conteúdo ou informação, mas sim de pessoas. Você não pode esperar que o Facebook seja o Columbus Dispatch: organizado e produzido de forma limpa e limpa. O Facebook reflete a bagunça da vida.

Pode-se dizer que é uma razão para deixar os Infowars: reflete a bagunça da sociedade. Exceto Infowars é feito para manipular o Facebook e YouTube e seus algoritmos – bem como todos os meios de comunicação e seus editores e todos os políticos. Ele grita por atenção e entende. Nós somos seus idiotas. Nós não temos que ser. Podemos pedir ao Facebook e ao YouTube para derrubá-lo, porque isso prejudica e eles são livres para agir.

Eu reconheço os riscos políticos, claro. Você tem um membro do Congresso, supostamente republicano, querendo interferir no mercado e declarar as plataformas de utilidade pública porque sua fábrica de notícias de direita favorita não recebe tráfego suficiente on-line! Isso não é fácil. Entendi. Fazer a coisa certa, muitas vezes, não é.

Então, agora, voltamos à difícil questão que permanece: como definir o dano de uma forma em que as teorias de conspiração de incitação ao Mianmar terminam de um lado da linha e meras controvérsias do outro? Eu gostaria de ter uma fórmula legal. Eu não. É por isso que as plataformas – Facebook, Google, Twitter, todas elas – evitam essa decisão, porque não podem transformá-la em um conjunto de regras, uma fórmula, um algoritmo. No Twitter agora , o lendário VC Vinod Khosla – respondendo, por acaso, a um tweet de Swisher (ela está em todos os lugares) – perguntou: "Existe uma otimização matemática para o bem da sociedade?"

Não. A humanidade não escala. Civilidade não é uma fórmula. A decência não é um algoritmo. Receio que minha primeira sugestão útil para o Facebook não seja estereotipada, mas processual, não tecnológica, mas humana, não barata, mas muito cara. O Facebook precisa que os humanos façam julgamentos humanos. Os padrões da comunidade do Facebook claramente não funcionam, pois permitem todo tipo de comportamento horrível, comportamento que qualquer ser humano decente, maduro e responsável reconheceria como inaceitável na empresa civil. O Facebook provavelmente precisa de um departamento de atendimento ao cliente muito grande e um meio de se comunicar com eles. (Desejo perguntar a alguém com experiência neste campo, eu sugiro perguntar a Craig Newmark, * cujo trabalho era atendimento ao cliente.) Para entender a necessidade, veja as histórias de Casey Newton aqui sobre pessoas que tentaram alcançar o Facebook para alertá-las mal eles estão experimentando. Sim, entendo que isso é um problema de escala. No F8 do Facebook, Zuckerberg disse que a empresa está matando um milhão de contas falsas por dia . Os bandidos são agressivos. Então deve ser o Facebook. Mas eu ainda não tenho um padrão claro – uma linha – que eles possam apontar.

Se reportar danos é difícil de gerir, então qualquer outro padrão torna mais fácil para o Facebook fazer seus próprios julgamentos? Como eu disse acima, não acho que a verdade seja o teste. Testemunhe a pilha de novos livros em minha mesa, cada um tentando descobrir o que é a verdade: A Morte da Verdade, Orwell na Verdade, Uma Breve História da Verdade, a Verdade, a Verdade e a Pós-Verdade (três deles). A verdade é dura.

O outro lado da verdade é a conspiração. Esta é a especialidade dos Infowars. É possível julgar teorias da conspiração sem também julgar a verdade? Não tenho certeza. Poderia ser possível desenvolver catálogos de teorias conspiratórias prejudiciais: a anti-vacinação prejudica as pessoas; Os conspiradores do 11 de setembro prejudicam a educação e a sociedade. Quem faz esse catálogo em cada nação e sociedade? Data & Society * está fazendo um bom trabalho ao descobrir tal manipulação da verdade on-line nos EUA e a União Européia está indo bem contra a Rússia na Europa. Isso pode ser possível. Começa invertendo a visão de Zuckerberg de que as teorias conspiratórias negacionistas não pretendem desinformar. Eles certamente fazem.

Que tal incivilidade como padrão? Twitter disse que vai prestar mais atenção ao seu impacto sobre a saúde da conversa pública . O Facebook disse que seu objetivo agora é encorajar “interações significativas entre as pessoas”. Eu me preocupo que o termo “incivilidade” (como “notícias falsas”) tenha sido cooptado pelos incivilistas Orwellianos entre nós para cortar as críticas a eles. Quando eu disse isso para o autor Yascha Mounk quando começamos seu podcast , ele me pediu para segurar o termo, avisando que é possível ser civilizado enquanto também cumpre a obrigação de chamar o mal. Então, a civilidade é importante; é uma pré-condição para se tornar informado e manter uma conversa produtiva na sociedade. Mas a civilidade é muito baixa para esta discussão. Se os incivis foram banidos, receio que muitos de nós – inclusive eu às vezes, lamento dizer – estivessem condenados.

Então, como sobre o fanatismo? O discurso de ódio é proibido nos padrões da comunidade do Facebook. Eu acredito que Infowars e seus confederados se envolvem nisso. Mas eles ainda estão no Facebook. Então, algo não está calibrado corretamente aqui. Na Alemanha, o Facebook agora tem que impor a proibição do discurso do ódio sob a lei NetzDG . Por causa disso – e leis em outros países – o Facebook está contratando 20.000 detetores de lixo para se livrar do discurso de ódio, entre outras coisas. Isso pode parecer o que eu estou pedindo acima: pessoas com julgamento e autoridade. Mas a lei exige que essas pessoas ajam dentro de 24 horas e, portanto, não há tempo para consideração. Como as multas são consideráveis – US $ 60 milhões por um fracasso – a consequência não intencional do zelo legalmente exigido é que a sátira e a fala legítima estão em perigo; cautela vence todas as vezes. É por isso que eu preferiria que o Facebook assumisse a responsabilidade em seu próprio interesse pela legislação.

Isso me deixa com manipulação. Esse é o critério que eu acho mais confortável para as plataformas, pois elas já fazem esse julgamento em escala quando se trata de vilões de motivação econômica: spammers e fraudadores. Eles decidem o que é feito apenas para jogá-los. Eles podem fazer o mesmo com manipuladores psicologicamente e politicamente motivados?

Então eu falhei. Eu, como muitos, discordo de onde Zuckerberg traçou a linha. Eu quero um teste que Infowars irá falhar. Mas até que possamos formular um conjunto de regras que faça isso, temo que ficaremos presos a Alex Jones e odeio isso.

Eu não estou deixando Zuckerberg ou o Facebook fora do gancho. Eu acredito que eles devem estabelecer padrões para o que é e o que não é aceitável em sua plataforma (idem para Twitter, YouTube, Instagram, Snap e outras plataformas que lidam com a bagunça que somos nós). Eles precisam defender suas decisões. Eles precisam investir em sistemas e pessoas para aplicar esses padrões de maneira confiável.

Mas ainda estamos apenas no primeiro estágio: onde está a linha?

* Divulgações: Eu angari fundos do Facebook, bem como da Craig Newmark Philanthropies, da Ford Foundation e de outros para iniciar a News Integrity Initiative na CUNY. Somos independentes do Facebook. Eu pessoalmente não recebo fundos de nenhuma plataforma.
Craig Newmark Philanthropies recentemente deu uma grande doação para a escola onde eu trabalho e está sendo rebatizada da Escola de Graduação Craig Newmark de Jornalismo na CUNY.
Data & Society é um beneficiário da News Integrity Initiative