Efeito dos anúncios no Facebook da Cambridge Analytica na eleição presidencial dos EUA em 2016

Rahul Rathi Blocked Desbloquear Seguir Seguindo 13 de janeiro

A Cambridge Analytica, uma empresa de publicidade e uma ramificação do grupo SCL, foi fundada em 2013, mas foi extinta a partir de 1º de maio de 2018. A empresa tinha uma ala política e comercial e, em seu site, a ala política “combina a previsão análise de dados, ciências comportamentais e inovadora tecnologia de anúncios em uma premiada abordagem. ”A empresa trabalhou para a campanha de Ted Cruz nas eleições primárias republicanas e ajudou-o a obter o segundo maior número de votos, atrás apenas de Donald Trump. A empresa então trabalhou para a campanha Trump nas eleições gerais e ajudou-o a vencer. Uma das estratégias empregadas pela Cambridge Analytica na campanha primária republicana de Ted Cruz era veicular anúncios segmentados para os usuários do Facebook, dependendo da personalidade do usuário. No entanto, a empresa foi feita para excluir todos os dados obtidos via Facebook em 2015, (antes da eleição geral entre Trump e Clinton) e, muito provavelmente, essa estratégia usada apenas pela campanha Cruz. Este artigo irá ilustrar como todas as três táticas mencionadas anteriormente (ciência comportamental, análise de dados, tecnologia de publicidade inovadora) são extremamente importantes ao executar anúncios segmentados no Facebook. Além disso, este artigo mostrará como o sucesso dos anúncios foi limitado e exagerado pela mídia, pelo CEO Alexander Nix e pelo denunciante e ex-funcionário Christopher Wylie, cada um por diferentes razões.

Antes de analisar a eficácia dos anúncios do Facebook, é importante entender mais detalhadamente os motivos da empresa e por que ela se tornou um tópico de notícias mainstream. A empresa tinha como objetivo persuadir os usuários a votar de determinada maneira, exibindo anúncios diferentes sobre o mesmo problema, para pessoas diferentes. A persuasão foi feita através da coleta de informações na página do Facebook como usuários e usando esses dados para criar modelos que preveem a personalidade. A empresa que forneceu os dados de personalidade da Cambridge Analytica, Global Science Research, liderada por Aleksandr Kogan, quebrou os termos de serviço do Facebook e, portanto, o Facebook pediu a todas as empresas que Kogan forneceu os dados, incluindo Cambridge Analytica, para excluir todos os dados. Dados do Facebook em 2015. A exclusão dos dados aconteceu antes da eleição geral de 2016 entre Trump e Clinton ter começado, e por isso é alegado pela Cambridge Analytica que nenhum dos dados do GSR foi usado por eles para ajudar a campanha de Trump. Notícias sobre a empresa vieram à tona quando um ex-funcionário da banda, que virou denunciante, Christopher Wylie, abordou a mídia. Wylie e a mídia se concentraram em dois aspectos. Um aspecto foi a legalidade das ações da Cambridge Analytica em obter os dados do Facebook dos usuários, e a segunda foi a eficácia dos anúncios do Facebook e as questões éticas sobre eles. As implicações legais estão além do escopo deste artigo, uma vez que muitas das investigações estão em andamento, mas o sucesso dos anúncios do Facebook será avaliado.

Para entender a estratégia da Cambridge Analytica para anúncios no Facebook, é preciso entender como a ciência comportamental, a análise de dados e a tecnologia de anúncios inovadores se unem. A ciência comportamental refere-se a campos de estudo relacionados a humanos ou animais, comportamento e ações. O objetivo final da Cambridge Analytica era persuadir os usuários a votarem a favor de seu cliente, o que envolvia exibir mensagens que provavelmente resultariam em uma mudança de comportamento. O exemplo a seguir, tirado da apresentação de Alexander Nix na conferência de Concordia, ilustra a importância de manter a ciência comportamental em mente ao transmitir mensagens. Imagine que você está andando na praia e veja a placa abaixo, à esquerda.

Fontes da imagem: http://massrealestatelawblog.com/wp-content/uploads/sites/9/2012/07/public-beach-sign.jpg https://encryptedtbn0.gstatic.com/images?q=tbn:ANd9GcQUmyDglOdnQ6JC2AqpK6b0veP97Zw5LwScJIdTVZsoX- YyXMoa

O sinal à esquerda pode levar você a se afastar, mas se você vir o sinal à direita, você terá um desejo muito mais forte de fazê-lo. A motivação de ambos os sinais é garantir que você saia da área, mas o sinal à direita ressoa mais forte, provavelmente para todas as pessoas, devido ao medo de um ataque de um tubarão. Neste exemplo, todos provavelmente teriam o impulso mais forte de realizar a ação de deixar a praia depois de ver a mensagem à direita. No âmbito político, no entanto, dependendo de crenças e valores pré-existentes, pessoas diferentes seriam melhor persuadidas com mensagens variadas em apoio ao mesmo candidato ou questão. A Cambridge Analytica hipotetizou, assim, que, se tivessem uma medida da personalidade de alguém, poderiam curar um anúncio que seria mais convincente para eles. Portanto, eles seriam capazes de convencer muitas pessoas diferentes com personalidades diferentes, a ter a mesma opinião sobre um determinado assunto ou candidato, usando anúncios personalizados e direcionados.

Para persuadir os eleitores em potencial a votar de determinada maneira através do uso da ciência comportamental, seria necessário ter alguma informação sobre quem é o alvo do anúncio. Para fazer isso, primeiro a Cambridge Analytica precisou primeiro encontrar uma maneira de obter dados brutos sobre milhões de usuários. Então eles tiveram que usar esses dados para fazer previsões sobre as personalidades do usuário. É aí que entra a análise de dados, a ciência da extração de informações úteis a partir de dados brutos. A Cambridge Analytica voltou-se para Aleksandr Kogan, um psicólogo e pesquisador da Universidade de Cambridge. Christopher Wylie, então funcionário da empresa, gerenciou o relacionamento com Kogan e Kogan criou uma empresa chamada Global Science Research (GSR). Kogan então criou uma pesquisa que perguntou aos entrevistados sobre sua personalidade e usou a Qualtrics, um fornecedor terceirizado de pesquisas on-line que recruta participantes, pagando a cada um alguns dólares, para obter participantes. A pesquisa solicitou o consentimento dos entrevistados para acessar seus dados no Facebook, incluindo as páginas que eles gostaram.

Crucialmente, Kogan também teve acesso a gostos de página de amigos dos entrevistados, já que este era um recurso para desenvolvedores do Facebook. Kogan mencionou em seu depoimento ao comitê 'Digital, Cultura, Mídia e Esporte' do parlamento britânico como, de 2006 a 2015, a principal característica da API do Facebook era que você poderia reunir dados de amigos do usuário contanto que esses amigos não desligassem definições. Os amigos do entrevistado que não alteraram determinadas configurações de privacidade no Facebook, por padrão, também desistiram de acessar seus gostos de página. Aproximadamente 270.000 pessoas participaram da pesquisa, que deu a Kogan acesso a cerca de 30 milhões de dados das pessoas. Esse método de mineração de dados não era uma violação de dados, pois os usuários consentiram em fornecer seus dados para o GSR, e os amigos dos usuários que participaram da pesquisa poderiam ter alterado sua configuração de privacidade para garantir que o GSR não extraísse seus dados . No entanto, talvez o Facebook pudesse comunicar melhor aos usuários que essa configuração de privacidade existia. Atualmente, o Facebook menciona isso em seus Termos de Serviço, que provavelmente não são lidos com cuidado pela maioria das pessoas. Talvez o Facebook possa retrabalhar isso, fazendo com que os usuários façam um teste, garantindo que compreendam totalmente o conteúdo dos Termos de Serviço, antes de criar uma conta. A Cambridge Analytica usou os dados do Facebook de cada usuário para prever sua personalidade. Eles objetivaram quantificar a personalidade pontuando usuários individuais em cinco traços-chave de personalidade: abertura, conscienciosidade, extroversão, amabilidade, neuroticismo, que se refere ao modelo de personalidade Big 5 ou OCEAN. A pontuação de cada pessoa em cada atributo foi determinada examinando os gostos de página do Facebook de cada usuário e criando modelos preditivos de personalidade com base nos gostos de página.

A estratégia final mencionada no site da Cambridge Analytica foi a tecnologia inovadora de anúncios. Refere-se às formas mais individualizadas com as quais a empresa pretendia alcançar os usuários, incluindo anúncios no Facebook. Nix descreveu essa técnica como o oposto da publicidade geral, que implica exibir a mesma mensagem para milhões de usuários. Ele explicou como “hoje a comunicação está se tornando cada vez mais direcionada. Está sendo individualizado para cada pessoa nesta sala ”. (Nix) Assim, o inovador ad tech, ou como Nix o denominou uma apresentação na conferência Concordia, abordou os resultados obtidos após usar ciência comportamental e análise de dados e exibi-lo aos espectadores, através de canais altamente individualizados, um dos quais era anúncios do Facebook.

David Sumpter, professor de matemática aplicada na Universidade de Uppsala, na Suécia, analisou a precisão dos modelos da Cambridge Analytica em seu livro "Outnumbered". A empresa usou um modelo de regressão para prever a personalidade. Ele descreve um modelo de regressão como um “modelo que pega os dados que já temos sobre uma pessoa e os usa para prever algo que não sabemos sobre ela” (Sumpter, pg. 45). Com base na personalidade do usuário, foram exibidos diferentes anúncios sobre o mesmo problema na esperança de convencer diferentes usuários da mesma mensagem. Um exemplo, tirado da apresentação de Alexander Nix na cúpula de Concordia, é mostrado abaixo.

O motivo de ambos os anúncios é persuadir os espectadores a ter uma opinião a favor da segunda emenda que permite às pessoas o direito de manter e portar armas. Pessoas com alto nível de neocriticismo e conscienciosidade tendem a se preocupar muito e preferem a ordem, e assim a mensagem da esquerda ressoaria mais. Pessoas fechadas e agradáveis colocam as necessidades de outras pessoas antes delas, mas não desfrutam de novas experiências e, portanto, a mensagem à direita é mais ampla. Christopher Wylie acredita que isso cruza uma linha e não é mais persuasão, mas sim manipulação. Ele alegou que a empresa operava em uma "área cinzenta ética" e "tentava manipular os eleitores ao se agarrar a suas vulnerabilidades". (McCausland) No entanto, "usar métodos tortuosos para subverter a preferência eleitoral do público não é novidade" (Berghel ) e nos Estados Unidos tem sido um “companheiro recorrente às eleições” e, portanto, não se deve ficar surpreso com o uso de táticas supostamente manipuladoras.

A ideia de usuários de microtargeting com base na personalidade parece muito mais sutil do que os métodos tradicionais de marketing, em que a mesma mensagem é mostrada para todos. Sumpter analisou a precisão dos modelos de regressão da Cambridge Analytica em seu livro "Outnumbered". Ele usou um conjunto de dados disponível publicamente criado por Michal Kosinski e seus colegas, um psicólogo, que criou um banco de dados anônimo de 20.000 usuários do Facebook. Dos 20 mil usuários do Facebook, 19.742 eram baseados nos EUA e, desse montante, 4.744 haviam registrado seu partido político preferido, o democrata ou o republicano, e também haviam gostado de mais de 50 páginas do Facebook. Sumpter primeiro teve como objetivo testar a precisão dos modelos de regressão em geral, e assim criou um modelo que previa a fidelidade partidária baseada nos gostos das páginas do Facebook. Ele concluiu que o modelo de regressão funcionava "muito bem para democratas e republicanos", mas "não revela nada sobre os 76% de usuários que não colocaram sua lealdade política no Facebook" (Sumpter, p. 52-53). Ele também descreve como só porque o modelo pode ter revelado, por exemplo, que os democratas tendem a gostar de Harry Potter, isso não significa necessariamente que outros fãs de Harry Potter gostem de democratas. Portanto, uma estratégia empregada pelos democratas para conseguir que os fãs de Harry Potter votem, pode não necessariamente beneficiá-los. Outra limitação encontrada por Sumpter era que “o modelo de regressão só funciona quando uma pessoa faz mais de 50 'curtidas' e, para fazer previsões confiáveis, algumas centenas de 'curtidas' são necessárias” (Sumpter, p. 53). Ele descobriu que, naquele conjunto de dados, apenas 18% dos usuários "curtiram" mais de 50 sites. No entanto, esse problema parece estar limitado apenas ao conjunto de dados usado pela Sumpter, pois, em 2013, um estudo mostrou que o número médio de usuários de página do Facebook por pessoa nos EUA era de 70, e esse número vinha aumentando constantemente.

Indiscutivelmente, a maior limitação dos modelos de regressão usados especificamente pela Cambridge Analytica para prever a personalidade, que ele encontrou foi a precisão dos modelos de previsão de personalidade dos gostos do Facebook. O conjunto de dados usado por Sumpter continha informações sobre a pontuação de cada indivíduo no modelo de personalidade OCEAN. Primeiro, Sumpter criou um modelo de regressão que determinou a personalidade dos gostos das páginas do Facebook. Em seguida, ele selecionou aleatoriamente duas pessoas do conjunto de dados e classificou-as com base no neuroticismo de acordo com a previsão feita pelo modelo sobre o nível de neuroticismo de cada pessoa. Sumpter então comparou isso com a classificação baseada no neuroticismo de acordo com os dados reais dos dois indivíduos dados no conjunto de dados. Ele descobriu que a classificação produzida pelo modelo correspondia à classificação correta apenas 60% do tempo. Ele então tentou esse método nos outros quatro traços de personalidade e obteve resultados muito semelhantes em torno de 60%. O traço mais preciso para prever foi a Abertura, mas mesmo isso foi preciso apenas cerca de 67% das vezes.

A dificuldade em prever a personalidade das pessoas a partir das suas páginas no Facebook é apoiada por Aleksandr Kogan e Alexander Nix. No depoimento de Aleksandr Kogan ao comitê de Digital, Cultura, Mídia e Esporte do parlamento britânico, ele afirmou que era "cientificamente ridículo" (Reino Unido, RT) alegar que os modelos de regressão levaram a resultados precisos. Nas provas escritas que ele apresentou ao parlamento, ele afirmou que as pontuações em cada traço de personalidade previsto pelo algoritmo eram mais precisas do que adivinhar aleatoriamente uma pontuação em cada característica. No entanto, era menos preciso do que adivinhar que todos estavam precisamente no meio de cada atributo, ou seja, igualmente introvertidos e extrovertidos, igualmente fechados e abertos, e assim por diante. Além disso, o modelo previu corretamente todos os cinco traços de personalidade para apenas 1% das pessoas, mas estava errado sobre todos os cinco traços para 6% das pessoas.

Kogan alegou que não sabia que os dados coletados de seu aplicativo seriam usados para criar esses modelos de regressão. Ele argumenta que há uma maneira muito mais eficaz de obter dados para fazer publicidade direcionada no Facebook. A Cambridge Analytica pegou os dados gerados por Aleksandr Kogan para prever as personalidades das pessoas com base no modelo OCEAN. Assim, a Cambridge Analytica conseguiu publicar anúncios apenas sobre os 30 milhões de pessoas cujas informações foram coletadas por Kogan. Um método melhor, ele argumenta, é usar a plataforma de publicidade do Facebook. A plataforma de publicidade do Facebook permite que os desenvolvedores criem públicos-alvo semelhantes a um público selecionado manualmente. Kogan descreve como seria muito mais fácil obter detalhes de certas pessoas que representam com precisão um traço de personalidade específico e, em seguida, usar as ferramentas do Facebook para criar um público parecido para alcançar um grupo de pessoas com o mesmo traço de personalidade do grupo original.

O próprio CEO Alexander Nix corrobora esses resultados. Ele afirmou em seu depoimento aos membros do comitê "Digital, Cultura, Mídia e Esporte" do parlamento britânico. Ele argumentou que o conjunto de dados de Kogan não era muito útil e que constituía uma pequena parte de sua estratégia geral para a eleição presidencial dos Estados Unidos em 2016. Como podemos ressonar essa admissão, com sua apresentação na cúpula de Concórdia, na qual Nix se gabou abertamente sobre a capacidade de usar dados do Facebook para sintonizar um instrumento incrivelmente poderoso que afeta significativamente as eleições? A resposta para isso veio do próprio Nix em seu depoimento, afirmando que ele usou no passado uma hipérbole ao lançar sua empresa para clientes em potencial. Essa visão é corroborada por Kogan, que menciona como “o Nix está tentando promover (o algoritmo da personalidade) porque ele tem um forte incentivo financeiro para contar uma história sobre como a Cambridge Analytica tem uma arma secreta” (Sumpter, p. 54).

Nix não foi a única pessoa a exagerar a influência da empresa na eleição de 2016. Considerando as manchetes na grande mídia, a maioria das pessoas pode acreditar nos modelos de regressão que preveem a personalidade dos gostos das páginas do Facebook e, por extensão, o modelo da Cambridge Analytica era muito preciso. Assim, como ressoamos manchetes como "Como o Facebook conhece você melhor do que seus amigos" pela revista Wired, "O Facebook conhece você melhor do que os membros da sua família" pela CNBC e The Telegraph, e "Facebook conhece você melhor do que alguém mais 'pelo New York Times? Todos esses artigos citaram o mesmo estudo, conduzido por Wu Youyou, Michal Kosinski e David Stillwell, intitulado "Julgamentos de personalidade baseados em computador são mais precisos do que os feitos por humanos". Christopher Wylie também citou o mesmo estudo em suas provas escritas apresentadas antes de seu depoimento ao parlamento britânico no comitê Digital, Cultura, Mídia e Esporte, e afirma que é uma evidência de que os métodos da empresa são bem-sucedidos. Este estudo fez com que os participantes fizessem um teste com 100 questões para determinar suas pontuações no modelo de personalidade do OCEAN. O estudo então comparou as capacidades preditivas de um modelo de regressão criado usando os gostos de página do Facebook de cada indivíduo com as capacidades preditivas de amigos, parentes, colegas e cônjuges do indivíduo. Eles mediram as capacidades preditivas das outras pessoas fazendo com que essas pessoas respondessem a um questionário com dez perguntas. Eles descobriram que o modelo de regressão se correlacionou melhor com o teste de 100 itens do que as respostas no questionário de 10 itens feito por outras pessoas. No entanto, as próprias pesquisas admitem que “Nosso estudo é limitado em que os juízes humanos só poderiam descrever os participantes usando um questionário de 10 itens sobre as cinco principais características. Na realidade, eles podem ter mais conhecimento do que o que foi avaliado no questionário. ”(Youyou)

Assim, a implicação que tem sido desenhada por esses artigos, como a primeira linha de um artigo na CNBC “Um computador pode determinar sua personalidade melhor do que sua família de amigos mais próxima usando seus 'curtidas' no Facebook para julgar seu personagem” é muito exagerado em comparação com a realidade terrestre. Brian Connelly, que estuda personalidade no local de trabalho e também é professor associado no Departamento de Administração da Universidade de Toronto, Scarborough afirma que, embora o trabalho de pesquisa citado tenha sido “interessante e provocativo”, “a mídia está sensacionalizando os resultados” ( Sumpter (p. 55). Ele disse que uma manchete de notícias precisas refletindo a conclusão do estudo seria “As descobertas preliminares sugerem que o Facebook conhece você bem como um conhecido próximo (mas estamos aguardando para ver se o Facebook pode prever seu comportamento)” (Sumpter, Pg 55).

A mídia, no entanto, alimentada por Christopher Wylie, afirmou que a microssegmentação da Cambridge Analytica foi extremamente influente em ajudar Trump a ser eleito. Nas evidências escritas de Christopher Wylie para o comitê "Digital, Cultura, Mídia e Esporte" do parlamento britânico, ele citou uma série de estudos como evidência de que "destaca a eficácia do uso de mídia social, linguagem natural ou dados de fluxo de cliques da Internet para perfis psicológicos ou massivos". persuasão ”. No entanto, apenas alguns desses estudos lidam com a previsão de personalidade dos gostos do Facebook. Entre esses, nenhum deles conclui afirmando que tais modelos “quebrariam o Facebook” ou que eles são tão poderosos que deveriam ser denominados como “ferramenta de guerra psicológica”, como descrito por Wylie (The Guardian). Além disso, Wylie também afirmou que uma das razões pelas quais ele se tornou um informante, foi porque a estratégia da empresa no Facebook ajudou Trump a vencer a eleição. Ele afirmou que "Donald Trump faz com que clique em sua cabeça que isso tem um impacto muito mais amplo" (The Guardian), mas não mencionou que os dados do Facebook foram excluídos pela empresa, antes da eleição geral.

Um exemplo proeminente de hipérbole na mídia, é um segmento de 'The Daily Show', de Trevor Noah, em 21 de março de 2018. Noah perpetuou a noção de que os modelos da Cambridge Analytica eram extremamente precisos e tocou uma série de clipes para apoiar essa narrativa . O primeiro clipe foi de uma história da CNN onde o apresentador afirmou que “o nível do que pode ser previsto sobre você com base no que você gosta no Facebook é maior do que sua esposa diria sobre você, o que seus pais ou amigos poderiam dizer sobre você O segundo foi de Christopher Wylie, que afirmou que a empresa "tentará escolher qualquer fraqueza mental ou vulnerabilidade que nós pensamos que você tem e tentar distorcer a sua percepção do que é real em torno de você." Noé, em seguida, sugeriu que a campanha Trump usado esses dados e afirmaram que a Cambridge Analytica operava “dez níveis” acima da publicidade tradicional e fez um clipe dizendo que “a empresa de dados contratada pela campanha presidencial de Donald Trump usou informações obtidas secretamente de dezenas de milhões de usuários do Facebook para direcionar diretamente o potencial Eleitores americanos ”e que“ toda a operação centrou-se no engano, no falso apoio de base e numa estratégia que parece fazer fronteira lavagem cerebral". Noah não mostra esses clipes no contexto completo, mas apenas mostra pequenos trechos e, além disso, o fato de o Cambridge Analytica ter excluído, ou pelo menos reivindicado excluir todos os dados do Facebook e não usá-los para ajudar Trump, não mencionado. Alegações feitas em todos os clipes são hiperbólicas, e o apoio científico por trás de tais alegações não é fornecido.

Dada a evidência de que o modelo de regressão da empresa não foi tão preciso quanto alegado, vale a pena examinar algumas possíveis razões por trás dessa hipérbole. Histórias e manchetes simples e sensacionalistas provavelmente obtêm uma audiência melhor, devido à natureza supersimplificada de clickbait desses artigos. Além disso, as alegações de que Donald Trump de alguma forma se beneficiou dos anúncios do Cambridge Analytica no Facebook também são imprecisas, dado que a empresa provavelmente excluiu os dados do Facebook antes do início das eleições gerais entre Trump e Clinton. No entanto, talvez as histórias polarizadas, críticas a Trump, tenham uma audiência mais elevada do que as histórias mais equilibradas. Além disso, Wylie não deixou a empresa em bons termos. Ele criou uma empresa concorrente chamada Eunoia Technologies, que essencialmente fazia modelagens microdirecionais e psicográficas como a Cambridge Analytica. Ele também recebeu dados da Global Science Research e foi posteriormente solicitado a excluí-lo. Ele então “sem sucesso armou seus serviços para uma facção pró-Brexit, mas conseguiu um contrato de US $ 100.000 de uma entidade legislativa canadense” (Freeze) e “fundou o operacional político republicano Corey Lewandowski em ferramentas de microssegmentação que poderiam ser implantadas em nome de 2016 presidencial de Donald Trump campanha ”(Mac). Ele, portanto, tem um incentivo para questionar a ética da Cambridge Analytica e criar publicidade negativa para a empresa, o que pode explicar seu exagero em descrever o impacto dos esforços da empresa.

O impacto dos anúncios do Facebook administrados pela Cambridge Analytica nas eleições presidenciais de 2016 foi exagerado pelo CEO Alexander Nix, pela mídia e por Christopher Wylie. Os modelos de regressão ainda não são muito precisos, e a estratégia de propaganda segmentada no micro-alvo provavelmente não foi usada para a campanha Trump. Embora os anúncios do Facebook administrados pela Cambridge Analytica possam não ter tido tanto impacto nas eleições de 2016 nos EUA, este é apenas o começo no campo da publicidade direcionada por meio da mídia social. Com 2,3 bilhões de usuários ativos mensais no Facebook e 1,5 bilhão de usuários ativos diários, o Facebook é uma ferramenta diferente de qualquer outra. O fato de seus amigos fazerem um teste poderem extrair seus dados no Facebook pode ter surpreendido muitas pessoas. Assim, como o número de usuários no Facebook continua a crescer em todo o mundo, o Facebook tem a responsabilidade crítica de comunicar claramente as opções de privacidade aos usuários. Este é apenas o começo do uso de anúncios micro-segmentados no Facebook, não fique surpreso no futuro se você vir anúncios políticos no Facebook que ressoam fortemente com você, antes de uma eleição.

Trabalhos citados

Berghel, Hal. “Malice Domestic: The Cambridge Analytica Dystopia.” Computer , vol. 51, não. 5, 2018, pp. 84-89., Doi: 10.1109 / mc.2018.2381135.

Davies, Harry. “Campanha de Ted Cruz usando uma empresa que colhia dados sobre milhões de usuários que não gostavam do Facebook.” The Guardian , Guardian News and Media, 11 de dezembro de 2015, www.theguardian.com/us-news/2015/dec/11/senator-ted- cruz-presidente-campanha-facebook-usuário-dados

Congele, Colin. "Plano de negócios criado por Christopher Wylie lança luz sobre as ambições, ansiedade sobre Big Data". O Globo e o Correio , O Globo e o Correio, 5 de maio de 2018, www.theglobeandmail.com/politics/article-business-plan-hatched -por-christopher-wylie-galpões-luz-no-apito /.

Kennedy, Merrit. "'Eles não se importam': denunciante diz Cambridge Analytica tem como objetivo minar a democracia." NPR , NPR, 27 de março de 2018, www.npr.org/sections/thetwo-way/2018/03/27/597279596/they- don-t-care-whistleblower-diz-cambridge-analytica-procura-undermine-democr.

Lafferty, Justin. "Quantas páginas o usuário médio do Facebook gosta?" – Adweek , Adweek, 11 de abril de 2013, www.adweek.com/digital/how-many-pages-does-the-average-facebook-user-like/.

Mac, Ryan. “O informante da Cambridge Analytica queria que sua nova empresa trabalhasse com o gerente da campanha Trump.” BuzzFeed News , BuzzFeed News, 28 de março de 2018, www.buzzfeednews.com/article/ryanmac/cambridge-analytica-chris-wylie-eunoia-trump- campanha.

McCausland, Phil e Anna Schecter. "Os consultores da Trump Linked coletaram dados de milhões no Facebook". NBCNews.com , NBCUniversal News Group, 17 de março de 2018, www.nbcnews.com/news/us-news/cambridge-analytica-harvested-data-millions-unsuspecting- facebook-users-n857591.

Notícias, Canal 4. “O ex-CEO da Cambridge Analytica Alexander Nix Enfrenta os MPs (Versão Completa).” YouTube , YouTube, 6 de junho de 2018, www.youtube.com/watch?v=weQ9E6e3aJo&t=5747s .

Notícias, Guardião. “Cambridge Analytica Whistleblower Christopher Wylie aparece antes de MPs – Assista ao vivo.” YouTube , YouTube, 27 de março de 2018, www.youtube.com/watch?v=X5g6IJm7YJQ&t=4872s.

Nix, Alexander. YouTube , Concordia, 27 de setembro de 2016, www.youtube.com/watch?v=n8Dd5aVXLCc .

Smith, Dave. "Armas da Micro-Destruição: como o nosso 'gosta' da democracia sequestrada". Em direção à Data Science , Towards Data Science, 17 de outubro de 2018, em direção a http://download.cz.webdirections.com/weapons-of-micro-destruction-how-our-likes-hijacked-democracy- c9ab6fcd3d02 .

Sumpter, David JT Em menor número: do Facebook e do Google a notícias falsas e filtros-bolhas – os algoritmos que controlam nossas vidas . Bloomsbury Sigma, 2018. Capítulo 5

O Daily Show com Trevor Noah. “Lavagem cerebral eletrônica: a sinistra estratégia Facebook da Cambridge Analytica | The Daily Show. ” YouTube , YouTube, 21 de março de 2018, www.youtube.com/watch?v=t7epj5tK54M .

Youyou, Wu, et al. "Julgamentos de personalidade baseados em computador são mais precisos do que os feitos por seres humanos." PNAS , Academia Nacional de Ciências, 27 de janeiro de 2015, www.pnas.org/content/112/4/1036?sid=fefde0d1-d260-40e6- 84d3-a1992208031a.

UK, RT. “AO VIVO: O Pesquisador da Cambridge Analytica Aleksandr Kogan Testemunha aos MPs.” YouTube , YouTube, 24 de abril de 2018, www.youtube.com/watch?v=hpzc26bzp1M&t=5106s .

Texto original em inglês.