Os Facebook Papers, documentos internos do Facebook que foram vazados pela ex-executiva da empresa Frances Haugen. Revelaram muitas informaç...
Os Facebook Papers, documentos internos do Facebook que foram vazados pela ex-executiva da empresa Frances Haugen. Revelaram muitas informações chocantes sobre a companhia. Entre elas, como o algoritmo do Facebook tratava o emoji de raiva de forma diferenciada.
Facebook Papers são um conjunto de mais de dez mil documentos internos que foram fornecidos ao Congresso dos EUA de forma editada pelo consultor jurídico de Frances Haugen. As versões editadas foram revistas por um consórcio de 17 organizações de notícias, incluindo o The Washington Post, CNN, Reuters, Associated Press, Bloomberg, Politico, Le Monde e The New York Times.
A falha na moderação do discurso de ódio e na disseminação da desinformação, sobretudos em países de língua não inglesa, são dois dos principais problemas apontados ao Facebook. Ou seja, a acusação é que mesmo com os funcionários avisando seus diretores, o Facebook estaria colocando o lucro na frente das pessoas.
Em 2017, o empresa tentava reverter um declínio preocupante na quantidade de pessoas que postavam e falavam umas com as outras no site, e as reações emoji lhe deram cinco novas variáveis para seu algoritmo de seleção analisar e considerar na hora de escolher o que os usuários veriam. Na época, cada reação emocional valia cinco vezes. A lógica era que um emoji de reação sinalizava que o post tinha causado uma impressão emocional maior do que um semelhante; reagir com um emoji tinha um peso maior do que um simples clique ou toque no botão curtir. Embora o Facebook tenha minimizado a importância que dava a essas reações: A empresa disse ao Mashable naquele ano que estava pesando apenas em "um pouco mais do que likes".
Ou seja, se você já usou o emoji da raiva “😠”, saiba que, após 2017, ele passou a valer 5 vezes mais do que uma curtida tradicional “👍” para o algoritmo do Facebook que escolhe quais postagens irão aparecer para você e para os outros usuários (e em que ordem).
É muito simples: As mensagens que provocavam muitas reações emoji tendiam a manter os usuários mais engajados, e manter os usuários engajados era a chave para os negócios do Facebook.
Muitos não sabem, mas não é a ordem cronológica que define o que vai aparecer para você. Na realidade são levados em conta mais de dez mil sinais que muitos usuários nem suspeitam que influenciam nessa ordem, e que o Facebook não revela de forma alguma e cita como razão de tanto segredo o receio do algoritmo ser manipulado por pessoas mau intencionadas.
São considerados para esse cálculo fatores como quantos comentários longos uma postagem gera, ou se um vídeo é ao vivo ou gravado, ou se os comentários foram feitos em texto simples ou com avatares de desenhos animados, conforme os documentos revelam.
Consideram até mesmo o quanto cada postagem requer de recursos do computador para ser processada e exibida e a velocidade da Internet do usuário.
Dependendo do fator, um pequeno ajuste no algoritmo pode ter o efeito de se espalhar pela rede, fazendo com que as notícias em seu mural sejam de fontes confiáveis ou não, políticas ou não, se você verá mais de seus amigos reais ou mais mensagens de grupos do Facebook que você queria participar, ou se o que você viu poderia te enfurecer, chatear ou inspirar.
Os próprios pesquisadores do Facebook rapidamente suspeitaram de um problema sério. Favorecer posts “controversos” - inclusive aqueles que irritam os usuários - poderia abrir “a porta para mais spam/abuso/clickbait inadvertidamente”, escreveu um funcionário, cujo nome foi redigido, em um dos documentos internos. Um colega respondeu: "É possível".
Em 2019, o alerta mostrou estar correto. Os cientistas de dados da empresa confirmaram que os posts que provocaram uma reação de raiva emoji “😠” eram muito mais prováveis de incluir desinformação, toxicidade e notícias de baixa qualidade.
Isso significou que por três anos o Facebook amplificou o que havia de pior em sua plataforma, tornando a desinformação e o discurso de ódio mais proeminentes ao oferecer conteúdo para os usuários e divulgando-o para um público muito mais amplo.
Esse poder do impulsionamento algoritmico acabou superando os esforços dos moderadores de conteúdo e das equipes de integridade do Facebook, que estavam travando uma batalha difícil contra o conteúdo tóxico e nocivo.
“A raiva e o ódio é a maneira mais fácil de crescer no Facebook.”Frances Haugen. Em depoimento ao parlamento britânico.
Já a porta-voz do Facebook, Dani Lever, declarou:
“Continuamos a trabalhar para entender o conteúdo que cria experiências negativas, para que possamos reduzir sua distribuição. Isto inclui o conteúdo que tem uma quantidade desproporcional de reações de raiva, por exemplo”.
De acordo com os Facebook Papers, outros funcionários além da própria Haugen, que trabalhou na empresa desde 2019 a maio deste ano, várias vezes soaram alarmes internos tentando chamar a atenção para os problemas. Ainda na sexta-feira, 22, um outro antigo funcionário apresentou anonimamente uma queixa contra o Facebook na Comissão de Valores Mobiliários e de Câmbio (SEC), com alegações semelhantes às suas.
Em 2019, um funcionário do Facebook ficou chocado com o resultado da experiência que fez para perceber como o algoritmo lidava com regionalismos. Criou uma conta como se morasse na Índia e pediu para que essa conta seguisse todas as recomendações geradas pelos algoritmos do Facebook para entrar em grupos, ver vídeos e explorar outras páginas da rede social (isso me lembrou a experiência do documentário Super Size Me, A Dieta do Palhaço, onde o protagonista aceita tudo o que os atendentes sugerem. Nota do editor).
Ao fim de pouco tempo, deparou-se com um problema de recomendações enviesadas do Facebook, conforme apurou o The New York Times.
“Seguindo o feed de notícias desse usuário de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida.”Trecho escrito por um funcionário anônimo nos documentos que vieram a público.
Haugen declarou no seu testemunho no Congresso, no início deste mês, que os produtos do Facebook “prejudicam as crianças e debilitam a democracia”. E não vacilou em apontar os dirigentes da empresa como responsáveis diretos pois, segundo ela,
“[Eles] sabem como conseguir com que o Facebook e o Instagram sejam mais seguros, mas não fazem as alterações necessárias porque põem os lucros astronômicos à frente das pessoas”.
Fonte: Visão, The Washington Post
Visto no Brasil Acadêmico
Visto no Brasil Acadêmico
Comentários