Início » Internacional » É possível combater o ódio online?
REDES SOCIAIS

É possível combater o ódio online?

Desmembrar, atrasar e diluir conteúdo ofensivo pode funcionar melhor do que apenas excluí-lo

É possível combater o ódio online?
Excluir o conteúdo não é a única maneira de lidar com o ódio online (Foto: Stacey MacNaught/Flickr)

Como as empresas de tecnologia devem lidar com conteúdo ofensivo ou perigoso? Se você perguntasse isso à maioria dos internautas, muitos poderiam responder com uma palavra: “excluir”.

Nós constantemente usamos o botão “Delete” em nossas próprias telas – e os gigantes da internet também. Tomemos, por exemplo, a forma como o Facebook, o Twitter e o YouTube se esforçaram para remover imagens de vídeo do ataque contra muçulmanos a mesquitas da Nova Zelândia. Ou como as mesmas empresas contrataram exércitos de “moderadores de conteúdo” para derrubar material ofensivo todos os dias (sem dúvida um dos novos trabalhos mais horríveis do século 21).

Mas, à medida que esta corrida se intensifica, há um problema: geralmente, ela está fadada ao fracasso. Mesmo quando os gigantes da tecnologia se esforçaram para remover as imagens horríveis de Christchurch da internet em meio a protestos públicos, o material continuou ressurgindo porque os usuários estavam constantemente republicando-o. Excluir conteúdo é como perseguir uma barra de sabão no banho: ela continua escorregando.

Nos bastidores, à medida que o problema online do discurso do ódio se agrava, alguns técnicos começam a sugerir que, em vez de apenas eliminar, é hora de se concentrar em outro conjunto de táticas: desmembrar, atrasar e diluir.

Isso pode soar estranho, mas a ideia foi exposta há algumas semanas, em um ensaio de Nathaniel Persily, um professor de direito da Universidade de Stanford, que o escreveu para estruturar o trabalho da Comissão Kofi Annan. Convocada no ano passado pelo ex-secretário-geral da ONU, a iniciativa visa aconselhar sobre as melhores práticas para proteger a democracia de notícias falsas, extremismo online e afins.

O ensaio de Persily começa dizendo que, nos primórdios da internet, os técnicos, às vezes, afirmavam que suas plataformas eram como uma “praça da cidade” – um lugar onde as pessoas pudessem, através de reuniões e conversas, contribuir para o bem maior. É uma imagem atraente, mas está errada.

Uma praça da cidade física tem contornos fixos e pode, em princípio, ser vista por todos. Uma “praça da cidade” digital, ao contrário, é constantemente redefinida pelos participantes – e ninguém vê o mesmo espaço. É devido à miríade de algoritmos que os mecanismos de pesquisa usam para moldar nossa visão, priorizando o conteúdo que vemos de acordo com nossos padrões de consumo. “As escolhas que as plataformas fazem quanto à prioridade relativa de certos tipos de conteúdo são, em muitos aspectos, mais importantes do que as decisões sobre o conteúdo a ser retirado”, diz Persily.

Não temos ideia de como esses algoritmos funcionam, portanto, a maioria de nós não consegue medir como eles estão nublando nossa visão do “quadrado” – ou perceber o que não estamos vendo como resultado das “prioridades” de uma empresa de tecnologia. Nunca antes tal poder extraordinário ficou nas mãos de gigantes do setor privado.

Mas há um lado positivo: se empresas como o Google ou o Facebook quiserem lidar com vídeos massivos e incitamentos ao ódio, eles nem sempre precisam excluí-los. Uma tática é usar algoritmos para afogá-los ou adiar a rapidez com que eles aparecem.

Outra tática possível é o desvio/diluição. Considere o projeto “Redirect”, criado pela Jigsaw, uma divisão do Google. Há três anos, a empresa buscou identificar as palavras-chave usadas pelos usuários da Internet para pesquisar vídeos de recrutamento do Estado Islâmico (Isis) e, em seguida, introduziu algoritmos que redirecionavam esses usuários para o conteúdo anti-Estado Islâmico. “Ao longo de oito semanas, 320 mil pessoas assistiram a mais de meio milhão de minutos dos 116 vídeos que selecionamos para refutar os temas de recrutamento da Isis”, explica o site do projeto.

A Jigsaw não diz se a estratégia funcionou, retardando o recrutamento para a Isis. Mas claramente considera a abordagem valiosa: atualmente, a página da Redirect oferece um plano para quem quiser copiar a tática. Sem dúvida, alguns governos ocidentais estão considerando seu potencial contra extremistas de direita.

Isso é uma boa ideia? Alguns podem argumentar que isso depende do contexto: as mesmas ferramentas que estão sendo usadas para combater os vídeos do Ísis também poderiam ser mal utilizadas por governos abusivos. A China, por exemplo, é adepta de usar essa estratégia. E, menos dramaticamente, você só precisa olhar para o Facebook para ver como a manipulação de algoritmos pode sair pela culatra.

Um relatório recente do NewsWhip, um rastreador de mídia social, observa que quando o Facebook mudou seu algoritmo no ano passado para dar mais prioridade ao conteúdo que “engaja” os usuários, isso causou um aumento na visibilidade de notícias criadas para provocar raiva ou indignação.

Mas, à medida que o conteúdo impulsionado pelo ódio se prolifera online, o uso dessas táticas provavelmente se intensificará. Remover o conteúdo não é a única maneira de moldar nossas mentes. As táticas de censura mais poderosas são aquelas que nunca vemos – para o bem e para o mal.

Leia também: Como escapar da mentira na era da desinformação

Fontes:
Financial Times-Is there a smarter way to tackle online hate?

Os comentários são de responsabilidade de seus autores e não refletem a opinião deste site

Sua Opinião

O seu endereço de email não será publicado. Campos obrigatórios são marcados *