Ódio prospera nas redes sociais

Perfil de um dos assassinos recebeu milhares de seguidores desde o crime e continua no ar no Twitter e no YouTube
Jovens se reúnem em locais que propagam discurso de ódio na internet, mesmo nas grandes redes sociais Foto: ÉPOCA
Jovens se reúnem em locais que propagam discurso de ódio na internet, mesmo nas grandes redes sociais Foto: ÉPOCA

Por mais nebulosas que sejam as motivações que levaram dois jovens a cometer um massacre com sete mortos na escola Raul Brasil, em Suzano (SP), as investigações policiais apontam que a internet serviu de fonte de informação e inspiração para os assassinos. A rede abriga uma comunidade de jovens que discute, idolatra e comenta ações nefastas como o massacre de Suzano. E não são grupos limitados a espaços da chamada deep web, como é o caso dos Chans, conhecidos celeiros do discurso de ódio . Esses grupos atuam também nas principais redes sociais.

ÉPOCA teve acesso a dois perfis em redes sociais pertencentes a um dos atiradores. Em um deles, o jovem compartilhava a intenção de cometer o massacre havia pelo menos um ano. Em outro, aparece em vídeo se preparando para realizar o crime a cinco dias do atentado e exaltando outros assassinos em série. Desde segunda-feira (18), o número de seguidores desses perfis cresceu exponencialmente. As plataformas Twitter e YouTube, além da Polícia Civil, foram informadas sobre a existência das contas.

Os perfis foram identificados por meio de uma série de informações contidas neles. Em um dos vídeos, o atirador aparece “treinando” sua pontaria com um arco e flecha, uma das armas utilizadas no crime, e com o rosto visível. Em outra rede, ele compartilhou uma foto na mesma data em que a havia publicado em seu perfil do Facebook — que já foi deletado e ao qual ÉPOCA também teve acesso. Além disso, ambos os perfis utilizam o mesmo nome de usuário.

No Twitter, o perfil recebeu centenas de novos seguidores após o atentado, passando de algumas dezenas para mais de 1.000 no período monitorado. Entre eles, ao menos 40 glorificavam o massacre brasileiro e outros episódios similares no resto do mundo. Havia também muitos adolescentes, de 12 a 16 anos, que passaram a seguir a conta.

Ao menos desde 2018 o assassino de Suzano compartilhava mensagens que defendiam abertamente o uso da violência contra outras pessoas. Também descreveu, diversas vezes, os planos que bolava para tomar uma ação que, vista em retrospecto, resultou no massacre. Nos últimos meses do ano passado, por exemplo, uma postagem dizia que o assassino precisava adiar seus planos. Já neste ano, ele chegou a se mostrar preocupado com uma possível desistência do outro autor do crime e afirmou que estaria disposto a matá-lo por isso.

No YouTube, o assassino postava vídeos com montagens em homenagem a outros serial killers que admirava, referindo-se a eles com expressões como “matador legendário” ou “rei dos atiradores em série”.

Segundo a psicóloga Luciana Nunes, diretora do Instituto Psicoinfo, não há uma correlação direta entre a exposição a esse tipo de conteúdo violento e uma mudança de comportamento ou personalidade do usuário, mas existe um padrão de estados emocionais que levam crianças e jovens a esse caminho. “O uso patológico da Internet tem sido associado a indicadores psicossociais como solidão, baixa autoestima, baixa de competência ou habilidades sociais e baixa satisfação com a vida — e esses indicadores não têm nada a ver com controles maiores de fluxo de navegação ou com a tecnologia. Estamos falando de saúde mental”, explicou.

Em diversos grupos na internet, tanto nos Chan — os grupos de ódio de acesso restrito na chamada deep web — quanto nas grandes redes sociais, há exaltação à violência, a armas de fogo e a assassinos em série. Eles relatam desprezo profundo pelo que essas comunidades chamam de “justiça social” e mostram comportamentos e depoimentos racistas; xenófobos; homofóbicos e de ódio às mulheres (a quem esses grupos apontam como “culpadas” de seu sofrimento). Multiplicam teorias da conspiração e a reprodução de ideologias nazistas e fascistas.

O uso de redes sociais para o planejamento de ataques tem se tornado mais frequente. Na segunda-feira (18), a Polícia Civil do Rio de Janeiro apreendeu um menor de 16 anos acusado de planejar um ataque contra uma escola da Zona Norte da cidade. Informada por um aluno da instituição, a Polícia chegou ao suspeito por meio de mensagens trocadas em redes sociais. O possível agressor disse que era vítima de bullying e que teria de tomar medidas mais “extremas”, mostrando depois uma foto segurando um revólver. Em outras mensagens, ele chega a citar o massacre de Suzano, dizendo fazer parte de um grupo espalhado pelo Brasil que organizaria esse tipo de atentado.

A análise das mensagens compartilhadas pelo perfil do atirador de Suzano mostra um cenário preocupante na rede: foram ao menos 200 postagens repletas de conteúdo de ódio, que estiveram (e estão) disponíveis há pelo menos um ano nas plataformas. Ainda que algumas das mensagens tenham sido apagadas após denúncias de usuários, é possível ver como o perfil do jovem revelava sinais de uma personalidade violenta. Como mostra a nuvem de palavras dos termos utilizados naquele perfil — produzida pelo professor da Universidade Federal do Espírito Santo (UFES) Fábio Malini —, o termo “vida” aparece associado a “armas” e “guerra”; e a palavra “governo” está próxima de “inimigo”.

(A nuvem de palavras acima, gerada por Fábio Malini a partir dos tweets do perfil analisado, agrupa os termos por proximidade de uso. Portanto, palavras que eram utilizadas em conjunto aparecem como círculos próximos na visualização. O tamanho dos círculos representa a quantidade de vezes que a palavra foi utilizada.)

É impossível, porém, saber até que ponto o jovem interagia com outras pessoas na plataforma. O perfil tem poucas curtidas nas postagens públicas, todas de glorificação e defesa do uso de armas de fogo e sobre outros eventos de violências aguda. Ele seguia poucas centenas de usuários e é impossível saber quantos já o seguiam naquele momento e viram seu discurso de ódio se desenvolver.

Para Malini, esse tipo de comportamento de isolamento e pouca interação pode ter a ver com algumas características das redes sociais. Segundo o professor, espaços como o Twitter não conseguem gerar uma cultura de diálogo: “O Twitter é baseado no que eles chamam de statements [declarações]. Você declara e se manifesta nas postagens e, nesses casos, não interessa a conversa e a opinião de terceiros. E todos nós usamos as redes assim, ainda que só um pouco”.

Segundo o professor e pesquisador do Monitor do Debate Público no Meio Digital da Universidade de São Paulo, Pablo Ortellado, o monitoramento desses discursos é uma tarefa quase impossível para as redes sociais: “Cada uma dessas plataformas tem cerca um bilhão de usuários. Eles têm algoritmos para tentar identificar conteúdo impróprio, mas é impossível pegar tudo. Ou se coloca tudo sob censura prévia, ou naturalmente as coisas vão passar”, explicou. Só o Facebook, por exemplo, tem mais de um bilhão de usuários ativos todos os dias, que geram conteúdo de forma ininterrupta. Em 2017, as pessoas assistiram diariamente a 1 bilhão de horas de vídeos no YouTube. Apesar disso, Ortellado destaca a natureza preocupante do perfil. Por que, então, perfis desse tipo conseguem prosperar e passar despercebidos nas redes, e não são deletados mesmo após denúncias?

REDE MUNDIAL

Jovens se radicalizam na internet, o que pode trazer consequências também na violência do mundo real Foto: ÉPOCA
Jovens se radicalizam na internet, o que pode trazer consequências também na violência do mundo real Foto: ÉPOCA

Em setembro do ano passado, o jornal britânico The Guardian investigou os resultados de um estudo que apontava uma ligação entre canais de “informação alternativa” no YouTube e a radicalização de jovens interessados originalmente em ideias libertárias e conservadoras. Segundo o estudo, o algoritmo de recomendação da plataforma era uma das maneiras como seus usuários poderiam encontrar esse tipo de conteúdo, que era propagado por pelo menos 65 contas que professavam temas como a oposição ao feminismo, à justiça social e à esquerda e que se apresentavam como meios alternativos de informação. Há, inclusive, canais que pregam conteúdos fascistas e racistas, camuflados como pseudociência.

Outro experimento similar, relatado pela professora Zeynep Tufekci, da Universidade da Carolina do Norte, mostra que independentemente de qual seja o assunto de interesse, a tendência natural do algoritmo é direcionar o usuário a conteúdo cada vez mais radical. Ao consumir conteúdo sobre vegetarianismo, o internauta é direcionado a material sobre veganismo; vlogs de corridas levam a ultramaratonas; e vídeos sobre política, seguindo o mesmo mecanismo, podem encaminhar o usuário a um abismo que inclui temas como negação do holocausto e supremacia branca, no caso do material de direita, ou conspirações sobre atividades secretas do governo, no teste mais inclinado à esquerda.

Essa realidade não se limita ao YouTube. O Reddit, um dos maiores portais de discussão da internet, é alvo de repetidas críticas sobre a toxicidade de parte de sua comunidade. Um de seus subfóruns, dedicado aos autodenominados “incels” (celibatários involuntários, que professam ódio pelas mulheres e já estiveram associados a massacres cometidos no exterior), tinha 40 mil membros até ser excluído, em 2017.

Uma tática empregada pelos controladores das redes é a de moderação humana para coibir ou excluir postagens que violem suas respectivas regras de uso. Milhares de “moderadores de conteúdo” são contratados para “limpar” as plataformas. São eles que lidam com as incontáveis denúncias recebidas, e por isso acabam tendo de se confrontar com tudo que há de pior na humanidade: pedofilia, bestialidade, violência explícita, entre outras coisas. Para piorar, a decisão do que pode ou não ficar no ar costuma ser feita em poucos segundos.

O desgaste emocional causado pelo trabalho é notório: em 2018, uma ex-moderadora de conteúdo chegou a processar o Facebook alegando ter desenvolvido estresse pós-traumático por conta das imagens que teve de ver durante sua jornada de trabalho. Segundo o processo aberto contra a rede social, só o Facebook empregaria 7.500 moderadores, que precisam filtrar até 10 milhões de denúncias feitas semanalmente na plataforma.

Para a Luciana Nunes, pais e responsáveis precisam entender que o problema não está na rede, mas em como as usamos. Os profissionais de saúde também precisam falar mais sobre conceitos como saúde mental e internet saudável. Mas ela também propõe uma abordagem tecnológica: o uso de inteligência artificial para “identificar padrões de comportamento e trabalhar com protocolos criados e validados em planos de ação com a Polícia Federal e o Centro de Valorização da Vida”. “Não acredito que seja de responsabilidade das plataformas digitais essa ação direta de segurança”, afirmou ela, “mas seria uma boa contrapartida com a tecnologia da informação na composição de uma ação em conjunta em prol da sociedade.”

Para Nunes, é preciso estar atento aos sinais de depressão em crianças e jovens, que incluem a tristeza, a perda de interesse em atividades cotidianas e mudanças anormais no apetite. A psicóloga explica que crianças e jovens desamparados e com acesso à rede podem “buscar algum tipo de pertencimento na internet, e aí aparecem os guetos da deep web e grupos que fomentam a cultuam a depressão e a morte”. “Na identificação com esse conteúdo e com pessoas que se sentem da mesma forma, a criança ou o jovem começa a tomar ações que antes eram só pensamentos de morte”, afirmou a psicóloga. Nunes enfatiza que é preciso saber que depressão não é frescura ou simples desmotivação, e que os profissionais estão preparados para tratar esse transtorno.

Casa de uma considerável comunidade conspiratória e de ódio, o fórum Reddit, ao menos desde 2014, trava uma batalhar com os usuários, segundo reportagem da revista americana New Yorker . O YouTube, por sua vez, anunciou que pararia de “promover” vídeos que explicam teorias da conspiração — a medida, porém, ainda não foi bem aplicada. O Pinterest anunciou que deixou de indexar posts com notícias falsas sobre saúde na língua inglesa.

O Twitter e o YouTube seguem diretrizes parecidas. Os dois sites definem conteúdo de ódio como aquele que promove violência e ameaças com base em parâmetros como raça, sexo, religião e orientação sexual. Ao mesmo tempo, ressaltam a importância da liberdade de expressão, efetivamente funcionando como blindagem para discursos como o do agressor de Suzano. Em sua conta no YouTube, além do conteúdo próprio, o jovem interagia com diversos vídeos dedicados à idolatria de outros atiradores, conteúdo que não é barrado pela plataforma, exceto quando considerado “violento ou sangrento”. Uma das regras sobre conteúdo perigoso afirma especificamente que “conteúdo que promove ou enaltece tragédias violentas, como tiroteios em escolas” não é permitido no site, sob pena de remoção. Entretanto, nenhum dos vídeos sobre o assunto nos quais o agressor se engajou ativamente, foi removido ou recebeu restrições de idade, a primeira barreira do site.

A reportagem procurou o Twitter. A empresa afirmou que “tem regras que determinam os conteúdos e comportamentos permitidos na plataforma, e eventuais violações estão sujeitas às medidas cabíveis”. Disse ainda que “todo usuário pode denunciar suspeitas de violações às regras do Twitter”.

Em seu portal, a rede social tem uma página que descreve os procedimentos tomados após denúncias e qual tipo de conteúdo é proibido na plataforma para criar uma “cultura de confiança, segurança e respeito”. Entre eles estão “comportamento abusivo, mídias íntimas, spam, conduta de propagação de ódio, exaltação da violência e grupos extremistas e violentos”. Algumas das postagens chegaram a ser excluídas da plataforma. A resposta a uma denúncia feita pela reportagem por meio do sistema de denúncias do site mostra que o Twitter avaliou que a conta violava as regras contra a “exaltação da violência”. Na página de “execução de suas regras”, a empresa diz que pode “limitar a visibilidade dos tweets, exigir a exclusão de tweets ou edições do perfil ou de mídias e verificar a propriedade da conta” e, alguns casos, “suspender uma conta permanentemente”.

O Google, empresa que é dona do YouTube, também foi ouvido pela reportagem e disse que “todo conteúdo no YouTube deve seguir as Diretrizes da Comunidade”. Entre essas diretrizes estão limites relacionados a nudez ou conteúdo sexual; conteúdo prejudicial ou perigoso; conteúdo de incitação ao ódio; conteúdo explícito ou violento; assédio e bullying virtual; além de outros como spam e direitos autorais. O google disse ainda que conta “com os membros da comunidade do YouTube para denunciar qualquer conteúdo que seja considerado inadequado” e que “como as denúncias são anônimas, os outros usuários não sabem quem as enviou”.

A empresa também afirmou que o conteúdo “não é removido automaticamente após a denúncia”, mas analisado de acordo com as Diretrizes da Comunidade. Se o vídeo as violar, será removido. Conteúdo não adequado para o público mais jovem pode receber “uma restrição de idade” — quando a rede permite que apenas usuários registrados e com idade superior à classificação do vídeo possam vê-lo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *