Monitoramento: métodos, redes sociais monitoradas e dados coletados

Monitoramento: métodos, redes sociais monitoradas e dados coletados

A edição 2022 do MonitorA aconteceu entre os dias 4 de setembro e 4 de novembro, começando no início da campanha eleitoral e terminando alguns dias depois do segundo turno de votações. Monitoramos, durante o período já mencionado, os perfis de 198 candidatas no Twitter, YouTube, Instagram e Facebook. O critério para a coleta de uma publicação foi a presença de termos relacionados no Léxico MonitorA. A ferramenta, criada em 2020 e atualizada em 2022, reúne palavras e expressões frequentemente usadas em atos de violência política de gênero.

Para realizar a coleta de dados dos perfis no Instagram, como a plataforma não oferece acesso a sua API, desenvolvemos um código que simulasse um usuário coletando os comentários. Para isso, utilizamos a linguagem Python e a biblioteca Selenium. Entramos em cada conta dos perfis selecionados para a análise e coletamos as últimas fotos e seus comentários.

Já o YouTube fornece uma API/interface mais amigável para coletar os comentários. O único desafio enfrentado foi o limite diário de requisições, contornado com a utilização de chaves API de múltiplas contas. A coleta foi feita por meio de um código em Python.

No Facebook, desenvolvemos um script que imita o comportamento de múltiplos usuários. Cada um ficou responsável por coletar as postagens mais recentes de cada candidatura a monitorar. Depois, os comentários dessas postagens foram processados, limpos e pré-categorizados como ofensivos ou não, com o auxílio de expressões regulares.

No Twitter, fizemos a busca de publicações que mencionavam qualquer um dos perfis monitorados. Utilizamos o pacote rtweet em R, que faz requisições na API do Twitter. Recorremos a expressões regulares para identificar, de forma automatizada, o que era potencialmente ofensivo, para em seguida prosseguir com a análise manual.

Depois de todas as coletas, estruturamos, limpamos e enviamos tudo para uma base de dados consolidada. Por fim, os dados foram disponibilizados para visualização no dashboard Metabase. Neste “mural”, é possível customizar as categorias, datas e filtros, para então gerar amostras de análise.

Cada uma dessas bases de dados foi analisada em separado, com uso de tabelas dinâmicas e verificação individual de cada publicação. Nessas análises, consideramos se o conteúdo era insulto e/ou ataque. Se sim, detalhamos quais termos caracterizavam essa condição, e em que categoria se encaixava, entre as possibilidades de bifobia, capacitismo/psicofobia, descrédito intelectual, desumanização, etarismo, gordofobia, homofobia, ideologia política, ideologia religiosa, incitar violência/ameaçar, inferiorização, insulto, lesbofobia, misoginia, ofensa moral, ofensa/assédio sexual, racismo, nojo ou transfobia.

A revisão humana visou identificar os discursos mais frequentes na prática de violência política online contra candidatas mulheres, os perfis que mais as atacam, candidatas mais vitimadas, estratégias usadas, entre outras possíveis interpretações.

Cada uma dessas análises, em âmbito nacional, regional ou local, foi transformada em reportagens, conteúdos digitais para redes sociais e relatórios voltados ao combate da violência de gênero online, que servem como subsídio para demandar mudanças junto às plataformas.