Comparação de algoritmos para detecção de bots sociais nas eleições presidenciais no Brasil em 2018 utilizando características do usuário

Autores

  • Bianca Lima Santos Universidade de São Paulo
  • Gabriel Estavaringo Ferreira Universidade de São Paulo
  • Marcelo Torres do Ó Universidade de São Paulo
  • Rafael Rodrigues Braz Universidade de São Paulo
  • Luciano Antonio Digiampietri Universidade de São Paulo https://orcid.org/0000-0003-4890-1548

DOI:

https://doi.org/10.5335/rbca.v13i1.11199

Palavras-chave:

Bot, Classificação, Redes sociais, Twitter, Eleições, Aprendizado de máquinas

Resumo

O uso de bots sociais com fins políticos tem se tornado uma preocupação cada vez mais relevante e tem levantado alertas sobre o impacto nas discussões democráticas. Este trabalho apresenta um estudo de caso sobre o uso de bots nas discussões políticas durante o período do segundo turno das eleições brasileiras de 2018, visando construir um modelo de detecção automática para bots e comparando o uso de algoritmos de inteligência artificial explicáveis e não-explicáveis. Primeiramente foi construído um conjunto de dados rotulando manualmente contas entre bots e humanos. Então foram aplicados algoritmos de regressão linear, árvores aleatórias, Bayesiano ingênuo, multilayer perceptron e random forest. Foi identificado que mesmo algoritmos mais simples e explicáveis como árvore aleatória têm um desempenho semelhante a algoritmos mais complexos como random forest. Utilizando apenas características do usuário, foi possível identificar mais de 46% dos bots, porém todos modelos apresentaram uma precisão não maior que 52% nessa tarefa.

Downloads

Os dados de download ainda não estão disponíveis.

Downloads

Publicado

09-11-2020

Edição

Seção

Artigo Original

Como Citar

[1]
2020. Comparação de algoritmos para detecção de bots sociais nas eleições presidenciais no Brasil em 2018 utilizando características do usuário. Revista Brasileira de Computação Aplicada. 13, 1 (nov. 2020), 53–64. DOI:https://doi.org/10.5335/rbca.v13i1.11199.