Pesquisadores da University of Sheffield desenvolveram um algoritmo que pode identificar se os usuários do Twitter vão espalhar alguma notícia falsa antes que eles realmente o façam. O sistema é baseado na famigerada Inteligência Artificial.
Os líderes da pesquisa são Yida Mu e Nikos Aletras, ambos do Department of Computer Science da universidade. No estudo, foram analisados mais de 1 milhão de tweets de cerca de 6.200 usuários da rede social, desenvolvendo novos métodos de processamento de linguagem natural. Todos os tweets analisados estavam disponíveis de modo público no Twitter.

Os usuários foram separados em duas categorias: os que compartilharam fontes de notícias não confiáveis e aqueles que apenas compartilham histórias de fontes de notícias confiáveis. Os dados foram usados para treinar um algoritmo de machine learning (aprendizado de máquina) que pode prever com precisão de 79,7% se um usuário compartilhará conteúdo de fontes não confiáveis em algum momento no futuro.
Segundo os resultados do estudo, os usuários do Twitter que compartilharam informações de fontes não confiáveis são mais propensos a tweetar sobre política ou religião e usar linguagem imprópria. Algumas das palavras que apareceram com frequência foram “mídia”, “governo”, “Israel” e outros. Por outro lado, o segundo grupo (os que compartilhavam notícias de fontes confiáveis) costumam falar mais sobre sua vida pessoal e as principais palavras encontradas eram “vou”, “quero”, “aniversário”, “animado” e outras.

Segundo Nikos Aletras, “A mídia social se tornou uma das formas mais populares de acesso às notícias, com milhões de usuários recorrendo a plataformas como Twitter e Facebook todos os dias para saber mais sobre eventos importantes que estão acontecendo em casa e ao redor do mundo. No entanto, a mídia social se tornou a principal plataforma para espalhar desinformação, o que está tendo um grande impacto na sociedade e pode influenciar o julgamento das pessoas sobre o que está acontecendo no mundo.”
Yida Mu, que é estudante de doutorado, afirmou que “estudar e analisar o comportamento dos usuários que compartilham conteúdo de fontes de notícias não confiáveis pode ajudar as plataformas de mídia social a evitar a disseminação de notícias falsas no nível do usuário, complementando os métodos de verificação de fatos existentes que funcionam no post ou o nível da fonte de notícias.”
A pesquisa foi publicada na revista Peer J. Clique aqui para acessar o artigo completo.
PUBLICIDADE
CONTINUE LENDO ABAIXO
LEIA MAIS
E você, concorda com os resultados encontrados na pesquisa? Comente!
Fontes: University of Sheffield

Larissa Fereguetti
Engenheira, com mestrado e doutorado. Fascinada por tecnologia, curiosidades sem sentido e cultura (in)útil. Viciada em livros, filmes, séries e chocolate. Acredita que o conhecimento é precioso e que o bom humor é uma ferramenta indispensável para a sobrevivência.