Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Usuários do Twitter apontam que algoritmo da rede social possui viés de raça

por Redação 360 | 21/09/2020

Vários usuários fizeram testes com imagens mostrando como a rede social centralizava preferencialmente o rosto de pessoas brancas.

Nos últimos dias, vários usuários fizeram postagens para mostrar como os algoritmos do Twitter tende a priorizar imagens de pessoas brancas nas publicações. Isso levanta uma discussão sobre uma questão que já falamos por aqui: o viés de raça existente no treinamento de máquinas via machine learning e inteligência artificial.

Tudo aparentemente começou quando Corin Madland, pesquisador da área de tecnologia, fez uma postagem sobre como o Zoom, software de videochamada, foi incapaz de identificar uma pessoa negra como um rosto humano, cortando-a da tela. Quando ele postou as imagens no Twitter, percebeu como a rede social priorizava centralizar as imagens em rostos brancos.

PUBLICIDADE

CONTINUE LENDO ABAIXO

Vários usuários fizeram testes com outras imagens, chegando ao mesmo resultado. Quando você posta uma imagem no Twitter, é preciso clicar nela para conseguir visualizar completamente. Se você não clicar, vai ver apenas a parte que foi centralizada pelos algoritmos do Twitter.

A maioria dos usuários postava duas imagens, cada uma com duas fotos: uma com um rosto branco no topo e um rosto negro na parte inferior, e a outra invertida, com o rosto negro no topo e o rosto branco na parte inferior. Nos dois casos, o Twitter tende a centralizar a imagem no rosto branco (e você precisa abrir a foto para descobrir que há um rosto negro nela).

PUBLICIDADE

CONTINUE LENDO ABAIXO

Foi exatamente isso que postou Tony Arciery, engenheiro da área de criptografia. Na primeira imagem, há o rosto do senador estadunidense Mitch McConnell no topo e do ex-presidente do país, Barack Obama, na parte inferior. A segunda imagem é o inverso dessa. Em ambas, o Twitter centralizou no rosto de Mitch McConnell, como você confere na postagem abaixo:

Uma pesquisa do projeto Gender Shades analisou 1270 imagens em três programas de inteligência artificial e mostrou que todos eles tendem a classificar com precisão rostos brancos masculinos, seguido por rostos brancos femininos. Mulheres negras são mais propensas a serem identificadas de forma incorreta.

O problema é sério e acontece também em outros algoritmos. Um exemplo é o caso publicado na revista Nature, que mostra que milhares de pessoas negras são afetadas pelo viés racial de algoritmos voltados para a saúde. Outro caso preocupante é o de identificação de pessoas que cometeram crimes. Se os softwares possuem um viés, a chance de fazerem identificações erradas é ampliada, ou seja, é muito mais fácil que uma pessoa inocente seja condenada.

PUBLICIDADE

CONTINUE LENDO ABAIXO

Tudo isso ressalta a urgência de eliminar esse viés das tecnologias atuais. Na última semana, nós mostramos que uma engenheira foi a primeira mulher a ganhar um prêmio africano de inovação em tecnologia justamente por ter desenvolvido um sistema de reconhecimento facial voltado para identificar africanos (clique aqui para conferir o texto na íntegra).

imagem ilustrativa de rosto negro mapeado com pontos para inteligencia artificial, para ilustrar que software de reconhecimento facial falha twitter
Imagem: michiganradio.org

Dantley Davis, CDO (Chief Design Officer) do Twitter, respondeu a alguns tweets e detalhou como funciona o recurso de centralização das imagens, que é baseado em redes neurais. O Twitter se propôs a investigar o problema e, para isso, eles vão usar uma amostragem grande de imagens.

Referências: Mashable, Hindustamtimes.

E você, já testou os algoritmos do Twitter para visualizar esse viés? Queremos saber a sua opinião, comente!

Comentários

Engenharia 360

Redação 360

Engenharia para todos.