Nos últimos dias, vários usuários fizeram postagens para mostrar como os algoritmos do Twitter tende a priorizar imagens de pessoas brancas nas publicações. Isso levanta uma discussão sobre uma questão que já falamos por aqui: o viés de raça existente no treinamento de máquinas via machine learning e inteligência artificial.
Tudo aparentemente começou quando Corin Madland, pesquisador da área de tecnologia, fez uma postagem sobre como o Zoom, software de videochamada, foi incapaz de identificar uma pessoa negra como um rosto humano, cortando-a da tela. Quando ele postou as imagens no Twitter, percebeu como a rede social priorizava centralizar as imagens em rostos brancos.
Vários usuários fizeram testes com outras imagens, chegando ao mesmo resultado. Quando você posta uma imagem no Twitter, é preciso clicar nela para conseguir visualizar completamente. Se você não clicar, vai ver apenas a parte que foi centralizada pelos algoritmos do Twitter.
A maioria dos usuários postava duas imagens, cada uma com duas fotos: uma com um rosto branco no topo e um rosto negro na parte inferior, e a outra invertida, com o rosto negro no topo e o rosto branco na parte inferior. Nos dois casos, o Twitter tende a centralizar a imagem no rosto branco (e você precisa abrir a foto para descobrir que há um rosto negro nela).
LEIA MAIS
Foi exatamente isso que postou Tony Arciery, engenheiro da área de criptografia. Na primeira imagem, há o rosto do senador estadunidense Mitch McConnell no topo e do ex-presidente do país, Barack Obama, na parte inferior. A segunda imagem é o inverso dessa. Em ambas, o Twitter centralizou no rosto de Mitch McConnell, como você confere na postagem abaixo:
Uma pesquisa do projeto Gender Shades analisou 1270 imagens em três programas de inteligência artificial e mostrou que todos eles tendem a classificar com precisão rostos brancos masculinos, seguido por rostos brancos femininos. Mulheres negras são mais propensas a serem identificadas de forma incorreta.
O problema é sério e acontece também em outros algoritmos. Um exemplo é o caso publicado na revista Nature, que mostra que milhares de pessoas negras são afetadas pelo viés racial de algoritmos voltados para a saúde. Outro caso preocupante é o de identificação de pessoas que cometeram crimes. Se os softwares possuem um viés, a chance de fazerem identificações erradas é ampliada, ou seja, é muito mais fácil que uma pessoa inocente seja condenada.
Tudo isso ressalta a urgência de eliminar esse viés das tecnologias atuais. Na última semana, nós mostramos que uma engenheira foi a primeira mulher a ganhar um prêmio africano de inovação em tecnologia justamente por ter desenvolvido um sistema de reconhecimento facial voltado para identificar africanos (clique aqui para conferir o texto na íntegra).
Dantley Davis, CDO (Chief Design Officer) do Twitter, respondeu a alguns tweets e detalhou como funciona o recurso de centralização das imagens, que é baseado em redes neurais. O Twitter se propôs a investigar o problema e, para isso, eles vão usar uma amostragem grande de imagens.
E você, já testou os algoritmos do Twitter para visualizar esse viés? Queremos saber a sua opinião, comente!
Fontes: Mashable, Hindustamtimes.