“Lamentável” e “inaceitável”; foram essas as palavras emitidas pelos representantes da Facebook - empresa fundada por Mark Zuckerberg - ao tentarem explicar o gravíssimo erro do seu sistema de algoritmo de Inteligência Artificial. O mesmo é usado na geração de recomendações que as pessoas recebem após assistirem um vídeo na plataforma. E, infelizmente, ele classificou um vídeo de homens negros com o termo “primatas”, fazendo todos se lembrarem de tantas cenas lamentáveis que presenciamos pessoalmente ou que já vimos em noticiários, de pessoas de origem afro-americana sendo comparados à macacos.
O caso Facebook
O caso aconteceu na metade do ano passado, mas muitas informações sobre o mesmo só foram divulgadas na grande mídia agora em 2021. O que se sabe é que alguns usuários viram um vídeo publicado pelo tabloide britânico ‘Daily Mail’ precisamente no dia 27 de junho de 2020 e retratava homens negros em confrontos com civis brancos e polícias, não tendo nenhum conteúdo sobre vida animal. Mesmo assim, após a visualização do material, eles receberam a recomendação para “continuar a ver vídeos de primatas”. Nem precisa dizer como isso logo gerou uma grande polêmica e reações na rede social!
Veja Também: Relatório mostra viés em softwares de reconhecimento facial em asiáticos e afro-americanos
As primeiras providências
Logo que a empresa Facebook tomou conhecimento sobre o caso, seus representantes fizeram de tudo para amenizar os problemas gerados. Primeiro, eles desativaram o software que fez disparar a mensagem. Depois, soltou notas com pedidos de desculpas. E desde então diz estar trabalhando para analisar os fatos e fazer de tudo para que não se repita nada parecido. Claro que isso é o mínimo que os usuários da plataforma esperam - principalmente aqueles que representam a comunidade negra!
As explicações sobre o erro
Desativar o software que fez disparar a mensagem era só o início de um grande trabalho, que vem envolvendo exercícios de investigação realizados por especialistas em AI. De acordo com um porta-voz da rede social citado pelo ‘The New York Times’, “Já realizamos várias melhorias na nossa Inteligência Artificial, mas sabemos que não é perfeita e temos muitos progressos a fazer ainda. Pedimos desculpa a todas as pessoas que possam ter visto estas recomendações ofensivas”, afirmou um porta-voz da rede social citado pelo ‘The New York Times’.
É um absurdo! Contudo, infelizmente, o que aconteceu com a empresa Facebook não é inédito! Em 2015, o algorítmico de inteligência da Google também identificou homens negros como "gorilas". Recentemente também o Twitter admitiu que sua ferramenta de corte automático de imagens favorecia pessoas brancas e mulheres, e que pessoas negras eram geralmente cortadas das imagens postadas na rede social. E, por fim, o TikTok foi acusado de preconceito racial ao rotular frases do tipo “Vidas Negras Importam” como “conteúdo impróprio”.
PUBLICIDADE
CONTINUE LENDO ABAIXO
LEIA MAIS
A saber, a Comissão de Comércio Federal dos Estados Unidos já afirmou que ferramentas de AI que demonstram racismo e preconceito de gênero podem ser consideradas violações das leis de proteção ao consumidor.
“Se responsabilize pelos seus erros, ou a FTC fará isso por vocês.”
- advogada especialista em privacidade do FTC Elisa Jillson no site da agência.
Fontes: Impala, G1, CM Jornal, Olhar Digital.
Imagens: Todos os Créditos reservados aos respectivos proprietários (sem direitos autorais pretendidos). Caso eventualmente você se considere titular de direitos sobre algumas das imagens em questão, por favor entre em contato com contato@engenharia360.com para que possa ser atribuído o respectivo crédito ou providenciada a sua remoção, conforme o caso.
Comentários
Eduardo Mikail
Somos uma equipe de apaixonados por inovação, liderada pelo engenheiro Eduardo Mikail, e com “DNA” na Engenharia. Nosso objetivo é mostrar ao mundo a presença e beleza das engenharias em nossas vidas e toda transformação que podem promover na sociedade.