Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Lamentável! Sistema do Facebook classifica negros como "primatas"

por Redação 360 | 15/09/2021

Sonhamos com a evolução da inteligência artificial e o que pode trazer de bom para as nossas vidas. Mas será que isso pode falhar? A Facebook que diga!

“Lamentável” e “inaceitável”; foram essas as palavras emitidas pelos representantes da Facebook – empresa fundada por Mark Zuckerberg – ao tentarem explicar o gravíssimo erro do seu sistema de algoritmo de Inteligência Artificial. O mesmo é usado na geração de recomendações que as pessoas recebem após assistirem um vídeo na plataforma. E, infelizmente, ele classificou um vídeo de homens negros com o termo “primatas”, fazendo todos se lembrarem de tantas cenas lamentáveis que presenciamos pessoalmente ou que já vimos em noticiários, de pessoas de origem afro-americana sendo comparados à macacos.

inteligência artificial
Imagem reproduzida de Suno

O caso Facebook

O caso aconteceu na metade do ano passado, mas muitas informações sobre o mesmo só foram divulgadas na grande mídia agora em 2021. O que se sabe é que alguns usuários viram um vídeo publicado pelo tabloide britânico ‘Daily Mail’ precisamente no dia 27 de junho de 2020 e retratava homens negros em confrontos com civis brancos e polícias, não tendo nenhum conteúdo sobre vida animal. Mesmo assim, após a visualização do material, eles receberam a recomendação para “continuar a ver vídeos de primatas”. Nem precisa dizer como isso logo gerou uma grande polêmica e reações na rede social!

PUBLICIDADE

CONTINUE LENDO ABAIXO

inteligência artificial
Imagem reproduzida de Ayoo

Veja Também: Relatório mostra viés em softwares de reconhecimento facial em asiáticos e afro-americanos

As primeiras providências

Logo que a empresa Facebook tomou conhecimento sobre o caso, seus representantes fizeram de tudo para amenizar os problemas gerados. Primeiro, eles desativaram o software que fez disparar a mensagem. Depois, soltou notas com pedidos de desculpas. E desde então diz estar trabalhando para analisar os fatos e fazer de tudo para que não se repita nada parecido. Claro que isso é o mínimo que os usuários da plataforma esperam – principalmente aqueles que representam a comunidade negra!

As explicações sobre o erro

Desativar o software que fez disparar a mensagem era só o início de um grande trabalho, que vem envolvendo exercícios de investigação realizados por especialistas em AI. De acordo com um porta-voz da rede social citado pelo ‘The New York Times’, “Já realizamos várias melhorias na nossa Inteligência Artificial, mas sabemos que não é perfeita e temos muitos progressos a fazer ainda. Pedimos desculpa a todas as pessoas que possam ter visto estas recomendações ofensivas”, afirmou um porta-voz da rede social citado pelo ‘The New York Times’.

inteligência artificial
Imagem reproduzida de Money Times

É um absurdo! Contudo, infelizmente, o que aconteceu com a empresa Facebook não é inédito! Em 2015, o algorítmico de inteligência da Google também identificou homens negros como “gorilas”. Recentemente também o Twitter admitiu que sua ferramenta de corte automático de imagens favorecia pessoas brancas e mulheres, e que pessoas negras eram geralmente cortadas das imagens postadas na rede social. E, por fim, o TikTok foi acusado de preconceito racial ao rotular frases do tipo “Vidas Negras Importam” como “conteúdo impróprio”.

PUBLICIDADE

CONTINUE LENDO ABAIXO

A saber, a Comissão de Comércio Federal dos Estados Unidos já afirmou que ferramentas de AI que demonstram racismo e preconceito de gênero podem ser consideradas violações das leis de proteção ao consumidor.

“Se responsabilize pelos seus erros, ou a FTC fará isso por vocês.”

– advogada especialista em privacidade do FTC Elisa Jillson no site da agência.


Fontes: Impala, G1, CM Jornal, Olhar Digital.

PUBLICIDADE

CONTINUE LENDO ABAIXO

Comentários

Engenharia 360

Redação 360

Engenharia para todos.