Os softwares de reconhecimento facial tornaram-se grandes aliados na identificação de indivíduos. No entanto, um relatório do Governo dos Estados Unidos mostrou que eles podem ter um viés.
O estudo foi realizado pelo National Institute of Standards and Technology (NIST) e mostrou que indivíduos asiáticos e afro-americanos possuem 100 vezes mais chance de serem identificados incorretamente que caucasianos, dependendo do algoritmo. Dentre as consequências está a acusação de uma pessoa inocente.
Entre os algoritmos desenvolvidos nos Estados Unidos, a identificação do índio americano foi a que apresentou maiores taxas de falsos positivos (isto é, identificar como indivíduo procurado aquele que não é o correto). O relatório também mostra que as mulheres afro-americanas foram as que tiveram maiores taxas de falsos positivos para a correspondência “um para um”, usada pela polícia para pesquisar milhões de pessoas de um banco de dados para encontrar um suspeito.
No total, foram analisados 189 algoritmos provenientes de 99 empresas desenvolvedores. O NIST avaliou até que ponto os algoritmos correspondiam às fotos da mesma pessoa, processo que é comumente usado para desbloquear um smartphone ou verificar um passaporte. Ainda, testou-se a capacidade do algoritmo associar uma pessoa em uma foto a imagens em um banco de dados.
Foi observado que os resultados variam de algoritmo para algoritmo. No caso da identificação errada para um passaporte ou desbloquear o smartphone, chamada um para um, refazer a identificação é simples e pode não acarretar tantos problemas assim. Porém, para a identificação em um banco de dados, o problema pode ser maior, visto que podem gerar as acusações de inocentes citadas anteriormente.
Tal pesquisa ressalta que, embora a maior parte de nós fiquemos fascinada ao ver a aplicação da tecnologia, precisamos lembrar que ela pode falhar. O ideal é que a tecnologia seja usada como uma ferramenta auxiliar, mas a decisão final deve caber aos humanos.
Fontes: Interesting Engineering