Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Engenharia 360

Algoritmo de reconhecimento de imagem pode explicar o que "vê"

Engenharia 360
por Kamila Jessie
| 17/12/2019 2 min

Algoritmo de reconhecimento de imagem pode explicar o que "vê"

por Kamila Jessie | 17/12/2019
Copiado!

Quando a nós olhamos para alguma imagem, somos capazes de identificar o que é com base em uma coleção de recursos reconhecíveis. Uma inteligência artificial, no entanto, simplesmente procura padrões de pixels da imagem como um todo, o que a torna mais susceptível a erros e dificulta a análise. Mas isso pode mudar agora que um novo algoritmo de reconhecimento de imagem usa a maneira como os humanos veem as coisas.

reconhecimento compartimentalizado
Imagem: technologyreview.com

Uma coisa de cada vez

Em vez de treinar uma rede neural em imagens completas de pássaros, pesquisadores da Duke University e do MIT Lincoln Laboratory treinaram-na para reconhecer as diferentes características que compõem o animal, tal como a gente faria: o formato do bico e da cabeça de todas as espécies e a coloração de suas penas. Apresentado com uma nova imagem de um pássaro, o algoritmo pesquisa esses recursos reconhecíveis e faz previsões sobre a quais espécies eles pertencem. Ele usa a evidência cumulativa para tomar uma decisão final.

Para uma imagem de um pica-pau de barriga vermelha, o algoritmo pode encontrar dois recursos reconhecíveis nos quais ele foi treinado: o padrão em preto e branco de suas penas e a coloração vermelha de sua cabeça. A primeira característica poderia combinar com duas espécies possíveis de aves: o pica-pau de barriga vermelha ou de barba vermelha. Mas o segundo recurso combinaria melhor com o primeiro. Quem aí já teve contato com “passar a chave de identificação” em aulas de biologia sabe do que a gente está falando.

reconhecimento compartimentalzado
Imagem: Chen et al., 2019.

A partir das duas evidências, o algoritmo argumenta que a imagem é mais provável da primeira. Em seguida, exibe as imagens dos recursos encontrados para explicar a um ser humano como chegou a sua decisão.

Por meio de testes, os pesquisadores também demonstraram que a incorporação dessa interpretabilidade em seu algoritmo não prejudicou sua precisão. Tanto na tarefa de identificação de espécies de aves quanto na de modelo de carro, eles descobriram que seu método se aproximava – e em alguns casos excedia – dos resultados mais avançados alcançados por algoritmos não interpretáveis.

Aplicabilidade do reconhecimento de imagens gradual e explicativo

Para que os algoritmos de reconhecimento de imagem sejam mais úteis em ambientes de alto risco, como hospitais, onde podem ajudar um médico a classificar um tumor, por exemplo, eles precisam ser capazes de explicar passo-a-passo como chegaram à sua conclusão em um ambiente humano, de maneira compreensível. Não só é importante que os humanos confiem neles, mas também ajuda os seres humanos a identificar mais facilmente quando a lógica está errada.

Fonte: NeurIPS, 2019.

Copiado!
Engenharia 360

Kamila Jessie

Engenheira ambiental e sanitarista, MSc. e atualmente doutoranda em Engenharia Hidráulica e Saneamento pela Universidade de São Paulo. http://orcid.org/0000-0002-6881-4217

Comentários