Engenharia 360

Algoritmo de reconhecimento de imagem pode explicar o que "vê"

Engenharia 360
por Kamila Jessie
| 17/12/2019 | Atualizado em 30/06/2022 2 min

Algoritmo de reconhecimento de imagem pode explicar o que "vê"

por Kamila Jessie | 17/12/2019 | Atualizado em 30/06/2022
Engenharia 360
Quando a nós olhamos para alguma imagem, somos capazes de identificar o que é com base em uma coleção de recursos reconhecíveis. Uma inteligência artificial, no entanto, simplesmente procura padrões de pixels da imagem como um todo, o que a torna mais susceptível a erros e dificulta a análise. Mas isso pode mudar agora que um novo algoritmo de reconhecimento de imagem usa a maneira como os humanos veem as coisas.
reconhecimento compartimentalizado | Algoritmo
Imagem: technologyreview.com

Uma coisa de cada vez

Em vez de treinar uma rede neural em imagens completas de
pássaros, pesquisadores da Duke University e do MIT Lincoln Laboratory
treinaram-na para reconhecer as diferentes características que compõem o
animal, tal como a gente faria: o formato do bico e da cabeça de todas as
espécies e a coloração de suas penas. Apresentado com uma nova imagem de um
pássaro, o algoritmo pesquisa esses recursos reconhecíveis e faz previsões
sobre a quais espécies eles pertencem. Ele usa a evidência cumulativa para
tomar uma decisão final.

Para uma imagem de um pica-pau de barriga vermelha, o
algoritmo pode encontrar dois recursos reconhecíveis nos quais ele foi
treinado: o padrão em preto e branco de suas penas e a coloração vermelha de
sua cabeça. A primeira característica poderia combinar com duas espécies
possíveis de aves: o pica-pau de barriga vermelha ou de barba vermelha. Mas o
segundo recurso combinaria melhor com o primeiro. Quem aí já teve contato com “passar
a chave de identificação” em aulas de biologia sabe do que a gente está
falando.

PUBLICIDADE

CONTINUE LENDO ABAIXO

reconhecimento compartimentalzado
Imagem: Chen et al., 2019.

A partir das duas evidências, o algoritmo argumenta que a
imagem é mais provável da primeira. Em seguida, exibe as imagens dos recursos
encontrados para explicar a um ser humano como chegou a sua decisão.

Por meio de testes, os pesquisadores também demonstraram que
a incorporação dessa interpretabilidade em seu algoritmo não prejudicou sua
precisão. Tanto na tarefa de identificação de espécies de aves quanto na de
modelo de carro, eles descobriram que seu método se aproximava - e em alguns
casos excedia - dos resultados mais avançados alcançados por algoritmos não
interpretáveis.

Aplicabilidade do reconhecimento de imagens gradual e explicativo

Para que os algoritmos de reconhecimento de imagem sejam mais úteis em ambientes de alto risco, como hospitais, onde podem ajudar um médico a classificar um tumor, por exemplo, eles precisam ser capazes de explicar passo-a-passo como chegaram à sua conclusão em um ambiente humano, de maneira compreensível. Não só é importante que os humanos confiem neles, mas também ajuda os seres humanos a identificar mais facilmente quando a lógica está errada.


Fonte: NeurIPS, 2019.

PUBLICIDADE

CONTINUE LENDO ABAIXO

Comentários

Engenharia 360

Kamila Jessie

Doutora em Hidráulica e Saneamento pela Universidade de São Paulo (EESC/USP) e Mestre em Ciências pela mesma instituição; é formada em Engenharia Ambiental e Sanitária pelo Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) com período sanduíche na University of Ottawa, no Canadá; possui experiência em tratamentos físico-químicos de água e efluentes; atualmente, integra o Centro de Pesquisa em Óptica e Fotônica (CePOF) do Instituto de Física de São Carlos (USP), onde realiza estágio pós-doutoral no Biophotonics Lab.

LEIA O PRÓXIMO ARTIGO

Continue lendo