Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Entenda o problema de reprodutibilidade da inteligência artificial

por Kamila Jessie | 28/10/2019
Copiado!

Começar qualquer serviço de onde alguém parou é muito difícil. Isso porque nunca descrevemos completamente o design experimental e os detalhes. No cenário de inteligência artificial (IA), essa questão de reprodutibilidade e avanço em função de onde outra pesquisa parou tem sido um problema.

Imagem: alphacoders.com

Caixa preta da IA

Na cena de publicações em IA, é de se surpreender quando há relatos de detalhes básicos sobre como um sistema foi construído. Isso acontece predominantemente porque certos dados constituem propriedade intelectual, em especial quando são pesquisas associadas à indústria. A questão é que, há uma década, avanços na área eram mais direcionados, porque bastava ver o que um pesquisador mudou e melhorar seus resultados. No caso das redes neurais, contudo, essa melhoria envolve ajustar milhares de pequenos botões, por assim dizer, de forma que melhorar o modelo requer um grande número de experimentos e, portanto, recursos.

As redes neurais, a técnica que nos deu uma porção de ferramentas inimagináveis antigamente, são frequentemente entendidas como uma caixa preta por causa dos mistérios de como elas funcionam. Conseguir que tenham um bom desempenho pode ser como uma arte, envolvendo ajustes sutis que não são relatados nas publicações. Além disso, há uma tendência natural de que as redes se tornem maiores e mais complexas, com enormes conjuntos de dados e matrizes de computação maciças que tornam caro replicar e estudar esses modelos, se não impossível para todos, exceto os laboratórios com mais dinheiro, com o perdão da sinceridade. Isso exclui alguns institutos de fazer ciência competitiva e também prejudica a disseminação de recursos de tecnologia, segregando-os apenas a alguns privilegiados.

O que fazer para superar essa dificuldade em reproduzir e propagar experimentos?

A presidente de uma importante conferência da área de inteligência artificial, Joelle Pineau, por meio de uma alteração nos requisitos de participação do evento, está tentando intervir na crise de reprodutibilidade. O congresso em questão é o NeurIPS, onde são divulgados documentos e descobertas da área, e agora conta com a exigência de preenchimento de uma checklist que menciona itens que vem sendo omitidos nos trabalhos. Por exemplo, lá o autor ou desenvolvedor deve mencionar o número de modelos treinados antes da seleção do “melhor”, o potencial de computação usado e links que disponibilizem os códigos e os datasets. Isso não polui o paper, mas também fornece a clareza científica que o campo requer.

Outros também estão atacando o problema. Pesquisadores do Google propuseram “card models” para detalhar como os sistemas de aprendizado de máquina foram testados, incluindo resultados que apontam potencial viés. (Você pode ver sobre a importância de eventos e publicações neste vídeo e artigo, respectivamente).

Esse tipo de exigência é uma mudança bastante revolucionária para uma área em que o prestígio costuma estar associado a rankings. Agora, há um incentivo para que seja exposto o processo até obtenção de cada posição, isto é, um roteiro.

reprodutibilidade
Imagem: princetoninnovation.org

A importância da reprodutibilidade em IA

A questão da reprodutibilidade é algo que deve ser tratado em todas as ciências, de maneira que haja clareza, abertura e divulgação devida dos dados. Uma coisa é o deslumbramento que a gente fica com um gerador de texto super eloquente, ou então com um robô com reflexos melhores do que os humanos (não que seja uma tarefa difícil superar os meus). Mas a questão da caixa preta da IA é que, mesmo profissionais da área podem ter dúvidas sobre os procedimentos e caminhos para chegar ao mesmo produto. O vulgo código que funciona por acidente.

Vale ressaltar que a replicação desses modelos de inteligência artificial é importante não apenas para identificar novos caminhos de pesquisa, mas também como uma maneira de investigar algoritmos à medida que aumentam e se tornam mais complexos. Isso, principalmente, porque modelos de IA sendo desenvolvidos com o objetivo de reconhecer padrões tal que suplantem decisões humanas, desde, por exemplo, quem fica na cadeia, até quanto tempo pode ser disponibilizado para você pagar um financiamento.

Convém, então, ter uma garantia de que os desenvolvedores foram assertivos no caminho, né?

Fonte: Wired.

Copiado!
Engenharia 360

Kamila Jessie

Engenheira ambiental e sanitarista, MSc. e atualmente doutoranda em Engenharia Hidráulica e Saneamento pela Universidade de São Paulo. http://orcid.org/0000-0002-6881-4217

Comentários