Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Que loucura! Testes mostram que robôs do Google desenvolvem emoções como agressividade e cooperação

por Bernardo Lopes Frizero | 26/06/2017
Copiado!

Vamos fingir que você se importe muito em ganhar um jogo. A competição esquenta, o seu oponente está vencendo, e você está correndo um sério risco de perder. O que você faz? Se a sua veia competitiva estiver viva, então você provavelmente irá ficar irritado, correto? Acontece que os robôs com inteligência artificial DeepMind, criados pela Google, fazem exatamente a mesma coisa! Incrível, não?

Crédito: Tecmundo

O comportamento levanta questões sobre a ligação entre inteligência e agressividade, o que significa para a IA (Inteligência Artificial) imitar as respostas emocionais dos humanos, e, se você está preocupado com potenciais robôs que se voltem contra os humanos, como em diversos filmes de Hollywood, os cientistas envolvidos explicam melhor como que essa experiencia funciona.

Em um estudo publicado online, os pesquisadores do projeto Deep Mind tinham “agentes” com IA competindo uns contra os outros em 40 milhões de rodadas de um jogo de computador. No jogo, cada agente tinha que recolher o máximo de maçãs possível. Eles também poderiam derrubar temporariamente um oponente fora do jogo batendo os com um feixe de laser. Aqui está um vídeo do jogo:

Quando as maçãs eram abundantes, os dois agentes foram satisfeitos para recolher os seus frutos sem qualquer tipo de conflito uns aos outros, mas, em cenários escassos e com menos maçãs ao redor, os agentes se tornaram substancialmente mais agressivos. Os pesquisadores também descobriram que quanto maior a “capacidade cognitiva” do agente, mais frequentemente eles atacaram seu oponente.

+Outro lado da moeda

No entanto, a IA também aprendeu a exibir comportamento cooperativo quando isso trouxe um benefício. Em um segundo jogo, dois agentes agiram como “lobos”, enquanto um terceiro foi a “presa”. Se os dois agentes trabalhassem em conjunto para capturar suas presas, eles receberiam uma recompensa maior.

“Quando os dois lobos capturam a presa juntos, eles podem  receber uma recompensa mais significativa”, explicaram os pesquisadores em seu artigo. Neste jogo, os agentes mais inteligentes eram menos competitivos e mais propensos a cooperar entre si.

Os pesquisadores DeepMind acreditam que, com este estudo, os programas de Inteligência Artificial poderiam ser usados para entender melhor como os seres humanos aprendem a colaborar em massa. “Digamos que você queira saber o impacto sobre como os padrões de tráfego seriam se você instalou um semáforo em um cruzamento específico. Você poderia tentar o experimento no primeiro modelo e obter uma ideia razoável de como uma pessoa se adapta a ele.”

Fonte: QZ

Copiado!

Comentários