Engenharia 360

Que loucura! Testes mostram que robôs do Google desenvolvem emoções como agressividade e cooperação

Engenharia 360
por Bernardo Lopes Frizero
| 26/06/2017 | Atualizado em 03/01/2022 2 min

Que loucura! Testes mostram que robôs do Google desenvolvem emoções como agressividade e cooperação

por Bernardo Lopes Frizero | 26/06/2017 | Atualizado em 03/01/2022
Engenharia 360

Vamos fingir que você se importa muito em ganhar um jogo. A competição esquenta, o seu oponente está vencendo, e você está correndo um sério risco de perder. O que você faz? Se a sua veia competitiva estiver viva, então você provavelmente irá ficar irritado, correto? Acontece que os robôs com inteligência artificial DeepMind, criados pela Google, fazem exatamente a mesma coisa! Incrível, não?

robôs
Crédito: Tecmundo

O comportamento levanta questões sobre a ligação entre inteligência e agressividade, o que significa para a IA (Inteligência Artificial) imitar as respostas emocionais dos humanos, e, se você está preocupado com potenciais robôs que se voltem contra os humanos, como em diversos filmes de Hollywood, os cientistas envolvidos explicam melhor como que essa experiência funciona.

PUBLICIDADE

CONTINUE LENDO ABAIXO

Em um estudo publicado online, os pesquisadores do projeto Deep Mind tinham “agentes” com IA competindo uns contra os outros em 40 milhões de rodadas de um jogo de computador. No jogo, cada agente tinha que recolher o máximo de maçãs possível. Eles também poderiam derrubar temporariamente um oponente fora do jogo batendo os com um feixe de laser. Aqui está um vídeo do jogo:

Quando as maçãs eram abundantes, os dois agentes foram satisfeitos para recolher os seus frutos sem qualquer tipo de conflito uns aos outros, mas, em cenários escassos e com menos maçãs ao redor, os agentes se tornaram substancialmente mais agressivos. Os pesquisadores também descobriram que quanto maior a “capacidade cognitiva” do agente, mais frequentemente eles atacaram seu oponente.

Veja Também: Robô humanoide ‘desperta’ e surpreende cientistas [Entenda o caso!]

Caso robôs | Outro lado da moeda

No entanto, a IA também aprendeu a exibir comportamento cooperativo quando isso trouxe um benefício. Em um segundo jogo, dois agentes agiram como “lobos”, enquanto um terceiro foi a “presa”. Se os dois agentes trabalhassem em conjunto para capturar suas presas, eles receberiam uma recompensa maior.

PUBLICIDADE

CONTINUE LENDO ABAIXO

“Quando os dois lobos capturam a presa juntos, eles podem  receber uma recompensa mais significativa”, explicaram os pesquisadores em seu artigo. Neste jogo, os agentes mais inteligentes eram menos competitivos e mais propensos a cooperar entre si.

Os pesquisadores DeepMind acreditam que, com este estudo, os programas de Inteligência Artificial poderiam ser usados para entender melhor como os seres humanos aprendem a colaborar em massa. “Digamos que você queira saber o impacto sobre como os padrões de tráfego seriam se você instalou um semáforo em um cruzamento específico. Você poderia tentar o experimento no primeiro modelo e obter uma ideia razoável de como uma pessoa se adapta a ele.”


Fonte: QZ.

Comentários

Engenharia 360

Bernardo Lopes Frizero

Redator de conteúdo voluntário do Engenharia 360. Contribuiu para o site com a elaboração de textos diversos com temas relacionados ao mundo das engenharias.

LEIA O PRÓXIMO ARTIGO

Continue lendo