Portal Engenharia 360

ESCOLHA A ENGENHARIA
DO SEU INTERESSE

Digite sua Busca

Entenda o motivo pelo qual engenheiros e outros pesquisadores de IA se comprometeram a não produzir armas autônomas letais

Engenharia 360

23/08/2018

POR Eduardo Slabocicor Cavalcanti 23/08/2018

  • acordo
  • acordo de não produção de armas autônomas letais
  • AI
  • armas autônomas letais
  • armas de uso militar
  • armas tecnológicas
  • Elon Musk
  • Engenharia
  • ex machina
  • exterminador do futuro
  • Future of Life Institute
  • Google Deep Mind
  • IA
  • inteligência artifical em uso militar
  • inteligencia artificial

Recentemente, vários engenheiros e pesquisadores assinaram um acordo no qual se comprometem a não usar a Inteligência Artificial (IA) para produzir armas autônomas letais. Dentre eles estão nomes famosos da tecnologia, como Elon Musk (SpaceX), Jeff Dean (Google AI) e Demis Hassabis (Google DeepMind). Com esse acordo, eles afirmam que não vão produzir máquinas capazes de tomar decisões sobre quem deve viver ou morrer.

armas autônomas letais

Imagem: goldstuff.blogspot.com

+ Inteligência Artificial: a que ponto chegaremos?

Os filmes de ficção científica estão sempre mostrando robôs que “superam” (ou quase superam) os humanos. Alguns exemplos que nos levam a vários questionamentos são O Exterminador do Futuro (1985), o emocionante A.I.-Inteligência Artificial (2001) e o bizarro e maravilhosamente intrigante Ex Machina (2015). Porém, conforme a tecnologia avança, maior a decisão que atribuímos às máquinas e mais medo temos das situações da ficção. Por exemplo, criar armas autônomas letais aumentaria as chances de ter um cenário de O Exterminador do Futuro se alguém decide programar ou hackear uma máquina para lançar uma bomba que vai destruir a humanidade.

armas autônomas letais

Imagem: geekandsundry.com

Mas não precisa ficar desesperado e adaptar o kit de sobrevivência a um apocalipse zumbi para um de sobrevivência a uma revolução robô. Não é de hoje para amanhã que a sua cafeteira vai sair por aí cuspindo café quente na sua cara enquanto corre atrás de você reclamando de todas as horas que trabalhou. Da mesma forma, as máquinas não vão começar a raciocinar repentinamente, isso ainda é uma incerteza muito grande.

armas autônomas letais

Imagem: educationaltechnologyguy.blogspot.com

O motivo que levou ao acordo sobre as armas autônomas letais é que estamos em um ponto em que a IA está pronta para ter uso militar. Nesse contexto, há o que temer: imagine um cenário de guerra mundial com armas controladas por IA. Pior ainda: imagine se uma dessas armas é hackeada e usada contra inocentes.

+ Armas autônomas letais

Nós ensinamos as máquinas como “pensar” e como tomar decisões. Ensinamos a ganhar jogos de tabuleiros, a reconhecer rostos e a dirigir. Da mesma forma, podemos ensinar a fugir de ameaças, a atirar e a reconhecer alvos de forma muito mais rápida que qualquer humano (exceto Chuck Norris, claro) poderia fazer, tudo isso usando dados. Mesmo com relação à velocidade com que as coisas são feitas, o problema é que, enquanto as pessoas falham, desobedecem ordens, têm sentimentos – a maioria delas, pelo menos – e pensam sobre uma ação antes de realizar, as máquinas não. Elas simplesmente agem e, dependendo da forma que são programadas para fazer algo, é praticamente impossível impedi-las.

armas autônomas letais

Imagem: ai.business

Um caso simples e que também é motivo de questionamento no que diz respeito à autonomia de máquinas é sobre carros autônomos. Eles podem respeitar regras de trânsito e desviar de alvos. Porém, imagine a situação em que é impossível desviar de todos os alvos ao mesmo tempo e o sistema deve escolher entre qual alvo ele vai acertar (principalmente se os dois alvos estão em uma situação equivalente). Como decidir quem vai receber o impacto ou não? Além disso, quem será responsabilizado no final?

+ O acordo

A cada dia, vemos notícias de que alguma inteligência artificial foi usada para tomar determinadas decisões. Porém, o que motiva o acordo assinado é o fato de que tirar a vida de alguém não deve, jamais, ser responsabilidade de uma máquina.

Para ilustrar, o Future of Life Institute, que liderou o acordo feito entre os engenheiros e demais pesquisadores, ajudou na criação de um vídeo (interessantíssimo) que mostra como o perigo das armas autônomas letais. A situação é ilustrada é o assassinato de milhares de estudantes universitários que expuseram a corrupção ao compartilhar um vídeo nas redes sociais.

É exatamente para evitar que algo assim ocorra que o acordo foi criado. Ele visa promover a criação de fortes normas, regulamentos e leis internacionais no que diz respeito às armas autônomas letais. É uma situação parecida com o Tratado de Não Proliferação de Armas Nucleares, em vigor desde 1970. Claro que é um contexto diferente e, conforme o próprio acordo assinado, “as armas autônomas letais têm características muito diferentes de armas nucleares, químicas e biológicas, e as ações unilaterais de um único grupo poderiam facilmente desencadear uma corrida armamentista para as quais a comunidade internacional não tem ferramentas técnicas e sistemas de governança global para lidar.

armas autônomas letais

Imagem: thenextweb.com

+ Consequências do acordo

Enquanto, por um lado, a IA pode ajudar a salvar muitas vidas, ela também pode tirar muitas. Não cabe a uma máquina decidir se alguém deve morrer ou não. Inclusive, ainda não se chegou a um acordo nem sobre o fato de que um ser humano pode decidir tirar a vida de outro (como países que são a favor ou contra a pena de morte – mas isso é outra história e não vamos entrar nessa discussão).

Com isso tudo, o que nós vemos é a união em busca da redução do risco de uma fatalidade que poderia acarretar o fim (ou algo bem próximo disso) da nossa espécie. É um exemplo do grande diferencial entre humanos e máquinas: agimos pensando no coletivo, temos emoções, sentimentos e temos discernimento ao pensar no futuro.

Referências: The Engineer; The Guardian; Gizmodo.

acordo
acordo de não produção de armas autônomas letais
AI
armas autônomas letais
armas de uso militar
armas tecnológicas
Elon Musk
Engenharia
ex machina
exterminador do futuro
Future of Life Institute
Google Deep Mind
IA
inteligência artifical em uso militar
inteligencia artificial

Eduardo Slabocicor Cavalcanti

Escreve para a internet desde 2008 e tem paixão por consumir informação e descobrir coisas. Adora gatos, inovação e é curitibana – fala “duas vinas”, mas dá “bom dia” no elevador.

mais
Engenharia 360 Engenharia 360

VEJA TAMBÉM

20 Resultados
6 motivos para você conhecer o SOLIDWORKS World 2019
6 coisas que estudantes de engenharia podem fazer para aproveitar as férias
Lista de aplicativos para engenharia de Dezembro! Confira!
Telescópio com espelho de 39 metros de diâmetro está em construção no Chile
10 árvores de Natal feitas (certamente) por engenheiros(as)
7 filmes (não natalinos) para ver na Netflix no final de ano
7 coisas que engenheiros/estudantes de engenharia passam no Natal em família
O projeto de Pontes em Concreto
HP50G x TI NSpire - Quais as principais diferenças dessas duas calculadoras para engenharia?
BDE Explica: O que é cota de arrasamento?
Bioengenharia: conheça o rim artificial que promete substituir a hemodiálise
Startup fundada por brasileiro cria nanosatélite que promete soluções para a agricultura
Terminei a faculdade, e agora?
BDE Review: Scanner Portátil EPSON ES-300W para engenheiros
Como a Samsung DeX e o Galaxy S9 mudaram completamente o dia a dia de um engenheiro
Brasil perde R$56 bilhões por ano por falta de investimento em saneamento
Testamos o novo Motorola One. Confira nossa opinião!
Aplicativos para Engenharia: Confira nossa lista de Novembro!
Testamos a nova e incrível Xiaomi Mi Band 3, a pulseira inteligente chinesa
Descubra como usar a HP para o cálculo de vigas com o VigaG
Podcast 360
Ouça ou baixe podcasts
exclusivos da engenharia
Ver Todos

RECOMENDAMOS PARA VOCÊ

20 Resultados
Titulo do Post
Titulo do Post
Titulo do Post
Titulo do Post
Titulo do Post
Titulo do Post
Escolha a engenharia do seu interesse