Recentemente, vários engenheiros e pesquisadores assinaram um acordo no qual se comprometem a não usar a Inteligência Artificial (IA) para produzir armas autônomas letais. Dentre eles estão nomes famosos da tecnologia, como Elon Musk (SpaceX), Jeff Dean (Google AI) e Demis Hassabis (Google DeepMind). Com esse acordo, eles afirmam que não vão produzir máquinas capazes de tomar decisões sobre quem deve viver ou morrer.
Inteligência Artificial: a que ponto chegaremos?
Os filmes de ficção científica estão sempre mostrando robôs que “superam” (ou quase superam) os humanos. Alguns exemplos que nos levam a vários questionamentos são O Exterminador do Futuro (1985), o emocionante A.I.-Inteligência Artificial (2001) e o bizarro e maravilhosamente intrigante Ex Machina (2015). Porém, conforme a tecnologia avança, maior a decisão que atribuímos às máquinas e mais medo temos das situações da ficção.
Por exemplo, criar armas autônomas letais aumentaria as chances de ter um cenário de O Exterminador do Futuro se alguém decide programar ou hackear uma máquina para lançar uma bomba que vai destruir a humanidade.
Mas não precisa ficar desesperado e adaptar o kit de sobrevivência a um apocalipse zumbi para um de sobrevivência a uma revolução robô. Não é de hoje para amanhã que a sua cafeteira vai sair por aí cuspindo café quente na sua cara enquanto corre atrás de você reclamando de todas as horas que trabalhou. Da mesma forma, as máquinas não vão começar a raciocinar repentinamente, isso ainda é uma incerteza muito grande.
O motivo que levou ao acordo sobre as armas autônomas letais é que estamos em um ponto em que a IA está pronta para ter uso militar. Nesse contexto, há o que temer: imagine um cenário de guerra mundial com armas controladas por IA. Pior ainda: imagine se uma dessas armas é hackeada e usada contra inocentes.
Armas autônomas letais
Nós ensinamos as máquinas como “pensar” e como tomar decisões. Ensinamos a ganhar jogos de tabuleiros, a reconhecer rostos e a dirigir. Da mesma forma, podemos ensinar a fugir de ameaças, a atirar e a reconhecer alvos de forma muito mais rápida que qualquer humano (exceto Chuck Norris, claro) poderia fazer, tudo isso usando dados. Mesmo com relação à velocidade com que as coisas são feitas, o problema é que, enquanto as pessoas falham, desobedecem ordens, têm sentimentos – a maioria delas, pelo menos – e pensam sobre uma ação antes de realizar, as máquinas não. Elas simplesmente agem e, dependendo da forma que são programadas para fazer algo, é praticamente impossível impedi-las.
Um caso simples e que também é motivo de questionamento no que diz respeito à autonomia de máquinas é sobre carros autônomos. Eles podem respeitar regras de trânsito e desviar de alvos. Porém, imagine a situação em que é impossível desviar de todos os alvos ao mesmo tempo e o sistema deve escolher entre qual alvo ele vai acertar (principalmente se os dois alvos estão em uma situação equivalente). Como decidir quem vai receber o impacto ou não? Além disso, quem será responsabilizado no final?
O acordo
A cada dia, vemos notícias de que alguma inteligência artificial foi usada para tomar determinadas decisões. Porém, o que motiva o acordo assinado é o fato de que tirar a vida de alguém não deve, jamais, ser responsabilidade de uma máquina.
Para ilustrar, o Future of Life Institute, que liderou o acordo feito entre os engenheiros e demais pesquisadores, ajudou na criação de um vídeo (interessantíssimo) que mostra como o perigo das armas autônomas letais. A situação é ilustrada é o assassinato de milhares de estudantes universitários que expuseram a corrupção ao compartilhar um vídeo nas redes sociais.
É exatamente para evitar que algo assim ocorra que o acordo foi criado. Ele visa promover a criação de fortes normas, regulamentos e leis internacionais no que diz respeito às armas autônomas letais. É uma situação parecida com o Tratado de Não Proliferação de Armas Nucleares, em vigor desde 1970.
Claro que é um contexto diferente e, conforme o próprio acordo assinado, “as armas autônomas letais têm características muito diferentes de armas nucleares, químicas e biológicas, e as ações unilaterais de um único grupo poderiam facilmente desencadear uma corrida armamentista para as quais a comunidade internacional não tem ferramentas técnicas e sistemas de governança global para lidar.”
Consequências do acordo
Enquanto, por um lado, a IA pode ajudar a salvar muitas vidas, ela também pode tirar muitas. Não cabe a uma máquina decidir se alguém deve morrer ou não. Inclusive, ainda não se chegou a um acordo nem sobre o fato de que um ser humano pode decidir tirar a vida de outro (como países que são a favor ou contra a pena de morte – mas isso é outra história e não vamos entrar nessa discussão).
Com isso tudo, o que nós vemos é a união em busca da redução do risco de uma fatalidade que poderia acarretar o fim (ou algo bem próximo disso) da nossa espécie. É um exemplo do grande diferencial entre humanos e máquinas: agimos pensando no coletivo, temos emoções, sentimentos e temos discernimento ao pensar no futuro.
Veja Também: Como usar a Inteligência Artificial na Elaboração de Projetos de Engenharia e Arquitetura?
Fontes: The Engineer; The Guardian; Gizmodo.
Imagens: Todos os Créditos reservados aos respectivos proprietários (sem direitos autorais pretendidos). Caso eventualmente você se considere titular de direitos sobre algumas das imagens em questão, por favor entre em contato com [email protected] para que possa ser atribuído o respectivo crédito ou providenciada a sua remoção, conforme o caso.