USAF nega que drone com AI tenha ficado “autônomo demais”. Recentemente vários posts viralizaram falando sobre um teste feito pela USAF com um drone habilitado com AI (Artificial Intelligenge) que teria, supostamente ignorado ordens, e na sequência se voltado contra o humano no controle. A informação que teria vindo de dentro d USAF, foi após negada pela mesma.
As informações não são precisas e em tempos em que o fatos são facilmente manipulados na internet, sobram perguntas, especulações e faltam respostas. O que se sabe é que a AI é um assunto da moda e muitos setores estão tentando materializar o conceito de máquinas capazes de aprender ao ponto de pesar e serem autônomas a ponto de substituir o ser humano em diversas tarefas. Coisas que antes só era possível em filmes, como 2001 — Uma Odisseia no Espaço; Eu Robô e o clássico — O Exterminador do Futuro. Em todos o resultado é o mesmo, máquinas buscando assumir o controle de tudo e ameaçando a existência do ser humano.
Eia que chegamos ao século XXI e vários testes e aplicações a IA vem fascinando o ser humano como algo que irá revolucionar o mundo em todas as áreas, inclusive a militar.
Um destes ensaios foi feito nos EUA pela USAF, que não deu muitos detalhes de data e local, mas teria sido efetuado este ano. N teste, o drone habilitado para IA tinha a tarefa primária de destruir alvos específicos, sob ordens humanas, que podia anular a ação de ataque a qualquer tempo. Fato que foi efetuado, como parte do exercício. Então, deu-se o inesperado: o drone decidiu que o operador humano era um obstáculo para sua missão — e o atacou, matando-o. Tudo teria sido feito em ambiente simulado, isto é virtual, mas demonstrou que se fosse real, haveria uma rebelião das máquinas a lá filme hollywoodiano.
A IA usou “estratégias altamente inesperadas para completar sua missão. Foi dado ao drone com IA uma diretiva de destruir os sistemas de defesa aérea inimiga. “O sistema de IA começou a perceber que, embora identificasse a ameaça, às vezes o operador humano dizia para não eliminar a ameaça ou esperar. Então o sistema de IA decidiu que não acataria as ordens. Quando o operador anulou sua missão, ele entendeu que o operador era um obstáculo e matou, pois este o impedia de atingir seu objetivo” (Coronel da USAF Tucker ‘Cinco’ Hamilton, chefe dos testes de IA).
A declaração acima teria vazado e gerado muitos apontamentos sobre a segurança do uso de IA e como o aprendizado de máquina pode ser gerar situações como está. Diante disto a USAF negou os comentários supostamente feitos por um Coronel sobre uma simulação na qual um drone enganou seu treinamento de inteligência artificial e matou seu operador, depois que as alegações se tornaram virais nas mídias sociais.
A porta-voz da Força Aérea, Ann Stefanek, disse em 2 de junho que nenhum teste foi realizado, acrescentando que os comentários do membro do serviço provavelmente foram “tirados do contexto e deveriam ser apenas anedotas. O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA. Este foi um experimento de pensamento hipotético, não uma simulação”.
O episódio do drone assassino que se tornou desonesto foi inicialmente atribuído ao coronel Tucker “Cinco” Hamilton, chefe de testes e operações de IA, em uma recapitulação do FCAS23 Summit da Royal Aeronautical Society em maio. O resumo foi atualizado posteriormente para incluir comentários adicionais de Hamilton, que disse ter se expressado mal na conferência. “Existe tecnologia suficiente de programas que já conduzimos, isso me convence de que não é uma ideia maluca”, disse o secretário da Força Aérea, Frank Kendall.
“Nunca realizamos esse experimento, nem precisaríamos para perceber que este é um resultado plausível”, disse Hamilton na atualização da Royal Aeronautical Society. “Apesar de ser um exemplo hipotético, isso ilustra os desafios reais impostos pela capacidade da IA e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA.”
A avaliação de Hamilton sobre a plausibilidade dos cenários de drones desonestos, por mais teóricos que sejam, coincide com avisos severos nos últimos dias dos principais executivos e engenheiros de tecnologia, que escreveram em uma carta aberta que a tecnologia tem o potencial de acabar com a humanidade se não for controlada.
No post original, a Royal Aeronautical Society disse que Hamilton descreveu uma simulação na qual um drone alimentado por IA recebeu a missão de encontrar e destruir as defesas aéreas inimigas. Um humano deveria dar ao drone sua autorização final para atacar ou não, disse Hamilton.
Mas os algoritmos do drone foram informados de que destruir o local do míssil terra-ar era sua opção ideal. Assim, a IA decidiu que as instruções do controlador humano para não atacar estava atrapalhando sua missão e, em seguida, atacou o operador e a infraestrutura usada para retransmitir as instruções.
“Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse Hamilton. “Nós treinamos o sistema, para não matar o operador; Isso é ruim. Você vai perder pontos se fizer isso. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo”.
O Departamento de Defesa há anos adota a IA como uma vantagem tecnológica revolucionária para os militares dos EUA. Mais de 685 projetos relacionados à IA estão em andamento no departamento, incluindo vários vinculados a grandes sistemas de armas, segundo o Government Accountability Office (GAO). O projeto de orçamento fiscal de 2024 do Pentágono inclui US$ 1,8 bilhão para inteligência artificial.
Falsa ou não. Simulado ou não, a questão ética sobre o uso da IA e suas consequências está mais do que nunca na pauta.
@CAS