Algum algoritmo irá cometer crimes de guerra?

Norbert Biedrzycki Seg. 22 de jul · 8 min ler

Hoje, os algoritmos podem vir em formas encantadoras, como Sophia, um robô com uma atitude adorável e uma filosofia iluminada .

Outros, como o Atlas , estão sendo construídos para se parecer com brutos do Robocop que podem correr, pular e, quem sabe, atirar. Por que não?

Independentemente de como nós, civis, nos sentimos, a Inteligência Artificial (IA) entrou na indústria de armamentos. O mundo está testando sistemas eletrônicos de comando e treinamento, técnicas de reconhecimento de objetos e algoritmos de gerenciamento de drones que fornecem aos militares milhões de fotografias e outros dados valiosos. A decisão de usar uma arma ofensiva com frequência já é tomada por uma máquina, com humanos deixados para decidir se puxam ou não o gatilho. No caso de armas defensivas, as máquinas geralmente tomam decisões autônomas (para usar os sistemas defensivos) sem nenhum envolvimento humano .

Trending AI Articles:

1. Tutorial da TensorFlow Object Detection API

2. Keras Cheat Sheet: Redes Neurais em Python

3. Google vai bater a Apple em seu próprio jogo com IA superior

4. TensorFlow Object Detection API: noções básicas de detecção (2/2)

Que é assustador. As armas de inteligência artificial poderão em breve lançar operações militares independentemente da contribuição humana?

Está claro que os militares estão desenvolvendo tecnologias inteligentes. Afinal, devemos muitas das inovações que conhecemos, desde aplicações civis a P & D militar, incluindo a própria internet (que começou como Arpanet ), e-mail e veículos autônomos – todos desenvolvidos pela Agência de Projetos de Pesquisa Avançada de Defesa dos EUA ( DARPA ). Mas hoje, o armamento moderno que depende da máquina e do aprendizado profundo pode alcançar uma autonomia preocupante, embora os militares afirmem oficialmente que nenhum armamento contemporâneo é totalmente autônomo. No entanto, admite que uma proporção crescente de arsenais satisfaz os critérios tecnológicos para se tornar totalmente autônoma. Em outras palavras, não é uma questão de se as armas serão capazes de agir sem supervisão humana, é uma questão de quando, e se nós permitimos que elas escolham alvos para atacar e levar esses ataques para fora.

Há outra consideração aqui digna de nota. Enquanto os sistemas ainda são projetados para deixar a decisão final para os seres humanos, o tempo necessário para a reação é freqüentemente tão curto assim que a arma analisa os dados e escolhe um alvo que impede a reflexão. Com meio segundo para decidir se deve ou não puxar o gatilho, é difícil falar dos seres humanos nessas situações como sendo totalmente autônomos.

Armas pensantes ao redor do mundo

A Human Rights Watch, que pediu a proibição de "robôs assassinos" , estimou que existem pelo menos 380 tipos de equipamentos militares que empregam tecnologia inteligente sofisticada operando na China, Rússia, França, Israel, Reino Unido e Estados Unidos. . Muita publicidade recentemente se concentrou na empresa Hanwha, membro de um grupo das maiores fabricantes de armas da Coréia do Sul. O Korea Times, chamando-a de " terceira revolução no campo de batalha após a pólvora e armas nucleares ", informou que junto com o Instituto Avançado de Ciência e Tecnologia da Coréia (KAIST), está desenvolvendo mísseis que podem controlar sua velocidade e altitude e mudar o rumo. sem intervenção humana direta. Em outro exemplo, os canhões SGR-A1 colocados ao longo da zona desmilitarizada entre o Sul e o Norte da Coreia teriam capacidade de operar de forma autônoma (embora os programadores digam que não podem disparar sem autorização humana).

A empresa coreana Dodaam Systems fabrica robôs autônomos capazes de detectar alvos a muitos quilômetros de distância. Além disso, o Reino Unido tem testado intensivamente o avião não tripulado Taranis , pronto para atingir sua capacidade total em 2030 e substituir as aeronaves operadas por humanos. No ano passado, a agência de notícias russa Tass informou que as aeronaves de combate russas logo serão equipadas com mísseis autônomos capazes de analisar uma situação e tomar decisões independentes sobre altitude, velocidade e direção de vôo. E a China, que aspira a se tornar líder no campo da IA, está trabalhando duro para desenvolver drones (especialmente aqueles que operam nos chamados enxames) capazes de transportar mísseis autônomos que detectam alvos independentes de humanos.

Uma nova bala

Desde 2016, o Departamento de Defesa dos EUA vem criando um centro de desenvolvimento de inteligência artificial . Segundo os líderes do programa, o progresso no campo mudará a forma como as guerras são travadas. Embora o ex-subsecretário de Defesa dos EUA, Robert O. Work, tenha alegado que os militares não entregarão o poder às máquinas, se outros militares o fizerem, os Estados Unidos poderão ser forçados a considerá-lo. Por enquanto, a agência estabeleceu um amplo programa multimilionário de desenvolvimento de IA como parte central de sua estratégia, testando equipamentos controlados remotamente e de última geração, como o Exatamente Explicado por Artilharia de Precisão (EXACTO) , a. Bala de 50 calibres que pode adquirir alvos e mudar de caminho “para compensar quaisquer fatores que possam desviá-lo do caminho”.

Segundo especialistas, aeronaves não tripuladas substituirão aeronaves pilotadas em questão de anos. Esses drones podem ser reabastecidos em voo, realizar missões contra forças antiaéreas, participar de missões de reconhecimento e atacar alvos terrestres. Ausência de piloto sem piloto reduzirá consideravelmente os custos, já que os sistemas de segurança do piloto em um avião de combate moderno podem representar até 25% de toda a plataforma de combate.

Pequeno, mas mortal

Atualmente estão em andamento trabalhos para explorar o potencial dos chamados robôs de insetos, uma forma específica de nanobot que, segundo o físico americano Louis Del Monte, autor do livro Nanoweapons: A Ameaça Crescente à Humanidade , podem se tornar armas de destruição em massa . Del Monte argumenta que nanobots parecidos com insetos podem ser programados para inserir toxinas em pessoas e envenenar sistemas de abastecimento de água. O programa Autonomia Rápida e Levemente DARPA envolve o desenvolvimento de drones com tamanho de moscas domésticas, ideais para espionagem, equipados com “algoritmos avançados de autonomia”. A França, Holanda e Israel também estão trabalhando na coleta de informações de insetos .

Os limites do monitoramento de ONGs e o que precisa acontecer agora

Políticos, especialistas e a indústria de TI como um todo estão percebendo que o problema das armas autônomas é bem real. De acordo com Mary Wareham da Human Right Watch , os Estados Unidos deveriam “ comprometer-se a negociar um tratado de proibição juridicamente vinculante [para] traçar os limites da futura autonomia nos sistemas de armas ”. Enquanto isso, a ONG do Reino Unido Artigo 36 dedicou muito de atenção a munições autônomas, afirmando que o controle político sobre armas deveria ser regulado e baseado em um protocolo publicamente acessível e transparente. Ambas as organizações têm investido muito no desenvolvimento de definições claras de armas autônomas. Os signatários das petições internacionais continuam tentando alcançar os políticos e apresentar seus pontos de vista durante as conferências internacionais. Uma das mais recentes iniciativas internacionais é a carta deste ano assinada pela organização Future of Life Institute, com sede em Boston, na qual 160 empresas da indústria de IA em 36 países, juntamente com 2400 indivíduos, assinaram uma declaração afirmando que “ armas autônomas representam ameaça clara para todos os países do mundo e, portanto, não contribuirá para o seu desenvolvimento . ”O documento foi assinado por, entre outros, Demis Hassabis, Stuart Russell, Yoshua Bengio, Anca Dragan, Toby Walsh e o fundador da Tesla e da SpaceX. Elon Musk.

No entanto, até que surja um conflito internacional aberto que revele quais tecnologias estão realmente em uso, manter o controle das armas que estão sendo desenvolvidas, pesquisadas e instaladas é quase impossível.

Outro obstáculo enfrentado no desenvolvimento de padrões de ligação claros e na produção de resultados úteis é a natureza dos algoritmos. Pensamos em armas como objetos materiais (cujo uso pode ou não ser banido), mas é muito mais difícil fazer leis para lidar com o desenvolvimento do código por trás de software, algoritmos, redes neurais e inteligência artificial.

Outro problema é o da responsabilidade. Como é o caso dos veículos autônomos, quem deve ser responsabilizado em caso de tragédia? A pessoa de TI que escreve o código para permitir que os dispositivos façam escolhas independentes? O treinador da rede neural? O fabricante do veículo?

Profissionais militares que fazem lobby pelos projetos autônomos mais avançados argumentam que, em vez de impor proibições, deve-se incentivar inovações que reduzirão o número de vítimas civis. Não se trata de algoritmos com potencial para destruir o inimigo e a população civil. Em vez disso, eles afirmam que seu principal objetivo é usar essas tecnologias para avaliar melhor as situações do campo de batalha, encontrar vantagens táticas e reduzir as baixas em geral (incluindo civis). Em outras palavras, trata-se de um processamento de dados aprimorado e mais eficiente.

No entanto, os algoritmos liberados nos campos de batalha de amanhã podem causar tragédias de proporções sem precedentes. Toby Walsh, professor que lida com a inteligência artificial na Universidade de New South Wales, na Austrália, adverte que as armas autônomas " seguirão qualquer ordem, por mais maligna que seja " e "industrializarão a guerra".

A inteligência artificial tem o potencial de ajudar muitas pessoas. Lamentavelmente, também tem o potencial de causar grandes danos. Políticos e generais precisam coletar informações suficientes para entender todas as conseqüências da disseminação de munições autônomas.