‘Máquina do Dia do Juízo Final’ no filme Dr. SAtrangelove compartilha algumas semelhanças com um sistema que a União Soviética realmente criou. Foto via Wikimedia Commons. Domínio público.
Mísseis hipersônicos, mísseis furtivos de cruzeiro e IA (Inteligência Artificial) armada reduziram tanto o tempo que os tomadores de decisão nos Estados Unidos teoricamente teriam que responder a um ataque nuclear que, segundo dois especialistas militares, chegou a hora para um novo comando nuclear dos EUA.~
A solução deles? Dê à Inteligência Artificial controle sobre o botão de inicialização das armas nucleares.
Em um artigo no War on the Rocks intitulado, ameaçadoramente, “America Needs a ‘Dead Hand’” (‘A América Precisa de uma Mão Morta’), os especialistas em dissuasão dos EUA, Adam Lowther e Curtis McGiffin, propõem um comando nuclear, controle e configuração de comunicações com algumas semelhanças assustadoras com o sistema soviético mencionado no título de seu artigo.
A “Mão Morta” (Dead Hand) era um sistema semi-automático desenvolvido para lançar o arsenal nuclear da União Soviética sob certas condições, incluindo, particularmente, com a perda de líderes nacionais que poderiam fazê-lo por conta própria.
Dada a crescente pressão do tempo de reação, Lowther e McGiffin afirmam que os tomadores de decisão nuclear dos EUA estão sob:
[Pode] ser necessário desenvolver um sistema baseado em inteligência artificial, com decisões de resposta predeterminadas, que detecte, decida e direcione forças estratégicas com tanta velocidade, que o desafio da compressão no momento do ataque não coloca os Estados Unidos em uma posição impossível.
No caso de entregar o controle de armas nucleares ao HAL 9000 parecer arriscado, os autores também apresentaram algumas outras soluções para o problema de pressão no tempo de reação nuclear: Reforçar a capacidade dos Estados Unidos de responder a um ataque nuclear após o fato, ou seja, garantir a chamada capacidade de segundo ataque; adotar disposição para atacar preventivamente outros países com base em avisos de que eles estão se preparando para atacar os Estados Unidos; ou desestabilizar os adversários do país colocando armas nucleares perto de suas fronteiras. A ideia aqui é que essa medida levaria os países à mesa de negociação de controle de armas.
Ainda assim, os autores parecem claramente favorecer uma solução baseada em inteligência artificial.
Eles escreveram:
A dissuasão nuclear cria estabilidade e depende da percepção do adversário de que não pode destruir os Estados Unidos com um ataque surpresa, impedir um ataque de retaliação garantido ou impedir que os Estados Unidos efetivamente comandem e controlem suas forças nucleares.
Essa percepção começa com uma capacidade garantida de detectar, decidir e dirigir um segundo ataque.
Nesta área, o equilíbrio está se afastando dos Estados Unidos.
A história está repleta de casos em que parece, em retrospecto, que uma guerra nuclear poderia ter começado se não fosse por algum humano de carne e osso que se recusasse a iniciar o Armagedom.
Talvez o herói mais famoso desse tipo tenha sido Stanislav Petrov, tenente-coronel soviético, oficial encarregado do sistema de detecção de lançamento de mísseis da União Soviética ao registrar cinco mísseis em 26 de setembro de 1983.
Petrov decidiu que o sinal era um erro e relatou isso como um alarme falso. E era mesmo. Se uma inteligência artificial teria também alcançado a mesma decisão é, pelo menos, algo incerto.
Um dos riscos de incorporar mais inteligência artificial ao sistema de comando, controle e comunicação nuclear envolve o fenômeno conhecido como viés de automação. Estudos mostraram que as pessoas confiarão no que um sistema automatizado está dizendo a elas.
Em um estudo, pilotos que disseram aos pesquisadores que não confiariam em um sistema automatizado que reportasse um incêndio no motor, a menos que houvesse evidências corroboradoras, no entanto, fizeram exatamente isso em simulações. (Além disso, eles disseram aos pesquisadores que de fato informações haviam corroborado, quando não existiam.)
O professor de ciências políticas da Universidade da Pensilvânia e o colunista do Bulletin, Michael Horowitz, que pesquisa inovação militar, considera o preconceito contra a automação como um ataque à construção de uma inteligência artificial baseado em comando, controle e sistema de comunicações nucleares.
Ele diz:
Um risco em um mundo com preconceito da automação é que o Petrov do futuro não use seu julgamento, ou que não exista Petrov’.
Os algoritmos que alimentam os sistemas de inteligência artificial geralmente são treinados em grandes conjuntos de dados, os quais simplesmente não existem quando se trata de lançamentos de armas nucleares.
Horowitz diz:
Não houve ataques com mísseis nucleares, país contra país. E assim, treinar um algoritmo para aviso prévio significa que você depende inteiramente de dados simulados.
Eu diria que, com base no estado da arte no desenvolvimento de algoritmos, isso gera alguns riscos.
Principalmente, Horowitz acha que os Estados Unidos não desenvolveriam um sistema de comando, controle e comunicação baseado em inteligência artificial, porque mesmo que haja menos tempo atualmente para reagir a um ataque do que nas décadas anteriores, o governo está confiante na capacidade de segundo ataque militar.
Ele diz:
Desde que você tenha a segurança para um segundo ataque, provavelmente poderá absorver algumas dessas variações de velocidade, porque sempre tem a capacidade de retalia.
Lowther e McGiffin apontam que um segundo ataque significa que já houve um primeiro ataque em algum lugar.
Existe algum precedente para o sistema proposto pelos autores do War on the Rocks, que serviram no governo ou nas forças armadas em capacidades relacionadas a armas nucleares. No mundo fictício de Hollywood, esse precedente foi estabelecido na sátira nuclear de Stanley Kubrick, Dr. Strangelove, e chamou de ‘Doomsday Machine‘ (Máquina do Juízo Final), que o autor Eric Schlosser descreveu assim para o The New Yorker:
O dispositivo se ativaria automaticamente se a União Soviética fosse atacada com armas nucleares. Era para ser o derradeiro impedimento, uma ameaça para destruir o mundo, a fim de impedir um ataque nuclear americano.
Mas o fracasso dos soviéticos em contar aos Estados Unidos sobre a engenhoca derruba seu objetivo e, no final do filme, causa inadvertidamente um Armagedom nuclear.
“Todo o propósito da ‘Doomsday Machine’ está perdido”, explica o embaixador soviético, Dr. Strangelove, conselheiro científico do presidente, ‘se você guardar isso em segredo!’”
Cerca de duas décadas depois, a sátira tornou-se mais próxima da realidade com o advento do sistema de “Mão Morta” semi-automatizado da União Soviética, formalmente conhecido como Perimeter. Quando esse sistema percebesse que a hierarquia militar soviética não existia mais e detectasse sinais de explosão nuclear, três oficiais no fundo de um bunker lançariam pequenos foguetes de comando que voariam por todo o país, iniciando o lançamento de todos os mísseis remanescentes da União Soviética, em uma espécie de vingança do túmulo.
O sistema pretendia aumentar a dissuasão. Alguns relatórios sugerem que ele ainda está em vigor.
A possibilidade de tirar os seres humanos do circuito pode levar a um lançamento acidental e a guerra nuclear não intencional é um elemento principal da dura caracterização do Prof. Tom Nichols pelo sistema ‘Mão Morta’ do professor de guerra naval dos EUA, em um artigo de 2014 no The National Interest:
Acontece que o alto comando soviético, em seus patéticos e paranoicos anos passados, era uma loucura.
Mas Lowther e McGiffin dizem que um hipotético sistema americano seria diferente da ‘Mão Morta’ porque “o próprio sistema determinaria a resposta com base em sua própria avaliação da ameaça de entrada.“
Ou seja, o sistema dos EUA seria melhor, porque não esperaria necessariamente que uma detonação nuclear iniciasse um ataque dos EUA.
Fonte: https://www.ovnihoje.com/2019/09/18/armas-nucleares-devem-ser-controladas-pela-inteligencia-artificial/
Nenhum comentário:
Postar um comentário