31 de março de 2019

Robôs assassinos já existem, e eles estão aqui há muito tempo

Os humanos sempre tomarão a decisão final sobre se os robôs armados podem atirar, de acordo com uma declaração do Departamento de Defesa dos EUA.

Seu esclarecimento vem em meio a temores sobre um novo sistema avançado de alvos, conhecido como ATLAS , que usará inteligência artificial em veículos de combate para mirar e executar ameaças.

Enquanto o público pode se sentir desconfortável com relação aos chamados "robôs assassinos" , o conceito não é novidade - robôs "SWORDS" com armas de metralhadora foram implantados no Iraque já em 2007.

Nosso relacionamento com robôs militares remonta ainda mais longe do que isso. Isso ocorre porque quando as pessoas dizem "robô", elas podem significar qualquer tecnologia com alguma forma de elemento "autônomo" que permita realizar uma tarefa sem a necessidade de intervenção humana direta.

Essas tecnologias existem há muito tempo. Durante a Segunda Guerra Mundial, o fusível de proximidade foi desenvolvido para explodir projéteis de artilharia a uma distância predeterminada de seu alvo.

Isso tornou as bombas muito mais eficazes do que teriam sido, aumentando a tomada de decisão humana e, em alguns casos, eliminando completamente o humano.

Então a questão não é se deveríamos usar sistemas de armas autônomos em batalha - nós já os usamos, e eles assumem muitas formas. Em vez disso, devemos nos concentrar em como os usamos, por que os usamos e que forma - se é que alguma - intervenção humana deve tomar.

O nascimento da cibernética

Minha pesquisa explora a filosofia das relações homem-máquina, com um foco particular na ética militar e na maneira como distinguimos entre humanos e máquinas.

Durante a Segunda Guerra Mundial, o matemático Norbert Wiener lançou as bases da cibernética - o estudo da interface entre humanos, animais e máquinas - em seu trabalho sobre o controle do fogo antiaéreo.

Ao estudar os desvios entre o movimento previsto de uma aeronave e seu movimento real, Wiener e seu colega Julian Bigelow criaram o conceito de "loop de feedback", no qual desvios poderiam ser introduzidos no sistema para corrigir outras previsões.

A teoria de Wiener, portanto, foi muito além do mero aumento, pois a tecnologia cibernética poderia ser usada para antecipar decisões humanas - removendo o humano falível do circuito, a fim de tomar decisões melhores e mais rápidas e tornar os sistemas de armas mais eficazes.

Nos anos desde a Segunda Guerra Mundial, o computador emergiu para se sentar ao lado da teoria cibernética para formar um pilar central do pensamento militar, desde as "bombas inteligentes" guiadas por laser da era do Vietnã até mísseis de cruzeiro e drones Reaper.

Não é mais suficiente apenas aumentar o guerreiro humano como era nos primeiros dias. A próxima fase é remover completamente o humano - "maximizar" os resultados militares enquanto minimiza o custo político associado à perda de vidas aliadas.

Isso levou ao uso generalizado de drones militares pelos EUA e seus aliados. Embora essas missões sejam altamente controversas, em termos políticos, elas provaram ser preferíveis, de longe, ao clamor público causado pelas mortes de militares.

A máquina humana

Uma das questões mais contenciosas relacionadas à guerra de drones é o papel do piloto de drone ou "operador". Como todo o pessoal, esses operadores estão obrigados por seus empregadores a "fazer um bom trabalho". No entanto, os termos de sucesso estão longe de ser claros.

Como filósofo e crítico cultural Laurie Calhoun observa:

O negócio dos operadores do UCAV [drone] é matar.

Desta forma, sua tarefa não é tanto tomar uma decisão humana, mas sim fazer o trabalho que eles estão empregados para fazer. Se o computador lhes diz para matar, existe realmente algum motivo pelo qual eles não deveriam?

Um argumento similar pode ser feito com respeito ao soldado moderno. Da navegação do GPS aos uplinks de vídeo, os soldados carregam vários dispositivos que os conectam a uma vasta rede que os monitora e controla em cada turno.

Isso leva a um enigma ético. Se o objetivo do soldado é seguir ordens ao pé da letra - com câmeras usadas para garantir a conformidade - então por que nos preocupamos com os soldados humanos?

Afinal de contas, as máquinas são muito mais eficientes do que os seres humanos e não sofrem de fadiga e estresse da mesma maneira que um ser humano. Se espera-se que os soldados se comportem de uma maneira robótica e programática de qualquer maneira, então qual é o ponto de se livrar do sangue aliado desnecessário?

A resposta, aqui, é que o ser humano serve como um álibi ou forma de "cobertura ética" para o que é, na realidade, um ato robótico quase totalmente mecânico.

Assim como o trabalho do operador de drone é supervisionar o drone controlado por computador, o papel do ser humano no novo sistema ATLAS do Departamento de Defesa é simplesmente servir de cobertura ética no caso de as coisas darem errado.

Embora os drones Predator e Reaper possam estar na vanguarda da imaginação do público sobre a autonomia militar e os "robôs assassinos", essas inovações não são novidade em si.

Eles são apenas os últimos de uma longa linha de desenvolvimentos que remontam a muitas décadas.

Embora possa confortar alguns leitores imaginarem que a autonomia da máquina estará sempre subordinada à tomada de decisão humana, isso realmente não faz sentido.

Os sistemas autônomos estão há muito tempo incorporados nas forças armadas e devemos nos preparar para as consequências.

Mike Ryder , Professor Associado em Filosofia, Universidade de Lancaster

Este artigo foi republicado em The Conversation . 

Nenhum comentário:

Postar um comentário

Videos