Robôs assassinos: o aterrorizante auge da guerra de algoritmos

Robôs assassinos: o aterrorizante auge da guerra de algoritmos

Por Inés M. Pousadela

MONTEVIDÉU — Máquinas sem consciência estão tomando decisões em frações de segundo sobre quem vive e quem morre. Não se trata de uma ficção distópica, mas da realidade atual. Em Gaza, por exemplo, os algoritmos geraram listas de alvos a eliminar com até 37 mil nomes.

As armas autônomas também estão sendo utilizadas na Ucrânia e foram exibidas recentemente em desfile militar na China. Os Estados competem para integrá-las em seus arsenais, convencidos de que manterão o controle. Se se enganarem, as consequências poderão ser catastróficas.

Diferentemente dos drones pilotados à distância, nos quais um operador humano aperta o gatilho, as armas autônomas tomam decisões letais. Uma vez ativadas, processam os dados dos sensores (reconhecimento facial, assinaturas térmicas, padrões de movimento) para identificar perfis de alvos pré-programados e disparam automaticamente quando encontram uma coincidência.

Atuam sem hesitar, sem reflexão moral e sem compreender o valor da vida humana.

A velocidade e a falta de hesitação dão aos sistemas autônomos o potencial de intensificar rapidamente os conflitos. E como funcionam com base no reconhecimento de padrões e probabilidades estatísticas, carregam um enorme potencial de erros letais.

O ataque de Israel a Gaza ofereceu um primeiro vislumbre do genocídio assistido pela inteligência artificial (IA).

O exército israelense desdobrou múltiplos sistemas algorítmicos de seleção de alvos: utiliza Lavender e The Gospel para identificar supostos militantes da milícia Hamas e gerar listas de alvos humanos e infraestruturas para bombardear, e Where’s Daddy para rastrear os alvos e matá-los quando estão em casa com suas famílias.

Os responsáveis pela inteligência israelense reconheceram uma taxa de erro de cerca de 10%, mas simplesmente a assumiram, considerando aceitáveis entre 15 e 20 mortes de civis para cada militante subalterno que o algoritmo identifica e mais de 100 para cada comandante.

A despersonalização da violência também cria um vazio de responsabilidade.

Quando um algoritmo mata a pessoa errada, quem é o responsável? O programador? O oficial no comando? O político que autorizou sua implementação? A incerteza jurídica é uma característica inerente que protege os autores das consequências.

À medida que as máquinas tomam decisões sobre a vida e a morte, a própria ideia de responsabilidade se desvanece.

Essas preocupações surgem em um contexto mais amplo de alarme pelo impacto da IA no espaço cívico e nos direitos humanos. À medida que a tecnologia se barateia, está se estendendo a todos os âmbitos, desde os campos de batalha até o controle de fronteiras e as operações policiais.

As tecnologias de reconhecimento facial baseadas na IA estão ampliando as capacidades de vigilância e solapando os direitos de privacidade. Os vieses incorporados nos algoritmos perpetuam a exclusão por motivos de gênero, raça e outras características.

Enquanto a tecnologia se desenvolveu, a comunidade internacional passou mais de uma década debatendo sobre as armas autônomas sem produzir uma norma vinculante.

Desde 2013, quando os Estados que adotaram a Convenção das Nações Unidas sobre certas armas convencionais acordaram iniciar as conversas, os avanços foram muito lentos.

O Grupo de Especialistas Governamentais sobre Sistemas de Armas Autônomas Letais reuniu-se periodicamente desde 2017, mas as conversas viram-se sistematicamente bloqueadas pelas principais potências militares — Estados Unidos, Índia, Israel e Rússia — que se aproveitaram do requisito de alcançar consenso para bloquear sistematicamente as propostas de regulamentação.

Em setembro, 42 Estados emitiram uma declaração conjunta na qual afirmavam sua disposição de seguir adiante. Foi um grande avanço após anos de estagnação, mas os principais detratores mantêm sua oposição.

Para contornar esse obstáculo, a Assembleia Geral das Nações Unidas tomou a iniciativa.

Em dezembro de 2023, aprovou a Resolução 78/241, a primeira sobre armas autônomas, com 152 votos a favor. Em dezembro de 2024, a Resolução 79/62 ordenou a realização de consultas entre os Estados membros, que tiveram lugar em Nova York em maio de 2025.

Nesses debates analisaram-se os dilemas éticos, as implicações para os direitos humanos, as ameaças para a segurança e os riscos tecnológicos. O secretário-geral das Nações Unidas, o Comitê Internacional da Cruz Vermelha e numerosas organizações da sociedade civil pediram que as negociações sejam concluídas em 2026, dado o rápido desenvolvimento da IA militar.

A Campanha para Deter os Robôs Assassinos, uma coalizão de mais de 270 grupos da sociedade civil de mais de 70 países, liderou a iniciativa desde 2012.

Através de um trabalho sustentado de promoção e pesquisa, a campanha deu forma ao debate, advogando por um enfoque de dois níveis que atualmente conta com o apoio de mais de 120 Estados.

Esse enfoque combina a proibição dos sistemas mais perigosos — os que apontam diretamente para seres humanos, operam sem um controle humano significativo ou cujos efeitos não podem ser adequadamente previstos — com uma regulamentação estrita de todos os demais.

Os sistemas não proibidos só se permitiriam sob restrições rígidas que exigiriam supervisão humana, previsibilidade e uma responsabilidade clara, incluindo limites nos tipos de alvos, restrições de tempo e localização, provas obrigatórias e requisitos de supervisão humana com capacidade de intervenção.

Se se quer cumprir o prazo, a comunidade internacional só tem um ano para concluir um tratado que uma década de negociações não conseguiu produzir. Com cada mês que passa, os sistemas de armas autônomas tornam-se mais sofisticados, implementam-se mais amplamente e integram-se mais profundamente na doutrina militar.

Uma vez que as armas autônomas se generalizem e se normalize a ideia de que as máquinas decidem quem vive e quem morre, será muito mais difícil impor regulamentações.

Os Estados devem negociar urgentemente um tratado que proíba os sistemas de armas autônomos que apontem diretamente para seres humanos ou operem sem um controle humano significativo, e que estabeleça mecanismos claros de prestação de contas pelas violações.

A tecnologia não se pode desinventar, mas ainda se pode controlar.

Inés M. Pousadela é especialista sênior em Pesquisa do Civicus, codiretora e redatora do Civicus Lens e coautora do Relatório sobre o Estado da Sociedade Civil da organização.

(+) Imagem em destaque: Representação de pessoa controlada por diferentes algoritmos digitais. Crédito: Reprodução/Documentário “Dilema das redes” – Netflix

(++) Publicado originalmente em IPS — Inter Press Service

Tagged: , , , , , , , ,