Cientistas boicotam universidade coreana que fabrica “robôs atiradores”

Bem, que muitas das pesquisas em tecnologia só realmente ganham verba para serem desenvolvidas devido ao seu potencial militar, muita gente já sabe faz tempo. Mas oficializar a criação de armas autônomas em bancos de universidades pode abrir um precedente muito perigoso. Por isso mesmo é que a comunidade global do setor está preocupada: mais de 50 líderes em inteligência artificial (IA) e robótica vêm se juntando a um boicote ao programa de criação de “robôs atiradores”, da Korea Advanced Institute of Science and Technology (KAIST), universidade localizada na Coreia do Sul.

A ação coordenada vem como mensagem antecipada de uma reunião das Nações Unidas em Genebra, na Suíça, na próxima semana. A pauta será justamente o desenvolvimento de máquinas ofensivas independentes que usam IA e o controle que a sociedade terá para conter atividades envolvendo essas unidades.

“Podemos ver protótipos de armas autônomas sendo desenvolvidas atualmente em muitos países, incluindo nos Estados Unidos, na China, na Rússia e no Reino Unido. Estamos presos a uma corrida armamentista que ninguém quer que aconteça. As ações do KAIST só irão acelerar esse processo e não podemos tolerar isso”, comenta o organizador do movimento, Toby Walsh, professor da Universidade de Nova Gales do Sul, na Austrália.

O DRC-Hubo, da divisão de robótica da KAIST

Os signatários incluem alguns dos especialistas no assunto em todo o mundo, principalmente os educadores Geoffrey Hinton, Yoshua Bengio e Jü rgen Schmidhuber. O boicote proíbe todo contato e colaboração acadêmica com o KAIST até que a instituição estabeleça garantias de que o armamento construído terá “controle humano significativo”.

KAIST anunciou parceria para desenvolvimento de armas

O que mais motivou esse boicote foi um recente anúncio da KAIST: em fevereiro, a instituição afirmou que havia fechado uma parceria para a construção de um centro de pesquisa conjunta com a companhia de defesa sul-coreana Hanwha Systems. De acordo com o Korean Times, o objetivo dessa união é “desenvolver tecnologias de IA para serem aplicadas em armas militares, que seriam capazes de busca e eliminar sem o controle humano”.

O que também chama muita atenção é que essa cooperação reúne duas das principais organizações robóticas e militares do mundo. O KAIST é uma universidade de pesquisa de classe mundial, conhecida por trabalhos como o autômato transformador DRC-HUBO, vencedor do desafio DARPA de 2015.

A Hanwha Systems, por sua vez, é a subsidiária de defesa do poderoso conglomerado Hanwha, que já está envolvido no desenvolvimento de armas autônomas, a exemplo do Sentinela SGR-A1, que supostamente foi implantado na fronteira entre a Coreia do Norte e a Coreia do Sul. A empresa também constrói munições cluster, proibidas por tratados internacionais — embora muitos países se abstenham dessa proibição, incluindo a Coreia do Sul, os EUA, a Rússia e a China.

Construção de armas autônomas é inevitável

Ainda que o boicote contra a KAIST seja significativo, especialistas acreditam que uma campanha contra o desenvolvimento de armas autônomas não devem impedir a fabricação das mesmas. Antes, líderes em IA e robótica escreviam para a Organização das Nações Unidas (ONU), argumentando que armas que matam sem intervenção humana podem desestabilizar o mundo e deveriam ser controladas por tratado internacional.

A ideia até recebeu apoio internacional de 19 países, incluindo Egito, Argentina e Paquistão. Mas outras opinões de peso, como as dos Estados Unidos e as do Reino Unido, dizem que tal legislação seria impraticável, devido à impossibilidade de definir o que constitui ou não o “controle humano”.

O Wildcat, da Boston Dynamics, pode alcançar até 32 km/h e seu desenvolvimento, assim como pesquisas semelhantes, são financiadas pelo setor de defesa avançada do governo estadunidense

Muitos sistemas já possuem pelo menos alguns recursos autônomos, incluindo drones e redes de defesa antimísseis. Para Walsh e outros defensores de maior monitoramento sobre o setor, o perigo é grande demais para que todos sejamos complacentes. “Se desenvolvidas, as armas autônomas permitirão que a guerra seja travada mais rapidamente e em uma escala maior do que nunca. Esta caixa de Pandora, depois de aberta, será difícil de ser fechada.”logo_pet2

Fonte: Tecmundo

É sério isso? Vai sair deste artigo sem deixar seu comentário? Comente aí!