Vamos falar sobre robôs assassinos

Eles já andam entre nós
Brian Heater @ bheater 

Créditos da imagem: CARL COURT/AFP / Getty Images

rocurando uma conversa na mesa do jantar de Ação de Graças que não seja política ou esportes profissionais? Ok, vamos falar sobre robôs assassinos. É um conceito que há muito saltou das páginas da ficção científica para a realidade, dependendo de quão vaga é a definição que você usa para “robô”. Drones militares abandonaram a Primeira Lei da Robótica de Asimov – “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum dano” – décadas atrás.

O assunto voltou a ferver ultimamente devido à crescente perspectiva de robôs assassinos na aplicação da lei doméstica. Um dos fabricantes de robôs mais conhecidos da época, Boston Dynamics, levantou algumas bandeiras vermelhas de política pública quando exibiu imagens de seu robô Spot sendo implantado como parte dos exercícios de treinamento da Polícia do Estado de Massachusetts em nosso palco em 2019.

Os robôs não estavam armados e, em vez disso, faziam parte de um exercício projetado para determinar como eles poderiam ajudar a manter os policiais fora de perigo durante uma situação de refém ou terrorista. Mas a perspectiva de implantar robôs em cenários em que a vida das pessoas está em risco imediato foi suficiente para iniciar uma investigação da ACLU, que disse ao TechCrunch :

“Precisamos urgentemente de mais transparência das agências governamentais, que devem ser francas com o público sobre seus planos de testar e implantar novas tecnologias. Também precisamos de regulamentos estaduais para proteger as liberdades civis, os direitos civis e a justiça racial na era da inteligência artificial.”

No ano passado, enquanto isso, o NYPD interrompeu um acordo com a Boston Dynamics após uma forte reação pública, depois que surgiram imagens do Spot sendo implantado em resposta a uma invasão domiciliar no Bronx.

De sua parte, a Boston Dynamics tem sido muito veemente em sua oposição ao armamento de seus robôs. No mês passado, assinou uma carta aberta , juntamente com outras empresas líderes Agility, ANYbotics, Clearpath Robotics e Open Robotics, condenando a ação. Ele observa:

“Acreditamos que adicionar armas a robôs que são operados remotamente ou de forma autônoma, amplamente disponíveis ao público e capazes de navegar para locais antes inacessíveis onde as pessoas vivem e trabalham, levanta novos riscos de danos e sérios problemas éticos. As aplicações armadas desses robôs recém-capacitados também prejudicarão a confiança do público na tecnologia de maneiras que prejudicam os enormes benefícios que trarão para a sociedade.”

Acredita-se que a carta tenha sido, em parte, uma resposta ao trabalho da Ghost Robotics com os militares dos EUA. Quando as imagens de um de seus próprios cães robóticos apareceram no Twitter com um rifle autônomo, a empresa da Filadélfia disse ao TechCrunch que assumiu uma postura agnóstica em relação à forma como os sistemas são empregados por seus parceiros militares:

“Nós não fazemos as cargas úteis. Vamos promover e anunciar algum desses sistemas de armas? Provavelmente não. Essa é uma pergunta difícil de responder. Porque estamos vendendo para os militares, não sabemos o que eles fazem com eles. Não vamos ditar aos nossos clientes do governo como eles usam os robôs.

Nós traçamos a linha onde eles são vendidos. Vendemos apenas para governos americanos e aliados. Nem mesmo vendemos nossos robôs para clientes corporativos em mercados adversários. Recebemos muitas perguntas sobre nossos robôs na Rússia e na China. Não enviamos para lá, mesmo para nossos clientes corporativos.”

A Boston Dynamics e a Ghost Robotics estão atualmente envolvidas em um processo envolvendo várias patentes .

Esta semana, o site de relatórios da polícia local, Mission Local, trouxe à tona uma preocupação renovada sobre robôs assassinos – desta vez em São Francisco. O site observa que uma proposta de política que será revisada pelo Conselho de Supervisores da cidade na próxima semana inclui linguagem sobre robôs assassinos. A “Política de Equipamentos de Aplicação da Lei” começa com um inventário de robôs atualmente em posse do Departamento de Polícia de São Francisco.

São 17 ao todo – 12 delas em funcionamento. Eles são amplamente projetados para detecção e descarte de bombas – o que significa que nenhum foi projetado especificamente para matar.

“Os robôs listados nesta seção não devem ser utilizados fora de treinamento e simulações, apreensões criminais, incidentes críticos, circunstâncias exigentes, execução de um mandado ou durante avaliações de dispositivos suspeitos”, observa a política. Em seguida, acrescenta, de forma mais preocupante, “os robôs só serão usados ​​como uma opção de força letal quando o risco de perda de vida para membros do público ou oficiais for iminente e superar qualquer outra opção de força disponível para o SFPD”.

Efetivamente, de acordo com a linguagem, os robôs podem ser usados ​​para matar, a fim de potencialmente salvar a vida de policiais ou do público. Parece bastante inócuo nesse contexto, talvez. No mínimo, parece enquadrar-se na definição legal de força letal “justificada” . Mas novas preocupações surgem no que parece ser uma mudança profunda na política.

Para começar, o uso de um robô antibombas para matar um suspeito não é sem precedentes. Em julho de 2016, os policiais de Dallas fizeram exatamente isso pelo que se acreditava ser a primeira vez na história dos Estados Unidos . “Não vimos outra opção a não ser usar nosso robô-bomba e colocar um dispositivo em sua extensão para detonar onde o suspeito estava”, disse o chefe de polícia David Brown na época.

Em segundo lugar, é fácil ver como um novo precedente pode ser usado em um cenário CYA , se um robô for intencional ou acidentalmente usado dessa maneira. Em terceiro lugar, e talvez o mais alarmante, pode-se imaginar a linguagem aplicada à aquisição de um futuro sistema robótico não projetado exclusivamente para descoberta e descarte de explosivos.

A Mission Local acrescenta que o presidente do Comitê de Regras do Conselho de Supervisores de SF, Aaron Peskin, tentou inserir a linha mais amigável de Asimov: “Robôs não devem ser usados ​​como uso de força contra qualquer pessoa”. O SFPD aparentemente riscou a mudança de Peskin e a atualizou para seu idioma atual.

A conversa renovada sobre robôs assassinos na Califórnia vem, em parte, devido ao Projeto de Lei 481 da Assembleia. Assinada pelo governador Gavin Newsom em setembro do ano passado, a lei foi criada para tornar a ação policial mais transparente. Isso inclui um inventário de equipamentos militares utilizados pela polícia.

Os 17 robôs incluídos no documento de San Francisco fazem parte de uma lista mais longa que também inclui o veículo blindado Lenco BearCat , flash-bangs e 15 submetralhadoras.

No mês passado, a polícia de Oakland disse que não buscaria aprovação para robôs remotos armados. O departamento disse em um comunicado :

“O Departamento de Polícia de Oakland (OPD) não está adicionando veículos remotos armados ao departamento. OPD participou de discussões do comitê ad hoc com a Comissão de Polícia de Oakland e membros da comunidade para explorar todos os usos possíveis para o veículo. No entanto, após mais discussões com o Chefe e a Equipe Executiva, o departamento decidiu que não queria mais explorar essa opção específica.”

A declaração seguiu reação pública.A pasta de dente já saiu do tubo primeiro Primeira lei de Asimov. Os robôs assassinos estão aqui. Quanto à segunda lei – “Um robô deve obedecer às ordens que lhe são dadas por seres humanos” – isso ainda está ao nosso alcance. Cabe à sociedade determinar como seus robôs se comportam.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.