Microsoft, Google e Facebook estão pedindo para que Washington assuma controle sobre o desenvolvimento da inteligência artificial.

Dois gigantes do Vale do Silício do GAFAM, Google e Facebook, juntos com a Microsoft, exortam, através de seu segmento no Conselho de Inovação da Defesa (DIB em inglês) presidido por Joshua Marcuse, que o Pentágono controle a inteligência artificial.

Em meio aos temores angustiantes sobre a militarização da IA já iniciada pelo Pentágono, o DIB publicou um extenso conjunto de princípios e recomendações para o seu “uso ético”. O DIB teme a ascensão da China, que anunciou que será o “líder mundial em IA em 2030”, uma área em que investe fortemente.

DIB acrescenta que “da mesma forma, a Rússia investe pesadamente em aplicações de IA e experimenta tais sistemas em ‘cenários de combate ao vivo'”. O DIB reconhece que as “características e fragilidades únicas da IA requerem novas maneiras de vislumbrar suas possíveis consequências negativas e indesejáveis”. O conselho “reafirma que a utilização da IA deve ter lugar no contexto da estrutura ética existente no Pentágono”. O DIB fica assim integrado em pleno na conduta do Pentágono em suas recentes guerras do Vietnam à Líbia.

O Pentágono defende cinco princípios éticos na IA:

  • Responsabilidade: exercer níveis adequados de julgamento e permanecer responsável pelo desenvolvimento, implantação, utilização e resultados dos sistemas de IA.
  • Equitativo: o Pentágono deve tomar medidas deliberadas para evitar preconceitos involuntários no desenvolvimento e implementação de sistemas de IA em combate e fora de combate que inadvertidamente causariam danos às pessoas.
  • Rastreabilidade: a disciplina de engenharia de IA deve ser suficientemente avançada para que os especialistas técnicos possuam uma compreensão adequada da tecnologia, dos processos de desenvolvimento e métodos operacionais dos seus sistemas de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e concepção de documentação e procedimentos.
  • Confiabilidade: os sistemas IA devem ter um domínio de utilização explícito e bem definido, e a segurança e robustez de tais sistemas devem ser testadas e garantidas ao longo de todo o seu ciclo de vida.
  • Governabilidade: deve ser projetada e alcançada para cumprir o objetivo de sua função enquanto possui a capacidade de detectar e evitar danos ou perturbações não intencionais, e para a remoção humana ou automática ou desativação de sistemas implantados que demonstrem uma escalada não intencional ou outro comportamento.

Mecanismo de aplicação da inteligência artificial

Como podem estes cinco princípios éticos etéreos ser aplicados em um campo de batalha real ou em exercícios militares?

O DIB propõe então 12 “recomendações” a fim de articular e implementar seus princípios controversos, incluindo: formalizar os princípios éticos através de canais oficiais do Pentágono, especificamente o recém-criado Centro Conjunto de IA (JAIC, na sigla em inglês), estabelecer um amplo comitê de IA, cultivar e expandir o campo da engenharia de IA, em uníssono com o Escritório do Subsecretário de Pesquisa e Engenharia e os Laboratórios de Serviço.

No entanto, os princípios DIB não são vinculativos e omitem o escrutínio da militarização em curso da IA pelo Pentágono, desde tanques a mísseis, quando os seus respectivos algoritmos irão definir o curso da batalha com sua pré-programação.

Plano de ação

A militarização da IA já começou: em 2018 o Pentágono inaugurou o Centro Conjunto de Inteligência Artificial, embora seu diretor, o tenente-general Jack Shanahan, tenha prometido dar “mais clareza e transparência” diante da onda de protestos.

Um grupo de funcionários da Google se demitiu para protestar contra as ligações do Pentágono ao Vale do Silício, especificamente no Projeto Maven, que usa IA da Google para montar os drones do Exército dos EUA. Shanahan celebra a militarização da saúde preditiva que a IA usará para “análise de histórias clínicas, classificação de imagens, mitigação da síndrome de estresse pós-traumático e prevenção de suicídio”.

A militarização, aberta ou oculta, da IA logo cria controversa. A questão da bioética da IA é objeto de debate na China e na Câmara dos Lordes no Reino Unido. No Reino Unido, o Comitê Seleto da IA da Câmara dos Lordes publicou um relatório onde não aborda explicitamente a militarização da IA, mas alerta para “nunca conceder poder autônomo para prejudicar, destruir ou enganar humanos”. *Sputnik

Anúncios