Google assina acordo de inteligência artificial para fins confidenciais com Pentágono
A
empresa-mãe da Google, a Alphabet, terá assinado um acordo com o Departamento
de Defesa dos Estados Unidos que permite a utilização dos modelos de
Inteligência Artificial (IA) em trabalhos confidenciais. O acordo permite que o
Pentágono use os modelos para "qualquer finalidade governamental
legal". Centenas de trabalhadores da Google contestaram o acordo, expressando preocupações sobre o uso para fins militares
e para vigilância em massa
De acordo com a notícia avançada pelo The Information,
e citada pela Reuters, o acordo exige que a Google ajuste as configurações de
segurança e os seus filtros de IA a pedido do governo norte-americano.
Vigilância em massa e armas autónomas
O novo acordo com a Google inclui uma cláusula que coloca
limites a potenciais usos desmedidos, mencionando que "as partes concordam que o sistema de IA não se destina a,
e não deve ser utilizado para, vigilância em massa interna ou armas autónomas
(incluindo a seleção de alvos) sem supervisão e controlo humanos adequados",
de acordo com o The Information, que citou uma fonte familiarizada com o
assunto.
Porém, considera-se que a mesma cláusula pode deixar a
'porta aberta' a esses usos, dado que acrescenta que "o acordo não confere qualquer direito de controlar ou
vetar a tomada de decisões operacionais legítimas do governo".
Assim sendo, o Departamento de Defesa dos EUA tem liberdade
de decisão quanto ao uso dos modelos de IA da Google que, por isso, não pode,
segundo este acordo, travar qualquer decisão governamental neste contexto.
Regra geral, as redes
classificadas são utilizadas para
lidar com uma vasta panóplia de tarefas consideradas sensíveis, como o
planeamento de missões e o processo de alvo, que se refere às ações de
identificar, analisar e priorizar alvos considerados inimigos, selecionando, de
seguida, a arma ou munição adequadas para atingi-los.
As armas autónomas são sistemas militares que selecionam e atacam
alvos, incluindo seres humanos, sem qualquer intervenção humana após a
ativação, com a ajuda de sensores e Inteligência Artificial (IA) para tomar
decisões letais. O uso destes sistemas levanta sérios dilemas éticos, jurídicos
e de segurança.
Trabalhadores preocupados com o uso de IA pelo governo
Na segunda-feira, centenas de funcionários da Google
assinaram uma carta aberta, pressionando o CEO da empresa, Sundar Pichai, a não
assinar o acordo com o Pentágono, recusando, assim, o uso dos sistemas de IA
para fins confidenciais.
A carta, assinada por mais de 18 superiores e centenas de
outros funcionários, afirmava que os signatários consideram que a sua
"proximidade com esta tecnologia lhes confere a responsabilidade de
alertar para os seus usos mais antiéticos e perigosos e de os impedir".
Entre estes usos, os trabalhadores expressaram preocupação
quanto à utilização de IA para vigilância em massa e uso de potenciais armas
autónomas letais.
"Atualmente, a única forma de garantir que a Google não
se associe a tais danos é rejeitar quaisquer tarefas confidenciais", lê-se
na carta aberta, citada pelo The Washington Post.
Os trabalhadores manifestaram, ainda, preocupações com os
índices de precisão dos modelos, salientando que a IA comete erros.
Em 2025, o Pentágono já tinha assinado acordos até 200
milhões de dólares com as principais empresas de Inteligência Artificial, como
a Anthropic, a OpenAI e a Google, afastando todos os avisos dos especialistas e
criadores dos sistemas acerca do uso não fiável de IA no armamento.
No início deste ano, Elon Musk apertou as mãos com o
Departamento de Defesa norte-americano. O Grok, sistema de IA criado por Musk,
começou utilizado pelo Pentágono, o que significou que Musk e a sua plataforma
começaram a ter acesso gradual a dados militares secretos.
Anthropic recusou, seguiu-se 'boicote'
De recordar que este acordo com a Google suge após Pete
Hegseth, secretário de Defesa dos Estados Unidos, ter excluindo a Anthropic de
determinados contratos militares após a empresa ter-se recusado a permitir que
o exército norte-americano utilizasse o seu chatbot de IA, o chamado 'Claude',
para fins de vigilância ou de uso de armas autónomas.
A recusa da Anthropic originou um autêntico boicote, com
Donald Trump a instar igualmente para que todos os departamentos governamentais
deixassem de usar os sistemas da empresa de tecnologia.
O Pentágono classificou, ainda, a Anthropic como um risco
para a cadeia de abastecimento, rótulo que o governo pode atribuir a empresas
que expõem sistemas militares a potenciais infiltrações ou sabotagens por parte
de adversários.
Fonte: SIC Notícias, 28 de abril de 2026

Comentários
Enviar um comentário