Anthropic volta às negociações com o Pentágono. IA da empresa está a ser usada no conflito com Irão
O CEO da Anthropic e o subsecretário da Defesa reuniram-se esta semana para discutir um novo acordo, depois de as negociações terem caído por terra na semana passada com a tecnológica a não abrir mão de uma das suas linhas vermelhas. Contudo, algumas ferramentas de IA da empresa estão a ser utilizadas no conflito com o Irão, avançou o Wall Street Journal.
A Anthropic, uma das empresas mais promissoras no campo da inteligência artificial (IA), e o Pentágono norte-americano estão de volta à mesa de negociação. De acordo com o Financial Times, o CEO da tecnológica, Dario Amodei, está num "sprint" final para conseguir chegar a um acordo para renovar a parceira com o Departamento de Defesa dos EUA, após as conversações terem caído por terra na semana passada e as duas partes terem entrado em rota de colisão.
A disputa levou a acusações mútuas, colocou a Anthropic em risco de entrar para a "lista negra" do setor e levou o Departamento de Defesa norte-americano a assinar um contrato com a OpenAI - acordo que também está tremido, com o CEO da dona do ChatGPT, Sam Altman, a dar um passo atrás. No entanto, pode ainda haver futuro para a colaboração entre a empresa e o Pentágono, depois de o diretor-executivo da dona do chatbot Claude e o subsecretário da Defesa para Investigação e Engenharia se terem encontrado esta semana para limar os detalhes de um novo acordo.
Caso as negociações cheguem a "bom porto", as forças armadas norte-americanas vão poder continuar a aceder à tecnologia da Anthropic. A colaboração entre as duas partes começou em julho do ano passado, foi avaliada em 200 milhões de dólares e representou a primeira vez que modelos de IA foram utilizados em ficheiros confidenciais e por agências de segurança nacional.
No entanto, ainda não é certo se a Anthropic e o Pentágono vão conseguir resolver as suas diferenças. Em causa estão artigos no contrato que a tecnológica sente que são essenciais para impedir que a sua tecnologia seja utilizada para a vigilância em massa dos cidadãos norte-americanos, bem como na utilização de armas autónomas letais. "Perto do final das negociações, o Pentágono ofereceu-se para aceitar os nossos termos atuais se apagássemos uma frase específica sobre a 'análise de dados adquiridos em massa' - a única linha no contrato que correspondia exatamente ao cenário que mais nos preocupava", explicou Amodei aos trabalhadores, numa carta interna revelada pelo The Information.
Na mesma carta, o CEO da Anthropic criticou a forma como um acordo foi alcançado entre o Departamento de Defesa dos EUA e a OpenAI, afirmando que as duas partes estavam a "mentir sobre essas questões [as relacionadas com a análise de dados em massa] ou a tentar confundir as pessoas". Amodei sugeriu ainda que a única razão pela qual a sua empresa estava a ser afastada era porque "não temos elogiado Trump como se vivêssemos numa ditadura". Já o subsecretário da Defesa acusou o diretor-executivo de ser um "mentiroso" com um "complexo de Deus".
A disputa causou grande desconforto dentro de Silicon Valley. Grandes grupos tecnológicos, como a Alphabet e a Apple, exortaram o Presidente dos EUA, Donald Trump, a reconsiderar a designação da Anthropic como um risco à segurança nacional - que acabou por não ser efetivada -, argumentando que isso levaria a grandes efeitos prejudiciais para o resto do setor ligado à IA. No dia em que as negociações colapsaram, Trump ordenou todas as agências federais dos EUA para pararem de utilizar a tecnologia da Anthropic, alegando que o "egoísmo" da tecnológica "está a colocar vidas americanas em risco, as nossas tropas em perigo e a nossa segurança nacional em causa”.
Apesar das ordens do Presidente norte-americano, o Wall Street Journal noticiou que o Pentágono terá utilizado a tecnologia da Anthropic na ofensiva contra o Irão no passado fim de semana, que desencadeou um novo conflito no Médio Oriente e levou a uma escalada nos preços da energia. O Departamento de Defesa utiliza as ferramentas da empresa para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha.
Os comandos militares dos EUA, incluindo o Comando Central para o Médio Oriente, utilizam a ferramenta principal de IA da Anthropic, o Claude, de acordo com fontes citadas pelo jornal. Contudo, o Comando Central dos EUA (Centcom), que está a liderar a operação “Fúria Épica”, recusou identificar que sistemas específicos estão a ser utilizados na ofensiva contra o Irão.
Mais lidas