Conflito sobre utilização da IA intensifica-se. Criadora do Claude processa Pentágono

A empresa de inteligência artificial contesta ter sido designada como um “risco para a cadeia de fornecimento”, depois de ter imposto limites à utilização da sua tecnologia pelas Forças Armadas dos EUA.
Dario Amodei Anthropic
Markus Schreiber/AP
Pedro Barros Costa 16:51

A Anthropic resolveu processar o Pentágono esta segunda-feira, intensificando o conflito entre a empresa de Inteligência Artificial e o Departamento da Defesa dos EUA.

O Pentágono designou formalmente a tecnológica de São Francisco como “um risco para a cadeia de fornecimento”, depois de a empresa ter recusado autorizar as Forças Armadas dos EUA a utilizarem a sua tecnologia sem restrições.

PUB

Em causa, está a utilização da tecnologia da criadora do chatbot Claude em sistemas de armamento autónomos e também em programas e vigilância em massa dos cidadãos.

Após ter recebido um ultimato do “secretário da Guerra”, Pete Hegseth, o CEO da Anthropic, Dario Amodei, recusou ceder, colocando em risco um contrato de cerca de 200 milhões de dólares.    

De seguida, Donald Trump ameaçou banir os sistemas da Anthropic de todas as agências norte-americanas, levando a empresa a ser posteriormente a ser classificada como um “risco para a cadeia de fornecimento”.       

PUB

A resposta da empresa surgiu sob a forma de dois processos judiciais, com o objetivo de reverter a designação e impedir a sua aplicação.   

A Anthropic apresentou um dos processos num tribunal federal da Califórnia e outro no tribunal de recurso de Washington, D.C., contestando diferente aspetos da decisão contra a empresa.

Pub
Pub
Pub