Que limites para a IA?
O recente confronto entre a empresa Anthropic e o Departamento de Defesa (DoD) dos EUA constitui um marco no âmbito do debate sobre ética, na utilização da inteligência artificial. Ao recusar-se a autorizar o emprego do seu modelo Claude em vigilância doméstica e em sistemas de armas totalmente autónomos, a empresa, e em concreto o seu CEO Dario Amodei, assumiu uma posição rara num setor onde as pressões económicas e de segurança muitas vezes se sobrepõem às considerações morais.
Na sequência deste gesto, a 4 de março, a Anthropic foi formalmente notificada de que havia sido considerada uma empresa de risco (“supply chain risk”) para a segurança nacional, uma medida sem precedentes contra uma empresa americana. Em consequência, o DoD deixará de utilizar os produtos da Anthropic num prazo de seis meses, independentemente de, por agora, se estar a apoiar largamente no Claude, na guerra contra o Irão. A cessação do contrato de US$200 milhões com esta empresa, substituindo-a pela tecnológica OpenAI, aberta a permitir o uso da sua tecnologia para “todos os fins legais”, sem restrições, revela bem o grau de tensão existente entre princípios éticos e imperativos estratégicos.
PUB
Num texto datado de 2024 (“Machines of Loving Grace”, How AI Could Transform the World for the Better), em que Amodei faz o elogio dos benefícios da IA para a Humanidade, o autor escreve uma frase muito reveladora do momento atual que vivemos, face ao desenvolvimento tecnológico: “Penso que a maioria das pessoas está a subestimar quão radical pode ser o lado positivo da IA, assim como penso que a maioria das pessoas está a subestimar quão graves podem ser os riscos.” E assim é.
Ora se relativamente às oportunidades e aos benefícios, o futuro muito provavelmente nos trará boas notícias, já em relação aos riscos, não os conseguindo estimar, dificilmente os controlaremos e/ou anularemos, pelo que são necessários sistemas de monitorização e mitigação eficaz, como sejam o estabelecimento de sistemas de governance e todos os avanços no campo da chamada “Mechanistic Interpretability”.
As grandes empresas tecnológicas são, hoje em dia, atores geopolíticos de facto. E a ausência de estruturas públicas de governance robustas, capazes de acompanhar as realidades operacionais habilitadas por IA, gera uma grande fragilidade estratégica. Na realidade, a sociedade torna-se mais vulnerável quando não tem mecanismos institucionais para escrutinar decisões que têm um elevadíssimo impacto, tais como as que envolvem a consideração de limites éticos, usos aceitáveis ou acessos a sistemas e serviços.
PUB
Algumas empresas tentam impor a si mesmas estes limites por meio de políticas que definem como os seus modelos podem ser implantados e utilizados. Mas esta abordagem, como se verifica no caso da Anthropic, é curta e ineficiente.
Por outro lado, é igualmente importante ir muito mais longe no campo da “Mechanistic Interpretability”, a ciência de olhar para dentro dos modelos criados. Um dos problemas quando se treinam modelos de IA é que não sabemos, não podemos ter certeza, de que eles vão sempre fazer o que achamos que vão fazer e porque o vão fazer. Todos os testes e aprendizagens são contextuais e, tal como as pessoas, quando inseridos num contexto diferente, estes modelos podem reagir de forma completamente diferente da esperada. Os sistemas de IA, especialmente os que operam em ambientes complexos e dinâmicos como os que se experimentam em cenários de guerra, podem amplificar erros, enviesamentos ou interpretações incorretas dos dados. Por isso mesmo, a ciência de examinar o interior dos modelos de IA pode vir a ser, em última análise, a chave para tornar os modelos mais seguros e controláveis.
Por último, regressemos ao dilema inicial. A IA é uma incrível ferramenta que pode, mesmo, transformar o mundo e a nossa qualidade de vida para melhor, dado a sua contribuição para a inovação nas ciências médicas e biomédicas, o desenvolvimento económico, a resposta às desigualdades sociais e a promoção da paz mundial, para citar apenas alguns âmbitos. Mas, simultaneamente, pode constituir-se como uma arma utilizada, sobretudo, para destruir a economia, a convivência social, a paz e as pessoas. Tudo depende da utilização que dela fizermos, dos limites que nos e lhe impusermos, com maior ou menor responsabilidade. É um desafio profundo para a ética humana.
PUB
Os sistemas como o Claude, dada a sua rapidez, capacidade de síntese e potencial para previsões, são ativos muito tentadores num ambiente onde a informação significa poder. No entanto, a fronteira entre apoio à decisão e automatização da decisão letal (precisamente a fronteira que a Anthropic se recusou a atravessar) é extremamente ténue e perigosa de trespassar. Se um sistema pode ter atributos que suscitam dúvidas morais, até que ponto é aceitável integrá-lo na tomada de decisões de vida ou morte?
A verdade é que, quanto mais se delega na IA, maior é o risco de erosão da responsabilidade humana. E então, que sociedade estaremos a criar?
No fundo, o caso Anthropic demonstra que a guerra é o pior contexto para se testarem os limites éticos da IA. A pressão por vantagem, rapidez e eficiência é incompatível com a prudência, a reflexão e o respeito que a dignidade humana e a sua consideração merecem. Se a ética é a ciência da excelência humana, então a integração da IA na guerra pode confrontar-nos precisamente com o inverso: a possibilidade de substituirmos o juízo humano por mecanismos que não compreendem a vida, nem a morte, nem a responsabilidade moral.
PUB
A decisão da Anthropic de traçar limites firmes é, por isso, mais do que um gesto empresarial: é um alerta de que a tecnologia não deve avançar mais depressa do que a nossa capacidade de garantir que continua ao serviço da humanidade — mesmo, e sobretudo, em tempos de guerra.
Os grandes líderes sabem que há limites que não devem e não podem ser ultrapassados e caminhos que não vale a pena percorrer. E, em nome da integridade, praticam-no porque sabem também que só assim a vida vale a pena.
Saber mais sobre...
Saber mais Empresa Casa nova Casa do Impacto Casa Anthropic Departamento de Defesa dos Estados Unidos Dario Amodei Estados UnidosMais Artigos do autor
Mais lidas
O Negócios recomenda