Devemos ter medo da IA ou das pessoas que a desenvolvem?
Os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e de que os seus riscos serão controláveis.
"Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e mentira? Devemos automatizar todos os trabalhos, incluindo aqueles que deixam as pessoas satisfeitas? Devemos desenvolver mentes não humanas que possam eventualmente ultrapassar-nos em número, serem mais inteligentes, deixando-nos obsoletos e substituir-nos? Devemos arriscar-nos a perder o controlo da nossa civilização?". Estas são algumas das perguntas que a já famosa carta aberta publicada pelo Future of Life Institute e assinada por mais de 5 mil especialistas e personalidades ligadas à IA quer ver respondidas, apelando por isso a uma pausa de seis meses no desenvolvimento destas poderosas tecnologias. Mas há quem discorde.
Se o leitor esteve atento às notícias que mais populares se tornaram na última semana, talvez já tenha tido oportunidade de ler a carta aberta publicada pelo Future of Life Institute – uma organização sem fins lucrativos cujo objectivo é "reduzir o risco global catastrófico e existencial de tecnologias poderosas" – a qual apela à suspensão temporária, ao longo de seis meses, do desenvolvimento de sistemas de inteligência artificial [IA] mais "poderosos" que o GTP-4 e que, entre vários "problemas", incluem a produção em massa de notícias e o aumento do desemprego, nomeadamente pela substituição dos humanos por máquinas num conjunto significativo de profissões.
Na altura em que este artigo está a ser escrito, a carta em causa conta já com mais de 5 mil signatários, entre anónimos e especialistas em tecnologia: o sempre polémico Elon Musk, o co-fundador da Apple, Steve Wozniak, Yuval Nohel Harari (historiador e autor dos livros Sapiens e Homo Deus), Stuart Russel, reconhecido cientista de computação britânico, o canadiano Yoshua Benfio, famoso pelo trabalho que faz com redes neurais artificiais e que assenta em algoritmos que simulam o cérebro humano, sendo igualmente pioneiro do deep learning, alguns CEOs proeminentes (da Stability AI, Pinterest, Skype ou Getty Images), em conjunto com alguns professores de IA de mérito reconhecido, entre muitos outros, incluindo também vários especialistas da DeepMind, a empresa de IA da Google, e também da Microsoft, as quais e nos últimos meses também lançaram novos produtos com inteligência artificial.
Não é de surpreender que ninguém da
Em tradução livre, a carta alerta para "os
Infelizmente, "este nível de planeamento e gestão não está a acontecer", diz também a carta, antes pelo contrário, como se pôde constatar na corrida descontrolada nos últimos meses de laboratórios de IA que se esforçam "para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – consegue compreender, prever, ou controlar de forma fiável".
A carta causou um verdadeiro furor entre os que apoiam e os que criticam a forma como está a ser conduzida a investigação e desenvolvimento de sistemas de inteligência artificial avançados, e a verdade é que tal como o ChatGPT, facilmente chegou também ao público em geral, que começa a ter mais sensibilidade e uma maior curiosidade no que respeita aos enormes (e, na maior parte das vezes, inimagináveis) progressos destas novas tecnologias.
Max Tegmark, professor de Física no NSF IA Institute for Artificial Intelligence and Fundamental Interactions (IAIFI) do MIT e Presidente do Future of Life Institute, sublinhou também que o pior cenário assenta na premissa de que os humanos deverão perder gradualmente mais e mais controlo sobre a civilização. Assim, e desta forma "os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes
Para os co-signatários da carta aberta, "os laboratórios de IA e peritos independentes devem utilizar esta pausa para desenvolver e implementar conjuntamente uma série de protocolos de segurança partilhados para a concepção e desenvolvimento avançado de IA que sejam rigorosamente auditados e supervisionados por peritos externos independentes". Estes protocolos devem assegurar que os sistemas que os adoptam são seguros para além de qualquer dúvida razoável, algo já enunciado nos Princípios de IA da OCDE [
A desaceleração de uma nova tecnologia não é uma ideia radical nem propriamente nova. A humanidade já fez isto antes – mesmo com tecnologias economicamente valiosas. Basta pensar na clonagem humana ou na modificação da linha germinal humana. Os investigadores do ADN recombinante por detrás da
Assim, será que esta carta aberta tem força suficiente para que nestes seis meses os laboratórios de investigação e desenvolvimento de IA "parem para pensar" sobre os potenciais efeitos negativos destas poderosas novas tecnologias e se comprometam a seguir o que o Future of Life Institute prega? As dúvidas são muitas e a desconfiança também. Afinal, um número significativo dos signatários que defendem esta pausa são os mesmos que estão a desenvolver os modelos generativos de IA sobre os quais a carta adverte. E existem já vários argumentos que contrariam o apelo desencadeado pela carta do Future of Life Institute.
Leia o artigo completo no Portal VER
Mais lidas