“O problema com a IA é que se aplica a todos os sectores e os requisitos e as especificações dos variados sectores são diferentes. Se estiver a verificar um sistema de IA aplicado, por exemplo, a automóveis conectados, é totalmente diferente de um sistema utilizado no setor da saúde ou em máquinas industriais”, referiu Andrea Sanders-Winter, responsável pelo Departamento Digital da BNetzA, na conferência da Anacom dedicada à Inteligência Artificial.
O que tem efeitos na regulação da IA, que é mais desafiante do que a regulação das telecomunicações, porque se aplica transversalmente a todos os sectores, cada um com especificidades próprias. Por outro lado, na Alemanha, “estamos organizados para que muitas autoridades de supervisão do mercado se ocupem da regulamentação da IA”. Na sua opinião, a velocidade de evolução da IA exige estruturas regulatórias flexíveis que se adaptem às mudanças tecnológicas, o que pede “uma governação adaptativa”.
Apenas 30 nações têm supercomputadores, deixando 85% dos países sem infraestrutura básica de IA, afirmou Ahmed ElRaghy, chefe da Divisão de Regulação e Ambiente de Mercado do Gabinete de Desenvolvimento da UIT (União Internacional de Telecomunicações), o que acentua o fosso digital e da própria IA.
Alertou ainda para novas formas de desigualdade, como as desigualdades de dados, algorítmica e computacional. “À medida que avançamos para a era da inteligência artificial, surge agora um novo tipo de divisão. Além da desigualdade digital que já temos, enfrentamos o que podemos chamar de desigualdade da IA”.
Por sua vez, Mário Hernández Ramos, professor de Direito Constitucional da Universidade Complutense de Madrid e presidente da Comissão de Inteligência Artificial do Conselho da Europa, centrou a sua intervenção em questões mais ligadas aos direitos. Chamou a atenção para o facto de a IA “conseguir decidir de forma autónoma” e poder criar decisões “sem considerar este ponto de vista individual”, o que pode ser problemático tanto do ponto de vista individual como democrático. Concluiu que “deve-se saber o que é IA, e não apenas o ChatGPT, os benefícios e os riscos. Só assim se pode regular melhor, porque a regulação não é um instrumento mágico que permita conhecer tudo em profundidade”.
Harmonização da OCDE

Audrey Plonk, vice-diretora de Ciência, Tecnologia e Inovação (CTI) da OCDE, “o debate em torno da governação da IA em particular intensifica-se. E embora haja um acordo geral sobre a necessidade de promover a inovação e mitigar riscos, temos visões divergentes em todo o mundo sobre como fazê-lo”. Mas revelou que os princípios de IA da OCDE, definidos em 2019, foram adotados por 49 países, fornecendo uma base para alinhamento global sem harmonização rígida, o que pode ajudar a facilitar o crescimento empresarial e o bem-estar económico. Estes princípios valorizam a transparência, a segurança, a responsabilidade e o respeito pelos direitos humanos. A responsável deixou ainda recomendações concretas: investir em I&D, preparar pessoas e mercados de trabalho, construir ecossistemas inclusivos e assegurar uma governação interoperável.
Sobre a fragmentação regulatória, Audrey Plonk salientou que “o desenvolvimento irregular da governação da IA aumentará provavelmente os custos de conformidade para as empresas” e defendeu o alinhamento em vez da harmonização. “Não é copiar e colar, mas alinhamento, porque nem todos vão fazer tudo da mesma maneira sempre. Somos países soberanos com interesses nacionais”.