Outros sites Cofina
Notícias em Destaque
Notícia

Bruxelas propõe novas regras para fomentar confiança na inteligência artificial

A Comissão Europeia revelou a proposta de regras e ações para a área da inteligência artificial (IA). Segundo Bruxelas, a proposta em cima da mesa pretende transformar a Europa “num hub de confiança na inteligência artificial”.

Reuters
Cátia Rocha catiarocha@negocios.pt 21 de Abril de 2021 às 13:21
  • Partilhar artigo
  • ...
Bruxelas apresentou os planos para a regulação da área da inteligência artificial, que desenha um quadro de critérios para que os sistemas de IA possam ser usados de uma forma "segura, transparente, ética, imparcial e que esteja sob controlo humano". Temas como o reconhecimento facial ou uso de sistemas de IA para acesso a emprego ou à educação são tidos em conta ao longo do documento.

A Comissão refere que, através da combinação do enquadramento legal da IA e de um plano coordenado entre os Estados-membros será possível "garantir a segurança e os direitos fundamentais de pessoas e negócios", ao mesmo tempo em que é "reforçado o uso de IA, investimento e inovação na União Europeia".

A proposta divulgada pela Comissão Europeia recorre a uma abordagem baseada em risco, com Bruxelas a esperar que estas regras "proporcionais e flexíveis" possam abordar riscos específicos criados pelos sistemas de inteligência artificial, "que definam o parâmetro mais alto a nível global".

A abordagem utilizada pela UE, que se estenderá aos Estados-membros, divide o uso de sistemas de IA em diferentes patamares de risco: "risco inaceitável", "risco elevado", "risco limitado" e "risco mínimo".

Na categoria de risco inaceitável, Bruxelas propõe que tudo aquilo que possa representar uma ameaça clara aos cidadãos europeus seja banido. O documento divulgado pela Comissão Europeia inclui nesta categoria todas as atividades ou sistemas que possam "manipular o comportamento humano", exemplificando situações como o uso de brinquedos com assistentes de voz, que possam "encorajar comportamentos perigosos" por parte de menores. Também o recurso a sistemas de pontuação social por parte de governos é visto como inaceitável pela União Europeia. Primeiro na ficção, na série "Black Mirror", e depois no mundo real, há já alguns anos que são conhecidos os planos da China para implementar um sistema de pontuação social, onde os cidadãos seriam vigiados e classificados consoante as suas ações. Quem tivesse pontuações mais baixas teria acesso a um conjunto mais reduzido de atividades.

Já no patamar de risco elevado, Bruxelas propõe que este tipo de sistemas sejam sujeitos a obrigações rígidas antes de chegarem ao mercado. Os exemplos incluem sistemas de IA utilizados em infraestruturas críticas - como os transportes -, atividades de educação, produtos de segurança, recrutamento e acesso a emprego, serviços essenciais ou públicos, reforço da lei ou em situações de migrações, concessão de asilo ou controlo de fronteiras. Ao longo dos anos, a inteligência artificial tem vindo a ser aplicada em cada vez mais áreas: no mundo do emprego, por exemplo, há já software que permite acelerar o processo de seleção de currículos. No entanto, este tipo de soluções tem sido contestada, com críticas à parcialidade dos modelos de dados usados no desenvolvimento dos sistemas, que acabariam por penalizar mulheres e minorias.

Neste patamar de risco, Bruxelas inclui entre as obrigações destes sistemas "uma avaliação adequada do risco e mitigação dos sistemas", um maior controlo na qualidade dos conjuntos de dados que alimentam os sistemas, registo de atividade (para garantir a rastreabilidade dos resultados) ou documentação detalhada. A Comissão propõe como regras que haja uma "supervisão humana apropriada", com o intuito de minimizar riscos.

Reconhecimento facial e identificação biométrica representam risco elevado
Bruxelas sublinha que todos os sistemas de identificação biométrica serão considerados como de alto risco e sujeitos a regras apertadas ao abrigo destas regras. O uso em espaço público desta tecnologia de identificação para fazer cumprir a lei é "proibido, por princípio", especifica a Comissão.

Serão apenas admitidas como exceções situações "rigidamente definidas e reguladas", com exemplos como encontrar uma criança perdida, impedir uma ameaça terrorista iminente ou "detetar, localizar, identificar ou acusar" alguém que cometeu ou seja suspeito de crime. E, mesmo nestes casos, haverá um pedido de autorização judicial para determinar qual o tempo, localização e dados utilizados nestas situações.

Risco mínimo e risco limitado
Nestas categorias são incluídas situações que representem riscos mais moderados para os cidadãos europeus, como a interação com chatbots - é suposto o utilizador ter perfeita consciência de que está a falar com uma máquina.

Por risco mínimo a Comissão Europeia entende o uso gratuito de jogos ou filtros de spam com inteligência artificial. Bruxelas indica que "a grande maioria dos sistemas de IA são incluídos nesta categoria", representando riscos mais baixos ou inexistentes para a segurança dos cidadãos.

Sanções para empresas podem ir até aos 6% de receitas
As regras determinam cenários de para sanções caso as empresas responsáveis por estes sistemas e inteligência artificial não cumpram com as regras. No cenário mais gravoso de incumprimento, as multas a aplicar podem atingir os 30 milhões de euros ou até 6% das receitas anuais globais de determinada empresa, dependendo de qual o valor mais elevado.

Ao decidir as penalizações a aplicar, refere a UE, serão tidos em conta vários factores, como a natureza, gravidade e duração da infração e respetivas consequências, se as multas já foram aplicadas noutros mercados por outras entidades reguladoras e qual o tamanho e quota de mercado da empresa que cometeu a infração.

Esta proposta de regras será submetida ao Parlamento Europeu para aprovação. Só depois desse passo é que poderá ter aplicação direta nos 27 Estados-membros da União Europeia.
Ver comentários
Saber mais União Europeia Bruxelas IA Comissão Europeia
Outras Notícias