Bruxelas quer inteligência artificial mais ética e confiável
A 21 de abril, a Comissão Europeia apresentou uma proposta pioneira para legislar sobre a inteligência artificial (IA), que tem de passar pelo Parlamento Europeu. Em 2022 poderá entrar no período de transição, para que em 2024 passe a ser aplicada.
- Partilhar artigo
- ...
Qual a finalidade das regras As regras, que se aplicam tanto ao setor privado como ao público, pretendem garantir que os europeus têm acesso a sistemas de IA confiáveis e desenvolvidos com princípios éticos. Tanto os fornecedores dos sistemas de IA (por exemplo, a empresa que desenvolveu uma ferramenta de análise de curriculum vitae) como os utilizadores (um banco que pretenda utilizar essa solução) deverão respeitar a legislação. Uma abordagem baseada no risco A União Europeia pretende dividir os sistemas de IA em quatro patamares de risco: inaceitável, risco elevado, risco limitado e risco mínimo. Por risco inaceitável entende-se tudo aquilo que possa pôr em risco a segurança dos cidadãos ou os seus direitos fundamentais, como por exemplo sistemas de classificação social ou de monitorização da população. Bruxelas aponta que a grande maioria dos sistemas disponíveis será enquadrada no patamar de risco mínimo. Sanções até 6% do volume de negócios Caso os sistemas de IA cheguem ao mercado sem respeitar as regras, a Comissão propõe multas pesadas. Nos casos mais gravosos de infração, as sanções podem chegar aos 30 milhões de euros ou 6% do volume de negócios anual da companhia, dependendo de qual seja o valor mais alto. Quem apresentar informação “incorreta, incompleta ou que possa induzir em erro entidades nacionais e autoridades competentes” enfrenta uma multa de 10 milhões de euros ou 2% do volume de negócios anual.
Mais lidas