Helena Sousa, presidente da Entidade Reguladora para a Comunicação Social (ERC), explicou, na conferência da Anacom dedicada à inteligência artificial, que “esta tecnologia tem um impacto nos meios de comunicação social transversalmente, tanto no jornalismo como na área da produção audiovisual e na publicidade”. Referiu que se trata de “uma tecnologia, um conjunto de ferramentas que, neste momento, será utilizada por cerca de 20% dos meios de comunicação social no contexto europeu”.
“A ERC tem uma equipa transdisciplinar, uma equipa constituída por elementos de vários departamentos e unidades, que se dedica ao estudo da inteligência artificial”, referiu Helena Sousa. Anunciou uma “consulta pública, dirigida aos operadores, dirigida às agências de comunicação social, também dirigida a outras entidades que se queiram pronunciar sobre o impacto da inteligência artificial”.
António Pimenta Marinho, presidente da Entidade Reguladora da Saúde (ERS), afirmou que “a IA está cada vez mais presente nos prestadores de cuidados, nos estabelecimentos dos prestadores de cuidados, na simplificação dos procedimentos administrativos que as empresas usam”. Apresentou dados de um estudo que revela que 40% das unidades de saúde utilizavam sistemas de inteligência artificial, sendo que no sector privado eram 57,1%.
Saúde e proteção de dados
Mas 74,3% das unidades não tinham procedimentos implementados ao nível do planeamento e formação das equipas. E 66,2% dos estabelecimentos não tinham procedimentos de mitigação de riscos. E 59% não informavam os utilizadores do uso de ferramentas de inteligência artificial. António Pimenta Marinho disse, citando um especialista, que “o símbolo do médico, o estetoscópio, deveria passar do médico para o paciente e o papel do médico seria transformar-se muito mais no educador do que no curador”.
João Osório, consultor da Comissão Nacional de Proteção de Dados (CNPD), explicou que “estes sistemas são frequentemente opacos e, quando há esta opacidade, seja na adoção ou no uso, também por vezes dificulta a monitorização eficaz”. Apresentou um exemplo prático de riscos: “uma conhecida equipa de futebol nacional fez, porque queriam instalar um sistema de videovigilância com análise, reconhecimento facial, e depois ter um algoritmo inteligente que detectasse indivíduos que estavam proibidos de locais desportivos”. Este tipo de sistemas pode levar a distorções de reconhecimento. Defendeu que “temos a IA presente, mas a supervisão humana, ou seja, não ter decisões automáticas, será quase sempre, em caso de alto risco médio, uma necessidade.”