Ramon O’Callaghan
Ramon O’Callaghan 18 de junho de 2019 às 19:15

Gerir os riscos da Inteligência Artificial

O desafio, ao desenvolver agentes Inteligência Artificial, é incutir-lhes a distinção de bem e mal ou, em alternativa, permitir que o agente aprenda através da observação do comportamento humano.

Passaram quase 25 anos entre a apresentação do conceito de Inteligência Artificial (IA) num workshop, em Dartmouth College, em 1956, até que a primeira aplicação comercial desta tecnologia visse a luz do dia. Era um sistema inteligente que permitia configurar ordens para novos sistemas de computador, na Digital Equipment Corporation. Chamava-se XCON e, em 1986, já permitia à empresa poupar 40 milhões de dólares anualmente. Empresas de todo o mundo começaram a desenvolver e aplicar estes "sistemas inteligentes", mas foi apenas na última década, e graças ao desenvolvimento de hardware mais sofisticado, que a IA e o "machine learning" passaram a ser utilizados, de forma extremamente bem-sucedida em várias áreas de diferentes indústrias.

 

A IA aumenta a produtividade ao substituir-se às tarefas realizadas por humanos. De "chatbots" a carros autónomos, a implementação generalizada de aplicações de IA está a transformar os negócios e a sociedade, trazendo benefícios, novos produtos e menos tarefas repetitivas. De acordo com um estudo da Accenture, estima-se que até 2035 a IA permita aumentar os lucros, numa média de 38%, em 16 indústrias diferentes.

 

Mas apesar de todos os seus benefícios, a IA também comporta riscos e implicações a longo prazo. À medida que a tecnologia progride, muitos acreditam que irá, de forma clara e inevitável, substituir a força de trabalho humano e, por esse motivo, criar desemprego e incerteza social.

 

Uma estimativa de um estudo de Oxford amplamente citada afirma que 47% dos atuais empregos estão em risco. No entanto, estudos mais recentes argumentam que o impacto que a IA vai ter sobre o emprego, a curto prazo, não será significativamente maior do que o impacto que a automação trouxe, no passado. O número de empregos criados pela IA vai, muito provavelmente, ultrapassar os números de empregos perdidos. No entanto, e porque os trabalhadores vão ser afetados de forma diferente, os governos vão ter de adotar, proativamente, políticas laborais que permitam uma transição suave.

 

Contudo, para além das muito comentadas repercussões sobre os empregos, a IA acarreta outros riscos. Nos negócios, os potenciais riscos podem facilmente ultrapassar os enormes benefícios. De acordo com o Allianz Risk Barometer 2018, a IA e outras tecnologias já se encontram no top 7 de riscos, ultrapassando os riscos associados a questões políticas ou de alterações climáticas.

 

Acredita-se que a IA irá melhorar as questões de segurança no setor da mobilidade, mas levanta também questões de responsabilidade e ética em caso de acidente. Além disso, a IA pode permitir que veículos autónomos e drones sejam usados como armas. E essas ameaças são frequentemente subvalorizadas.

 

Ao mesmo tempo, a crescente interconectividade traduz-se em maior vulnerabilidade ao erro e a ciber ações mal-intencionadas, com um potencial de rutura em larga escala, sobretudo, se as infraestruturas críticas forem afetadas. A IA pode ajudar a reduzir o ciber risco mas, em simultâneo, pode também aumentá-lo. A Lloyd's estima que um ciber ataque global tem o potencial de desencadear perdas adicionais de 50 mil milhões de dólares, e que uma paragem de apenas meio dia pode significar perdas de 850 milhões de dólares.

 

As seguradoras vão possibilitar a transferência e gestão dos riscos emergentes, mas as coberturas tradicionais terão de ser adaptadas, com a inclusão de rubricas dedicadas aos ciberataque, interrupção de atividade, recolhas de produto e danos de reputação resultantes de incidentes desta natureza. Além disto, novos tipos de seguros de responsabilidade vão ter de surgir, aumentando a pressão nos produtores e fornecedores de software e diminuindo a responsabilidade legal dos consumidores.

 

De forma a gerir os riscos associados com a adoção generalizada da IA na sociedade, todos os motivos de preocupação devem ser abordados. 

 

A segurança é uma das áreas de maior preocupação. Um sistema de lA deve ser testado num ambiente semelhante ao mundo real, antes que possa ser introduzido na sociedade. Caso contrário, pode causar acidentes inesperados quando é introduzido no mundo real.

 

Mas há outros aspetos que devem ser tidos em consideração, nomeadamente a responsabilização. A base da responsabilidade moral para um sistema de IA é a transparência das suas decisões. As regras de defesa do consumidor veem o conceito de transparência como o "direito à explicação". A importância da responsabilização para evitar as consequências não previstas geradas pelas aplicações de IA resulta do facto dos dados carregados para treinar os algoritmos serem, regra geral, produzidos por humanos e ser, eles próprios, resultado de preconceitos e enviesamentos.

 

A responsabilidade legal é também outra preocupação a ser tida em conta. Na generalidade, quem produz é o responsável por qualquer defeito que possa prejudicar o utilizador. Assim, o mesmo deve ser aplicável aos produtores de sistemas de IA. Mas, neste caso, a dificuldade em estabelecer um modelo legal regulamentar à volta da IA reside na difícil identificação dos impactos de tecnologias IA antes dos produtos serem testados no mundo real.

 

Porventura, a maior preocupação está relacionada com a ética. Em algumas situações não há uma visão objetiva para uma solução ideal, porque as decisões ideais são subjetivas e dependem dos princípios éticos assumidos. O desafio, ao desenvolver agentes IA, é incutir-lhes a distinção de bem e mal ou, em alternativa, permitir que o agente aprenda através da observação do comportamento humano. No entanto, o ser humano, como imperfeito que é, tem os seus preconceitos e enviesamentos.

 

Em suma, é necessário desenvolver estratégias de gestão de risco para maximizar os benefícios líquidos de uma total adoção da IA nos negócios e na sociedade. Infelizmente não detemos todas as respostas. Mas ao endereçarmos as áreas de preocupação identificadas, o desenvolvimento e introdução da IA na sociedade serão melhores e mais seguros.

 

Porto Business School

pub

Marketing Automation certified by E-GOI