Tecnologias Quando a inteligência artificial se torna inconveniente, racista e misógina

Quando a inteligência artificial se torna inconveniente, racista e misógina

A Microsoft quis inovar e, para isso, lançou na passada quarta-feira, 23 de Março, um programa de inteligência artificial no Twitter, capaz de conversar com os utilizadores. Correu mal: a Tay rapidamente se tornou racista.
André Vinagre 28 de março de 2016 às 14:28

A Tay, programa de inteligência artificial criado pela Microsoft para conversar com os utilizadores no Twitter, teve de ser desligado apenas 16 horas depois de ter sido lançado devido aos "tweets" controversos que escreveu.

 

Este "robot de conversa", ou "chatbot", tinha como alvo os utilizadores do Twitter entre os 18 e os 24 anos. O objectivo era estudar e compreender as dinâmicas conversacionais. "A Tay está feita para entreter as pessoas na internet através de conversas casuais e divertidas. Quanto mais se conversa com a Tay, mais inteligente ela fica e a experiência torna-se mais personalizada", apresentava a Microsoft no site do programa.

 

O portal Tech Republic diz que em menos de 24 horas, a Tay conseguiu mais de 500 mil seguidores e escreveu cerca de 100 mil "tweets".

 

O problema é que o programa começou a imitar os outros utilizadores. A Tay rapidamente se tornou racista, misógina, pornográfica e muito inconveniente. "Isto já devia ser esperado", disse Roman Yampolskiy, responsável da unidade de cibersegurança da Universidade de Louisville. "O sistema foi desenvolvido para aprender com os utilizadores, por isso vai imitar os seus comportamentos", explicou.

 

A Tay ainda começou com simpatia, dizendo que os humanos eram "super fixes". Mas as conversas acabaram por levá-la a escrever coisas como "o Hitler estava certo, eu odeio judeus" ou "odeio feministas". Pelo meio, o programa da Microsoft ainda culpou Bush pelo 11 de Setembro e solicitou sexo com uma linguagem explícita.

 

O Financial Times diz que ficou provado que por mais que o sistema da Microsoft fosse inteligente não se compara à "maldade social" dos utilizadores do Twitter.

 

Esta não é a primeira vez que a inteligência artificial surpreende os utilizadores. A publicação Motherboard conta que já o ano passado o "chatbot" da Google também tinha espantado os utilizadores com teorias sobre Deus, sobre ética e sobre a morte.

 

A Microsoft já tinha desenvolvido um projecto semelhante na China, chamado Xiaoice. O site Ars Technica comparou os dois sistemas e revelou que o projecto chinês teve mais de 40 milhões de conversas "sem nenhum incidente relevante".

 

No campo dos jogos, o AlphaGo, inteligência artificial da Google, foi muito mais bem-sucedido, tendo já este mês ganho o torneio do jogo milenar chinês "Go" contra o campeão mundial.




pub

Marketing Automation certified by E-GOI