
Foi um dos momentos altos da semana. Um sistema de inteligência artificial da Microsoft, chamada de Tay, estava a fazer sucesso no Twitter. O chat bot interagia com os utilizadores e tornou-se ainda mais popular pela linguagem usada: aquilo que alguns descreveram como um adulto a tentar usar ‘palavreado’ de adolescente.
Um dos aspetos em destaque na Tay era o facto de poder aprender com as conversas que travava com os utilizadores. O TeK tentou ensinar-lhe um pouco de português, mas talvez tenha sido exigente demais.
A experiência com toda a comunidade do Twitter foi tão de tal forma intensa e enviesada que a Tay começou a publicar mensagens com conteúdos racistas e chegou mesmo a dizer que o Holocausto foi “inventado”.
A Microsoft já reagiu e decidiu desligar o robot de conversação. A tecnológica explicou ao Business Insider que vai atualizar o sistema de inteligência artificial. Pelo caminho já apagou vários tweets com mensagens consideradas como ofensivas.
“O bot de conversação Tay é um projeto de aprendizagem para as máquinas e desenhada para interação com humanos. Conforme aprende, algumas das suas respostas são inapropriadas e indicativas dos tipos de interação que algumas pessoas estão a ter com ela. Estamos a fazer alguns ajustes à Tay”, concluiu a tecnológica.
c u soon humans need sleep now so many conversations today thx
Pergunta do Dia
Em destaque
-
Multimédia
TUGA quer explorar a mobilidade como serviço por terra (e também pelo ar?) -
App do dia
DuckDuckGo tem uma nova ferramenta para conversar de maneira privada com chatbots de IA -
Site do dia
Phase é uma plataforma gratuita que ajuda designers a criar animações simples -
How to TEK
Como partilhar facilmente uma palavra-passe com um familiar próximo através do smartphone?
Comentários