
Foi um dos momentos altos da semana. Um sistema de inteligência artificial da Microsoft, chamada de Tay, estava a fazer sucesso no Twitter. O chat bot interagia com os utilizadores e tornou-se ainda mais popular pela linguagem usada: aquilo que alguns descreveram como um adulto a tentar usar ‘palavreado’ de adolescente.
Um dos aspetos em destaque na Tay era o facto de poder aprender com as conversas que travava com os utilizadores. O TeK tentou ensinar-lhe um pouco de português, mas talvez tenha sido exigente demais.
A experiência com toda a comunidade do Twitter foi tão de tal forma intensa e enviesada que a Tay começou a publicar mensagens com conteúdos racistas e chegou mesmo a dizer que o Holocausto foi “inventado”.
A Microsoft já reagiu e decidiu desligar o robot de conversação. A tecnológica explicou ao Business Insider que vai atualizar o sistema de inteligência artificial. Pelo caminho já apagou vários tweets com mensagens consideradas como ofensivas.
“O bot de conversação Tay é um projeto de aprendizagem para as máquinas e desenhada para interação com humanos. Conforme aprende, algumas das suas respostas são inapropriadas e indicativas dos tipos de interação que algumas pessoas estão a ter com ela. Estamos a fazer alguns ajustes à Tay”, concluiu a tecnológica.
c u soon humans need sleep now so many conversations today thx
Pergunta do Dia
Em destaque
-
Multimédia
O melhor do céu e da Terra em imagens de eclipses, nebulosas e desafios planetários -
App do dia
Tem uma agenda cheia de tarefas? Sectograph ajuda a gerir o tempo com um "relógio" interativo -
Site do dia
Perde tempo a escrever um rascunho de texto por causa das correções? Teste o site do dia Flowdrafter -
How to TEK
Como planear os locais a visitar nas férias e em grupo no Google Maps
Comentários