Foi um dos momentos altos da semana. Um sistema de inteligência artificial da Microsoft, chamada de Tay, estava a fazer sucesso no Twitter. O chat bot interagia com os utilizadores e tornou-se ainda mais popular pela linguagem usada: aquilo que alguns descreveram como um adulto a tentar usar ‘palavreado’ de adolescente.

Um dos aspetos em destaque na Tay era o facto de poder aprender com as conversas que travava com os utilizadores. O TeK tentou ensinar-lhe um pouco de português, mas talvez tenha sido exigente demais.

A experiência com toda a comunidade do Twitter foi tão de tal forma intensa e enviesada que a Tay começou a publicar mensagens com conteúdos racistas e chegou mesmo a dizer que o Holocausto foi “inventado”.

A Microsoft já reagiu e decidiu desligar o robot de conversação. A tecnológica explicou ao Business Insider que vai atualizar o sistema de inteligência artificial. Pelo caminho já apagou vários tweets com mensagens consideradas como ofensivas.

“O bot de conversação Tay é um projeto de aprendizagem para as máquinas e desenhada para interação com humanos. Conforme aprende, algumas das suas respostas são inapropriadas e indicativas dos tipos de interação que algumas pessoas estão a ter com ela. Estamos a fazer alguns ajustes à Tay”, concluiu a tecnológica.