Foi um dos momentos altos da semana. Um sistema de inteligência artificial da Microsoft, chamada de Tay, estava a fazer sucesso no Twitter. O chat bot interagia com os utilizadores e tornou-se ainda mais popular pela linguagem usada: aquilo que alguns descreveram como um adulto a tentar usar ‘palavreado’ de adolescente.
Um dos aspetos em destaque na Tay era o facto de poder aprender com as conversas que travava com os utilizadores. O TeK tentou ensinar-lhe um pouco de português, mas talvez tenha sido exigente demais.
A experiência com toda a comunidade do Twitter foi tão de tal forma intensa e enviesada que a Tay começou a publicar mensagens com conteúdos racistas e chegou mesmo a dizer que o Holocausto foi “inventado”.
A Microsoft já reagiu e decidiu desligar o robot de conversação. A tecnológica explicou ao Business Insider que vai atualizar o sistema de inteligência artificial. Pelo caminho já apagou vários tweets com mensagens consideradas como ofensivas.
“O bot de conversação Tay é um projeto de aprendizagem para as máquinas e desenhada para interação com humanos. Conforme aprende, algumas das suas respostas são inapropriadas e indicativas dos tipos de interação que algumas pessoas estão a ter com ela. Estamos a fazer alguns ajustes à Tay”, concluiu a tecnológica.
c u soon humans need sleep now so many conversations today thx
Em destaque
-
Multimédia
Frigoríficos com anúncios, chupa-chupas eletrónicos e campainhas invasivas nos piores gadgets da CES 2026 -
App do dia
Superfluent ajuda quem já domina o "bê-a-bá" a falar uma nova língua com mais confiança -
Site do dia
Airloom: Acompanhe voos em tempo real numa experiência 3D imersiva -
How to TEK
Quais são as novidades do Google Maps para ajudar a chegar ao seu destino? Veja estas dicas de personalização
Comentários