Foi um dos momentos altos da semana. Um sistema de inteligência artificial da Microsoft, chamada de Tay, estava a fazer sucesso no Twitter. O chat bot interagia com os utilizadores e tornou-se ainda mais popular pela linguagem usada: aquilo que alguns descreveram como um adulto a tentar usar ‘palavreado’ de adolescente.
Um dos aspetos em destaque na Tay era o facto de poder aprender com as conversas que travava com os utilizadores. O TeK tentou ensinar-lhe um pouco de português, mas talvez tenha sido exigente demais.
A experiência com toda a comunidade do Twitter foi tão de tal forma intensa e enviesada que a Tay começou a publicar mensagens com conteúdos racistas e chegou mesmo a dizer que o Holocausto foi “inventado”.
A Microsoft já reagiu e decidiu desligar o robot de conversação. A tecnológica explicou ao Business Insider que vai atualizar o sistema de inteligência artificial. Pelo caminho já apagou vários tweets com mensagens consideradas como ofensivas.
“O bot de conversação Tay é um projeto de aprendizagem para as máquinas e desenhada para interação com humanos. Conforme aprende, algumas das suas respostas são inapropriadas e indicativas dos tipos de interação que algumas pessoas estão a ter com ela. Estamos a fazer alguns ajustes à Tay”, concluiu a tecnológica.
c u soon humans need sleep now so many conversations today thx
Pergunta do Dia
Em destaque
-
Multimédia
20 anos de Halo 2 trazem mapas clássicos e a mítica Demo E3 de volta -
App do dia
Proteja a galáxia dos invasores com o Space shooter: Galaxy attack -
Site do dia
Google Earth reforça ferramenta Timelapse com imagens que remontam à Segunda Guerra Mundial -
How to TEK
Pesquisa no Google Fotos vai ficar mais fácil. É só usar linguagem “normal”
Comentários