Lançado recentemente pela Meta, o modelo de inteligência artificial Galactica tinha como missão ajudar cientistas e estudantes. No entanto, nem uma semana após o lançamento, a empresa liderada por Mark Zuckerberg acabou por fechar temporariamente o acesso do modelo ao público depois de cientistas demonstrarem que o modelo estava a gerar informação falsa ou enganadora.

De acordo com a casa-mãe do Facebook, o Galactica foi treinado com recurso a 48 milhões de exemplos vindos de artigos científicos, manuais, enciclopédias e websites, prometendo ser capaz de realizar uma variedade de tarefas: de resumir trabalhos académicos a resolver equações matemáticas e gerar artigos para a Wikipédia.

Porém, como reporta a imprensa internacional, vários cientistas que experimentaram o Galactica notaram que, uma vez que o modelo de IA não era capaz de distinguir entre informação verdadeira e falsa, os resultados eram preocupantes.

Por exemplo, Michael Black, diretor do Instituto Max Planck de Sistemas Inteligentes, na Alemanha, detalha através do Twitter que, durante as suas experiências com o modelo, a informação gerada em todos os casos estava errada ou era “enviesada”, mas soava fidedigna.

O responsável aponta ainda casos de artigos gerados pelo modelo da Meta que citavam nomes de cientistas reais, mas que faziam referência a artigos científicos, ou até repositórios no GitHub, que não existiam.

Willie Agnew, investigador da área de ciências da computação da Universidade de Washington, realça que o modelo não era capaz de apresentar resultados de pesquisa relativos a uma variedade de temáticas, incluindo racismo, SIDA, ou teoria queer.

Gary Marcus, cientista da área de Inteligência Artificial (IA) na Universidade de Nova Iorque (NYU) que, durante a edição deste ano do Web Summit, já tinha alertado para a necessidade de olhar para a questão da produção de conhecimento por sistemas de IA num panorama mais abrangente, partilha também a sua opinião sobre o Galactica, incluindo alguns exemplos da informação falsa ou enganadora gerada através do modelo.

“Estamos a seguir o caminho errado para a IA”. Faz sentido confiar nesta tecnologia para salvar o mundo?
“Estamos a seguir o caminho errado para a IA”. Faz sentido confiar nesta tecnologia para salvar o mundo?
Ver artigo

Recorde-se que, para o cientista, que partilhou o palco do Web Summit com o conhecido linguista Noam Chomsky,   Gary Marcus, os sistemas de IA atuais estão a perpetuar dados e “biases” antigos, acabando por produzir desinformação, numa situação que pode ter "consequências devastadoras" para a democracia.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.