preocupações sérias entre engenheiros de software e investigadores académicos sobre a precisão das transcrições feitas pelo Whisper, sistema de transcrição de voz desenvolvido pela OpenAI. Segundo um estudo, o Whisper apresenta um elevado número de "alucinações" - termo usados para descrever adições ou interpretações incorretas feitas pela inteligência artificial (IA).

Entre as alucinações apontadas no estudo, divulgado pela Associated Press, estão desde comentários racistas não existentes até tratamentos médicos inventados. A situação torna especialmente preocupante o uso desta tecnologia em ambientes de alto risco, como hospitais, apontam os especialistas.

Sam Altman e designer do iPhone estão a trabalhar em equipamentos de IA. E não são smartphones
Sam Altman e designer do iPhone estão a trabalhar em equipamentos de IA. E não são smartphones
Ver artigo

Um investigador da Universidade de Michigan reportou que em cerca de 80% das transcrições de reuniões estudadas havia alucinações, enquanto um engenheiro de machine learning encontrou erros em mais de metade de 100 horas de transcrições com o Whisper. Na realidade, há indicações do mesmo tipo de problemas em quase todas as 26.000 transcrições feitas com o modelo de IA.

A OpenAI já respondeu aos investigadores, afirmando que está a trabalhar para melhorar a precisão do Whisper e frisou que proíbe o uso do sistema em “contextos de alta responsabilidade”.

Enquanto isso, surgem rumores de que a criadora do ChatGPT pretende lançar o seu próximo modelo de IA, conhecido como Orion, ainda em 2024. Segundo o The Verge, o Orion poderá estar disponível primeiro para parceiros selecionados, como a Microsoft.

A OpenAI negou, entretanto, ao TechCrunch quaisquer planos para lançar “um modelo com o nome de código Orion este ano”, mas acrescentou ter “planos para lançar muitas outras grandes tecnologias”, aumentando o mistério em redor de desenvolvimentos futuros.