
Esta semana foi lançada a nova versão do GPT-4, o modelo de IA generativo da OpenAI, que é considerado um avanço significativo na conversação com sistemas de inteligência artificial, mas ainda está longe de ser “perfeito”, segundo a própria organização que o desenvolveu. A Microsoft aproveitou a boleia do lançamento do GPT-4 para disponibilizar a versão remodelada do motor de pesquisa Bing, introduzindo a otimização de conversação natural.
Inicialmente os interessados em testar o serviço da Microsoft necessitavam de uma inscrição para entrar numa lista de espera para começar a “falar” como chatbot. Mas agora já é possível utilizar sem espera, bastando para isso ter uma conta válida da Microsoft e autenticar-se no Bing, através do browser Edge. O serviço apenas funciona no browser de internet da Microsoft.
No seu blog, a Microsoft confirmou que o Bing tem como motor o GPT-4, utilizado para personalizar as pesquisas. Nas últimas semanas, apenas alguns utilizadores podiam testar o novo motor de pesquisa, mas agora todos podem juntar-se.
A Microsoft diz que sempre que a OpenAI atualizar o GPT-4, o Bing passa a beneficiar dessas melhorias. E acrescenta que todo o feedback deixado pela comunidade será considerado em futuras atualizações do sistema de inteligência artificial.

Apesar de estar aberto a todos os utilizadores, a Microsoft optou por manter a mensagem de registo para a lista de espera no ecrã lateral, quando se clica no botão Bing, no canto superior direito. Ao clicar, os utilizadores são convidados a autenticarem-se, mas ficam de imediato aptos a utilizar o sistema de pesquisa com suporte do chatbot.
Segundo a OpenAI, o GPT-4 é ainda mais avançado, sendo capaz de “resolver problemas difíceis com uma maior eficácia”, destacando-se pelas suas capacidades criativas e colaborativas. Ao todo, a empresa passou mais de seis meses a alinhar os sistemas do novo modelo e a torná-lo mais seguro.
A nova versão do modelo da IA da OpenAI é multimodal, mas, ao contrário do que foi afirmado anteriormente pela Microsoft, o GPT-4 ainda não é capaz de receber inputs a partir de vídeo, focando-se, para já, em imagens, além de texto. Embora possa receber inputs com imagens, o modelo continua a gerar outputs textuais.
Pergunta do Dia
Em destaque
-
Multimédia
Mistério resolvido: pequenos jatos ajudam a explicar o “famoso” vento solar -
Site do dia
Nokia Design Archive é uma viagem no tempo aos primeiros telemóveis da fabricante finlandesa -
App do dia
Diga adeus ao caos das receitas guardadas no Instagram com a app Recipe Reel -
How to TEK
A Google enviou um alerta de falta de espaço? Apague primeiro o “lixo” antes de pensar num upgrade
Comentários