De acordo com agência Europa Press, a empresa alertou para o facto de uma "pequena minoria" de programadores utilizar intencionalmente as aplicações API da OpenAI nas suas atividades, violando as políticas de utilização da tecnologia.
Com o objetivo de garantir que a IA seja amplamente acessível, mas usada com segurança, a OpenAI começou a implementar um processo de verificação para organizações, de forma a mitigar o uso inseguro da IA.
Neste sentido, a empresa lançou o estatuto de Organização Verificada, com base num requisito de verificação de identidade que será necessário para que os programadores desbloqueiem o acesso aos modelos e capacidades de IA mais avançados ao utilizarem as aplicações de programação.
Segundo a informação disponibilizada pela empresa, este processo de verificação para além de reduzir o uso indevido das suas ferramentas de IA, permite, ao mesmo tempo, continuar a disponibilizar os seus modelos mais avançados à comunidade de programadores.
A OpenAI afirmou que as organizações podem verificar a sua identidade através de uma configuração na plataforma e depois estarão prontas para aceder as funcionalidades da OpenAI em matéria de IA.
Em destaque
-
Multimédia
Frigoríficos com anúncios, chupa-chupas eletrónicos e campainhas invasivas nos piores gadgets da CES 2026 -
App do dia
Superfluent ajuda quem já domina o "bê-a-bá" a falar uma nova língua com mais confiança -
Site do dia
Airloom: Acompanhe voos em tempo real numa experiência 3D imersiva -
How to TEK
Quais são as novidades do Google Maps para ajudar a chegar ao seu destino? Veja estas dicas de personalização
Comentários