
De acordo com agência Europa Press, a empresa alertou para o facto de uma "pequena minoria" de programadores utilizar intencionalmente as aplicações API da OpenAI nas suas atividades, violando as políticas de utilização da tecnologia.
Com o objetivo de garantir que a IA seja amplamente acessível, mas usada com segurança, a OpenAI começou a implementar um processo de verificação para organizações, de forma a mitigar o uso inseguro da IA.
Neste sentido, a empresa lançou o estatuto de Organização Verificada, com base num requisito de verificação de identidade que será necessário para que os programadores desbloqueiem o acesso aos modelos e capacidades de IA mais avançados ao utilizarem as aplicações de programação.
Segundo a informação disponibilizada pela empresa, este processo de verificação para além de reduzir o uso indevido das suas ferramentas de IA, permite, ao mesmo tempo, continuar a disponibilizar os seus modelos mais avançados à comunidade de programadores.
A OpenAI afirmou que as organizações podem verificar a sua identidade através de uma configuração na plataforma e depois estarão prontas para aceder as funcionalidades da OpenAI em matéria de IA.
Pergunta do Dia
Em destaque
-
Multimédia
Gemini vai dar “vida” ao robot de companhia Ballie da Samsung. Chega às lojas durante o verão -
Site do dia
Deepfake ou imagem real? Neste site pode pôr as suas capacidades de observação à prova -
App do dia
Explore masmorras e descubra tesouros no mundo de fantasia de Crimson Angel -
How to TEK
Já pode utilizar o Google Lens enquanto navega na internet em iOS. Saiba como ativar
Comentários