
Considerando que as maiores vulnerabilidades no software e plataformas não são descobertas pelas empresas ou estúdios que os desenvolvem, mas sim por investigadores de segurança independentes, a Google lançou um novo programa de caça ao bug direcionado ao campo da inteligência artificial. O programa de recompensas por vulnerabilidade foi agora ampliado para premir investigadores que descubram falhas e cenários de ataques específicos de IA generativa.
“Acreditamos que este programa vai incentivar a investigação em torno da segurança de IA, e revelar potenciais problemas que no final vai tornar a inteligência artificial mais segura para todos”, disse a Google em comunicado. A empresa pretende expandir o seu trabalho de segurança open source para facilitar a disponibilidade da informação sobre IA para ser universalmente descoberta e verificável.
Não se tratando apenas na procura por vulnerabilidades passíveis a ciberataques, como são por norma os programas de pesquisa de bugs, a nova iniciativa quer encontrar problemas que digam respeito a tendências injustas da IA, eventuais manipulações dos modelos ou interpretações inapropriadas dos dados. A Google quer que os seus novos sistemas que vão ser lançados sejam testados para serem mais seguros, antecipando potenciais riscos.
Para os investigadores interessados em participar no programa, a Google partilhou a lista de critérios e o guia de orientação, disponível a todos. E espera que os investigadores de segurança possam submeter mais bugs e acelerar o objetivo de tornar a IA mais segura.
Pergunta do Dia
Em destaque
-
Multimédia
Google Maps faz 20 anos a guiar-nos por todo o lado. Estes são os locais favoritos em Portugal -
App do dia
Levante o volume do smartphone e deixe os monstros cantar -
Site do dia
Nova ferramenta online recorre à inteligência artificial para ajudar a cumprir metas -
How to TEK
O som das notificações de mensagens no smartphone é um incómodo? Saiba como desligar no iPhone
Comentários