Considerando que as maiores vulnerabilidades no software e plataformas não são descobertas pelas empresas ou estúdios que os desenvolvem, mas sim por investigadores de segurança independentes, a Google lançou um novo programa de caça ao bug direcionado ao campo da inteligência artificial. O programa de recompensas por vulnerabilidade foi agora ampliado para premir investigadores que descubram falhas e cenários de ataques específicos de IA generativa.
“Acreditamos que este programa vai incentivar a investigação em torno da segurança de IA, e revelar potenciais problemas que no final vai tornar a inteligência artificial mais segura para todos”, disse a Google em comunicado. A empresa pretende expandir o seu trabalho de segurança open source para facilitar a disponibilidade da informação sobre IA para ser universalmente descoberta e verificável.
Não se tratando apenas na procura por vulnerabilidades passíveis a ciberataques, como são por norma os programas de pesquisa de bugs, a nova iniciativa quer encontrar problemas que digam respeito a tendências injustas da IA, eventuais manipulações dos modelos ou interpretações inapropriadas dos dados. A Google quer que os seus novos sistemas que vão ser lançados sejam testados para serem mais seguros, antecipando potenciais riscos.
Para os investigadores interessados em participar no programa, a Google partilhou a lista de critérios e o guia de orientação, disponível a todos. E espera que os investigadores de segurança possam submeter mais bugs e acelerar o objetivo de tornar a IA mais segura.
Pergunta do Dia
Em destaque
-
Multimédia
Dezenas de jogos anunciados nos The Game Awards: Produtora de The Last of Us tem novo título e há mais Elden Ring -
Site do dia
Daily Tally quer ajudá-lo a ouvir o inconsciente e a controlar o seu destino -
App do dia
Eggy Party é um battle royale bem-disposto e colorido -
How to TEK
Acelere a experiência de navegação no Chrome com as novas ferramentas disponíveis
Comentários