
Considerando que as maiores vulnerabilidades no software e plataformas não são descobertas pelas empresas ou estúdios que os desenvolvem, mas sim por investigadores de segurança independentes, a Google lançou um novo programa de caça ao bug direcionado ao campo da inteligência artificial. O programa de recompensas por vulnerabilidade foi agora ampliado para premir investigadores que descubram falhas e cenários de ataques específicos de IA generativa.
“Acreditamos que este programa vai incentivar a investigação em torno da segurança de IA, e revelar potenciais problemas que no final vai tornar a inteligência artificial mais segura para todos”, disse a Google em comunicado. A empresa pretende expandir o seu trabalho de segurança open source para facilitar a disponibilidade da informação sobre IA para ser universalmente descoberta e verificável.
Não se tratando apenas na procura por vulnerabilidades passíveis a ciberataques, como são por norma os programas de pesquisa de bugs, a nova iniciativa quer encontrar problemas que digam respeito a tendências injustas da IA, eventuais manipulações dos modelos ou interpretações inapropriadas dos dados. A Google quer que os seus novos sistemas que vão ser lançados sejam testados para serem mais seguros, antecipando potenciais riscos.
Para os investigadores interessados em participar no programa, a Google partilhou a lista de critérios e o guia de orientação, disponível a todos. E espera que os investigadores de segurança possam submeter mais bugs e acelerar o objetivo de tornar a IA mais segura.
Pergunta do Dia
Em destaque
-
Multimédia
Julien Roux desafia a gravidade a 4.823 metros de altitude numa linha suspensa entre dois balões -
App do dia
Faça guias personalizados para ouvir enquanto explora novos destinos com a Mapondo -
Site do dia
Quer ajudar a descobrir os segredos do Universo? Galaxy Zoo tem novas imagens do James Webb -
How to TEK
Está na altura de comprar um novo portátil? 5 sinais de alerta que não deve ignorar
Comentários