
A empresa tecnológica disse, num comunicado divulgado hoje, que "nos últimos três meses, o seu trabalho contra atores enganosos e abusivos permitiu interromper operações de influência secreta que procuravam usar modelos de IA em apoio à sua atividade através da Internet".
Estas operações incluíam campanhas ligadas a operadores na Rússia (duas redes), China, Irão e uma empresa comercial em Israel na "tentativa de manipular a opinião pública ou influenciar os resultados políticos", referiu a OpenAI.
Essas campanhas, detalhou, visavam questões como a invasão da Ucrânia pela Rússia, a intervenção militar israelita na Faixa de Gaza, as eleições na Índia, a política na Europa e nos Estados Unidos, entre outras.
As campanhas enganosas, afirma a empresa no comunicado, não conseguiram uma maior projeção ou alcance do público devido aos seus serviços.
O relatório da empresa de pesquisa e implantação de IA sediada em São Francisco mostra as preocupações de segurança sobre o uso indevido desta tecnologia, que pode produzir texto, imagens e áudio de forma rápida e fácil.
"Detetar e interromper abusos multiplataforma, como operações secretas de influência, pode ser um desafio, porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído", admite a OpenAI, garantindo estar "dedicada a encontrar e mitigar esse abuso".
Pergunta do Dia
Em destaque
-
Multimédia
Xiaomi "ataca" Porsche e automóveis de alta cilindrada com o elétrico SU7 Ultra abaixo dos 70 mil euros -
App do dia
Mister Antonio: Salte entre planetas e resolva desafios para agradar a um gato muito exigente -
Site do dia
Tem uma montanha de tarefas pela frente? Esta extensão ajuda a manter tudo organizado a partir do browser -
How to TEK
Aumente a privacidade e “tape os ouvidos” ao seu smartphone
Comentários