
A empresa tecnológica disse, num comunicado divulgado hoje, que "nos últimos três meses, o seu trabalho contra atores enganosos e abusivos permitiu interromper operações de influência secreta que procuravam usar modelos de IA em apoio à sua atividade através da Internet".
Estas operações incluíam campanhas ligadas a operadores na Rússia (duas redes), China, Irão e uma empresa comercial em Israel na "tentativa de manipular a opinião pública ou influenciar os resultados políticos", referiu a OpenAI.
Essas campanhas, detalhou, visavam questões como a invasão da Ucrânia pela Rússia, a intervenção militar israelita na Faixa de Gaza, as eleições na Índia, a política na Europa e nos Estados Unidos, entre outras.
As campanhas enganosas, afirma a empresa no comunicado, não conseguiram uma maior projeção ou alcance do público devido aos seus serviços.
O relatório da empresa de pesquisa e implantação de IA sediada em São Francisco mostra as preocupações de segurança sobre o uso indevido desta tecnologia, que pode produzir texto, imagens e áudio de forma rápida e fácil.
"Detetar e interromper abusos multiplataforma, como operações secretas de influência, pode ser um desafio, porque nem sempre sabemos como o conteúdo gerado pelos nossos produtos é distribuído", admite a OpenAI, garantindo estar "dedicada a encontrar e mitigar esse abuso".
Pergunta do Dia
Em destaque
-
Multimédia
Milhares de cores em nova imagem impressionante da Galáxia do Escultor -
App do dia
Já experimentou a Edits? É a aposta do Instagram para editar vídeos ao estilo do CapCut -
Site do dia
Adivinhe onde está e aprenda um pouco mais sobre o mundo -
How to TEK
Verifique se o seu smartphone está infetado com malware analisando sintomas estranhos
Comentários