O inspetor-chefe da Polícia Judiciária, Luís Afonso, aconselha a que se tenha muito cuidado com a informação partilhada nos sistemas de inteligência artificial (IA), adiantando que a polícia está a fazer um forte investimento nesta área.
Com a Inteligência Artificial as fraudes estão a crescer com bots e deepfakes e Ajay Patel defende que é essencial garantirmos uma proteção da privacidade que seja tão avançada quanto a tecnologia.
Chama-se Take it Down Act e devia ser festejado pelos grupos que defendem mais proteção online para vítimas de divulgação de conteúdos íntimos não autorizados ou manipulados online, mas não é isso que está a acontecer e as declarações de Trump aumentaram receios.
Programas de IA são cada vez mais usados para imitar a voz ou imagem de alguém real para fins maliciosos. Uma nova companha com deepfakes nos EUA dá o mote para o FBI divulgar alguns conselhos de segurança.
As multas podem chegar aos 35 milhões de euros, ou até mais, dependendo da dimensão da empresa. Espanha aprovou legislação para combater as deepfakes e limitar a utilização de IA noutras áreas consideradas perigosas.
Ter competências de literacia digital, assim como boas capacidades de observação, é essencial para saber diferenciar entre imagens e vídeos verdadeiros e conteúdos gerados por IA. Coloque as suas capacidades à prova com este quiz online.
Pessoas com mais de 55 anos são consideradas mais vulneráveis à exposição a deepfakes, porque cerca de um em cada três inquiridos nunca ouviu o termo, revela o Relatório Anual de Inteligência Artificial de Ameaças 2025, desenvolvido pela iProov.
Numa espécie de “vale tudo” gerado pelos deepfakes de inteligência artificial, o presidente da França, Emmanuel Macron, publicou um vídeo onde protagoniza vários videoclips, “pede likes” no seu canal de YouTube e até assume o papel de McGyver para promover a cimeira de IA que está a decorrer em Pari
Os vídeos com IA que mostram políticos portugueses em cenários cómicos ou improváveis estão a ganhar popularidade nas redes sociais. Há potencial para este formato ser usado para veicular informação falsa? José Moreno, investigador do Medialab do ISCTE, explica o fenómeno.
O projeto de lei apresentado no estado norte-americano da Califórnia surge face às preocupações globais sobre o impacto dos deepfakes e outros conteúdos manipulados por inteligência artificial, nomeadamente em altura de campanha eleitoral.
A opção é paga e só está disponível em alguns modelos da Lenovo. O Deepfake Detector assegurado pela McAfee tem outras limitações, nomeadamente no que se refere ao tipo de conteúdo falso que consegue detetar nesta primeira fase.
A Microsoft considera que é preciso reforçar a legislação para combater o abuso da tecnologia de inteligência artificial na criação de deepfakes para burlas, fraudes e manipulação ilegal.
Não há uma data para a integração das inovações mostradas pela Honor nos dispositivos da marca, mas o plano é que isso aconteça. as tecnologias ajudam a detetar deepfakes e prevenir problemas de visão, com ajuda de inteligência artificial.
Não é uma novidade, a utilização da voz e imagem de Elon Musk para criar conteúdos manipulados com IA em esquemas de fraude online, mas as imitações estão cada vez mais aperfeiçoadas. Uma identificada este fim-de-semana aparentava ser transmitida por uma conta oficial validada.
A Human Rights Watch alerta para a necessidade de mais segurança de proteção de dados privados para salvaguardar as crianças de abuso de exploração no treino dos modelos de IA.
O objetivo da OpenAI é ajudar a identificar conteúdos gerados por inteligência artificial e fornecer mais detalhes sobre como foram criados, numa altura em que os desafios colocados pelos deepfakes e pela manipulação de imagens "reais" está na ordem do dia.
A vice-presidente da Comissão Europeia para os Valores e Transparência considera que a desinformação assente em inteligência artificial (IA) "é o maior desafio" e que esta tecnologia é incontornável para os media.
Os riscos da difusão de informações falsas, como deepfakes de som, fotografia e vídeos manipulados, levou a CE a pedir às plataformas digitais que rotulem os conteúdos gerados por inteligência artificial. Entre os “tecnólogos” também há alertas para os perigos da IA.
As ferramentas de Inteligência Artificial e Machine Learning já estão a contribuir para a deteção de anúncios ligados a fraudes, com recurso a deepfakes e à disseminação de fake news nas eleições através do Google Ads.
O antigo diretor executivo do Centro Nacional de Cibersegurança britânico Ciaran Martin alertou que é mais fácil falsificar um som do que um vídeo com Inteligência Artificial e que a comunicação social deve estar muito atenta.
Basta uma prompt, nem precisa de grande detalhe, para a Sora criar um vídeo só usando a Inteligência Artificial. Ainda é uma experiência mas vai evoluir e os resultados que já consegue são impressionantes. Veja os vídeos.
Foram notícia recentemente as chamadas que alguns eleitores americanos receberam com uma mensagem gravada a imitar a voz do presidente Joe Biden, pedindo que não fossem votar. Usar estes recursos em campanhas telefónicas passou a ser proibido.
As tecnologias de deepfake, programas de inteligência artificial que permitem manipular voz e imagem, estão a ser cada vez mais usadas para aperfeiçoar burlas ou expor adultos e crianças na internet. Nas denúncias investigadas pela Polícia Judiciária estes casos também têm ganho espaço.
Plataformas que usam IA para gerar conteúdo para contas falsas em redes sociais e serviços de deepfakes, emails de spam ou de falsificação de documentos são alguns dos usos dados por cibercriminosos à tecnologia.