Espera-se que os conteúdos gerados por Inteligência Artificial se tornem cada vez mais convincentes, seja devido à evolução tecnológica, à crescente dependência dos utilizadores ou ao treino contínuo com base no feedback recebido. Esta é uma das conclusões apontadas no mais recente relatório internacional de segurança online. Segundo especialistas em cibersegurança, estes avanços serão inevitavelmente explorados por cibercriminosos.
Na semana passada, a investigação à plataforma social X, associada a imagens sexualizadas geradas por IA através do chatbot Grok, voltou a colocar em evidência os riscos dos deepfakes para o público. Para além de conteúdos de natureza sexual, imagens e vídeos criados por IA estão a ser cada vez mais utilizados em fraudes, burlas e roubo de identidade.
Deepfakes cada vez mais fáceis de criar
A facilidade com que é possível gerar um deepfake convincente ficou demonstrada num vídeo viral onde os atores Tom Cruise e Brad Pitt surgiam numa cena de combate. O realizador Ruairi Robinson revelou que o vídeo foi criado a partir de um simples prompt com apenas duas linhas.
Ferramentas acessíveis — muitas delas gratuitas — permitem atualmente gerar imagens e vídeos falsos em segundos. Este cenário cria um ambiente digital onde distinguir o que é real do que é manipulado se torna cada vez mais difícil.
De acordo com especialistas da Planet VPN, fornecedor de rede privada virtual (VPN) com política rigorosa de não registo de dados, estas ferramentas estão também a facilitar ataques em larga escala. Konstantin Levinzon, cofundador da empresa, alerta que a evolução da IA tornou mais simples enganar pessoas com conteúdos altamente realistas.
Fraude digital e roubo de identidade em crescimento
Os deepfakes estão a ser utilizados para vários tipos de ataques: desde vídeos falsos usados para enganar vítimas individuais até esquemas de fraude empresarial. Empresas não estão imunes — já foram registados casos em que criminosos utilizaram vídeos falsos de executivos para induzir colaboradores a realizar transferências não autorizadas.
Instituições financeiras enfrentam igualmente desafios acrescidos, uma vez que imagens e vídeos manipulados podem ser usados para contornar sistemas de verificação online.
Segundo Levinzon, um dos aspetos mais preocupantes da tecnologia de IA é a sua capacidade de tornar difícil a distinção entre realidade e manipulação. No entanto, os deepfakes podem deixar vestígios, como movimentos faciais pouco naturais, iluminação inconsistente, sombras irregulares ou distorções subtis na imagem.
Como reforçar a proteção online
Embora existam serviços que analisam imagens e vídeos para identificar sinais de geração por IA, estes sistemas oferecem apenas probabilidades, não garantias absolutas.
Os especialistas recomendam limitar a quantidade de vídeos e imagens pessoais partilhadas online, uma vez que criminosos utilizam frequentemente conteúdos públicos para criar deepfakes direcionados. A ativação de autenticação multifator em todas as contas é também considerada essencial, pois impede acessos indevidos mesmo que credenciais sejam comprometidas.
O uso de uma VPN pode igualmente reforçar a segurança, ao encriptar o tráfego online e dificultar a monitorização da atividade digital por terceiros. Ao reduzir a exposição de dados, diminui-se o risco de ser alvo não só de esquemas baseados em deepfakes, mas também de outros tipos de fraude.
Num cenário em que os conteúdos gerados por IA se tornam progressivamente mais sofisticados e persuasivos, a literacia digital e a adoção de medidas preventivas continuam a ser as melhores defesas contra ameaças emergentes.
