Clonagem de voz, vídeos manipulados e identidades falsas estão no centro das fraudes digitais no Brasil, e especialista explica o que observar antes de agir.
Por Redação, com CartaCapital – de Brasília
Os golpes com inteligência artificial já não chegam com erros de português ou pedidos absurdos. Chegam com a voz de um familiar, o rosto de uma celebridade ou o tom exato do atendente do seu banco. E é justamente essa familiaridade que os torna perigosos. No Brasil, a produção de conteúdos falsos gerados por inteligência artificial cresceu 308% entre 2024 e 2025, segundo levantamento da Agência Lupa, o que representa uma mudança profunda na forma como as fraudes digitais são construídas.

Em São Paulo, dados da Fundação Seade divulgados em 2026 mostram que 82% dos idosos já foram alvo de tentativas de golpes digitais e 12% efetivamente sofreram fraudes. Entre eles, 68% afirmam não saber como se proteger.
Invisíveis
Para o especialista em inteligência artificial Gui Zanoni, o que mudou não foi apenas a sofisticação técnica, mas a lógica do ataque. “A inteligência artificial não replica apenas voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento previamente mapeados, criando uma narrativa coerente e difícil de contestar em tempo real”, afirma.
O resultado é uma fraude que não precisa mais errar para convencer. O risco se desloca da falha técnica do golpista para a capacidade de verificação do usuário.
Entre os recursos mais usados estão a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas. Juntos, esses elementos reproduzem não apenas aparência, mas padrões de linguagem, tempo de resposta e contexto de interação, o que leva o usuário a confiar antes de questionar.
Celebridades
Um dos formatos mais recorrentes envolve o uso indevido da imagem de artistas, influenciadores e figuras públicas em campanhas falsas que circulam em redes sociais e aplicativos de mensagem.
Em 2025, vídeos e áudios gerados por inteligência artificial usaram a imagem da modelo Gisele Bündchen para promover produtos sem qualquer relação com ela. Consumidores realizaram pagamentos por itens que nunca foram entregues.
– Quando essa representação é associada a figuras públicas com alta credibilidade, o usuário tende a reduzir o nível de verificação e aceitar a mensagem como legítima. Esse é exatamente o ponto de conversão explorado pela fraude – explica Zanoni.
Manipulação
A identificação de vídeos e áudios manipulados exige atenção a detalhes que nem sempre são perceptíveis. Zanoni lista alguns: desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som.
O problema é que esses sinais não aparecem de forma consistente em todos os casos, o que amplia o desafio para o usuário comum.
Cinco formas de se proteger.
Zanoni elaborou orientações práticas para reduzir os riscos em interações digitais:
Não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas
Confirmar solicitações por um segundo canal independente antes de qualquer ação
Desconfiar de abordagens que envolvam urgência ou pressão emocional
Observar inconsistências visuais e sonoras em conteúdos digitais
Evitar compartilhar dados pessoais, códigos ou imagens sem verificação
Para o especialista, a resposta ao avanço das fraudes está na criação de novos hábitos de verificação. “A inteligência artificial redefine o que é percebido como confiável no ambiente digital. A resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, diz Zanoni.