O Brasil acaba de conquistar um título nada honroso: somos o novo centro latino-americano de fraudes com deepfakes. De acordo com o 5º Relatório Anual Identity Fraud Report 2025-2026, da Sumsub, o uso de vídeos e áudios gerados por inteligência artificial para enganar sistemas de verificação saltou impressionantes 126 % em apenas 12 meses. Na prática, isso significa que quase 4 em cada 10 deepfakes detectados na região saíram de solo brasileiro.
Do “print no Photoshop” ao vídeo ultrarrealista
Durante anos, golpistas limitavam-se a falsificar documentos em JPEG ou PDF. Agora, a fraude evoluiu para identidades sintéticas capazes de manipular vídeo em tempo real, alterar metadados de dispositivos e até interceptar chamadas de API. Globalmente, apenas 10 % das tentativas de fraude eram consideradas sofisticadas em 2024; hoje, esse número já chega a 28 %.
O que o relatório revela
• Mais de 4 milhões de tentativas de fraude analisadas.
• 300 profissionais de risco e 1 200 usuários entrevistados.
• 43 % das empresas latino-americanas sofreram algum tipo de fraude em 2025; 100 % relataram ataques de phishing.
• Entre os consumidores, 68 % já foram vítimas de golpes digitais; 63 % tiveram contas de redes sociais invadidas.
Por que o Brasil lidera?
Segundo especialistas, três fatores explicam o boom:
1. Adoção massiva de serviços digitais
Pagamentos instantâneos, bancos 100 % mobile e compras online criam um grande campo de ataque.
2. Infraestrutura de cibersegurança desigual
Startups e PMEs ainda dependem de processos manuais de verificação, abrindo brechas para deepfakes.
3. “Democratização” das ferramentas de IA
Modelos como ChatGPT, Grok e Gemini permitem criar imagens, vozes e documentos sintéticos em minutos, sem conhecimento técnico profundo.
Explosão regional: crescimento de até 500 %
Embora o Brasil lidere em volume, países como Guatemala, México, Panamá e Suriname viram saltos de 400 % a 500 % nas fraudes com deepfakes, sugerindo que o problema não ficará restrito às nossas fronteiras.
O impacto direto para você (usuário e empresa)
Para o consumidor: um vídeo de “suporte técnico” pode, na verdade, ser um ator gerado por IA solicitando código de autenticação. Até mesmo ligações de voz imitando parentes são realidade.
Imagem: William R
Para a empresa: perder minutos na verificação manual significa abrir a porta para golpistas que automatizam todo o processo. Se o seu e-commerce vende hardware gamer, basta um cadastro fraudulento para cartões de crédito serem testados em massa.
Como se proteger já
• Autenticação em múltiplos fatores – Não dependa apenas de selfie ou documento digital.
• Biometria comportamental – Analisar padrões de digitação e movimento de mouse dificulta a vida dos bots.
• IA contra IA – Ferramentas que detectam manipulação de pixels, inconsistências de áudio e metadados são a nova linha de frente.
• Educação constante – Treine equipes para reconhecer abordagens suspeitas, principalmente em chat e vídeo.
O que esperar de 2026
A Sumsub projeta o surgimento de agentes autônomos de fraude, capazes de criar identidades falsas, abrir contas e passar por verificações em tempo real sem qualquer intervenção humana. Em outras palavras, a corrida armamentista da IA já começou. Quem atuar apenas com “olhômetro” ficará para trás.
Se você pretende lançar uma loja virtual de componentes — de mouses ergonômicos a placas de vídeo topo de linha — considere investir em verificação automatizada de identidade e biometria comportamental desde o primeiro dia. Assim, você protege tanto o seu negócio quanto os clientes que buscam upgrades de hardware genuinamente seguros.
No ritmo atual, a pergunta não é se você será alvo de um deepfake, mas quando. Estar preparado agora pode economizar milhares de reais (e noites de sono) no futuro próximo.
Com informações de Hardware.com.br