Se você recorre ao ChatGPT ou ao Grok na hora de resolver um bug, formatar um HD ou ajustar o sistema para ganhar mais FPS nos games, atenção redobrada: pesquisadores da Huntress descobriram uma campanha em que hackers manipulam respostas dos chatbots e as promovem como links patrocinados no Google Ads. O simples ato de copiar e colar o comando sugerido no terminal pode abrir a porta para malwares como o AMOS, especializados em roubo de dados e persistência furtiva em macOS.
Como o golpe acontece
O ataque começa em um chat aparentemente inocente. Os criminosos pedem à IA algo do tipo “me ajude a formatar meu HD externo”. Em seguida, refinam a conversa até que o assistente gere um snippet de comando recheado de instruções maliciosas—por exemplo, um curl que baixa e executa um script remoto.
Com a resposta em mãos, eles tornam o diálogo público e investem em anúncios pagos para que o conteúdo apareça no topo da pesquisa. O link leva o usuário a uma página que exibe exatamente o trecho de código gerado pela IA, agregando credibilidade (“foi o ChatGPT que disse!”). Bastam alguns segundos para a pessoa colar o comando no terminal—e pronto, o malware está instalado.
Por que essa técnica é tão eficaz?
A tática combina dois fatores que os atacantes adoram:
- Autoridade percebida — usuários confiam na “inteligência” dos grandes modelos de linguagem;
- Visibilidade máxima — o Google Ads garante posição privilegiada nos resultados.
Diferente de phishing tradicional, não há e-mail suspeito, anexo incomum ou URL bizarra para acionar o alerta. Tudo parece legítimo, inclusive o cadeado de site seguro em HTTPS.
Impacto para quem joga, edita ou monta PCs
O AMOS e variantes podem desativar serviços de segurança, minerar criptomoedas, roubar senhas de serviços como Steam, Epic Games e Battle.net e até degradar desempenho da GPU. Na prática, a taxa de quadros do seu novo monitor 240 Hz pode despencar — e nem uma RTX 4060 Ti recém-comprada na Black Friday segura o estrago se o sistema estiver comprometido.
Para quem investe em hardware de ponta, vale lembrar que processadores modernos oferecem recursos de mitigação: Intel CET/Control-flow Enforcement e AMD Shadow Stack dificultam a execução de código não autorizado. Mas eles só funcionam quando o sistema operacional e drivers estão atualizados.
Imagem: Redacao Hardware
Comparativo com golpes anteriores
Antes da popularização dos chatbots, campanhas semelhantes dependiam de fóruns e posts no Stack Overflow. A nova abordagem reduz a barreira de desconfiança ao “terceirizar” a geração do comando para a IA e alavancar a força da marca OpenAI ou xAI. Em testes da Huntress, tanto ChatGPT quanto Grok se mostraram vulneráveis, repetindo as instruções maliciosas quando pressionados.
O que fazer para não cair
Não há patch mágico, mas algumas boas práticas diminuem (muito) o risco:
- Nunca execute algo que você não entende. Se a linha de comando contém
bash -coucurl | sh, pare e pesquise. - Prefira resultados orgânicos ou a documentação oficial de distribuições Linux, Windows ou macOS.
- Mantenha sistema, navegador, firmware de teclado gamer e driver da placa-mãe em dia—muitas atualizações fecham brechas exploradas por malwares.
- Use autenticação de dois fatores e senhas gerenciadas por hardware (chaves de segurança FIDO2) para limitar estragos.
- Faça varreduras periódicas com soluções de endpoint que detectam comportamento, não apenas assinaturas.
Enquanto OpenAI, xAI e Google não implementam filtros mais robustos (ou sinalizam respostas potencialmente maliciosas), a defesa continua nas mãos do usuário. O combo senso crítico + software atualizado + recursos de segurança em hardware ainda é a melhor blindagem.
Com informações de Hardware.com.br