
O lado negro da IA generativa: Desvendando o panorama das ameaças da IA
A IA generativa desvendou um novo panorama de ameaças para o cibercrime. Antes usadas principalmente para fins legítimos, os grandes modelos de linguagem (LLMs) estão agora a ser usados como armas por agentes maliciosos. Fóruns subterrâneos e mercados na dark web estão fervilhando com "dark LLMs" — chatbots de IA personalizados ou desbloqueados, projetados explicitamente para atividades maliciosas. De facto, as menções a estas ferramentas de IA maliciosas em fóruns cibercriminosos dispararam mais de 219% em 2024, sinalizando uma mudança significativa nas táticas empregadas pelos cibercriminosos.
Ferramentas como o WormGPT (um clone não censurado do ChatGPT) viram uma rápida adoção, ajudando criminosos a automatizar ataques de phishing e comprometimento de e-mails empresariais (BEC). No final de 2024, o bot do WormGPT no Telegram supostamente tinha atingido quase 3.000 utilizadores (com centenas de assinantes pagantes), destacando a crescente procura por crimeware impulsionado por IA. Estas ferramentas maliciosas de IA generativa podem escrever iscas de phishing convincentes, gerar código de malware indetetável, criar personas falsas e até produzir desinformação em grande escala.
Nesta série de blogues, vou aprofundar o lado obscuro da IA generativa, examinando quatro exemplos proeminentes de ferramentas de IA maliciosas: Evil-GPT, WolfGPT, DarkBard e PoisonGPT. Cada publicação detalhará como estas ferramentas operam e como são utilizadas em operações de cibercrime no mundo real. Fornecerei uma visão geral das suas capacidades (desde a geração de phishing e automação de malware até à criação de propaganda), dos seus canais de promoção (desde fóruns da dark web até grupos Telegram) e evidências documentadas do seu uso ao longo do último ano. Finalmente, discutirei as implicações estratégicas para a defesa empresarial e oferecerei recomendações para CISOs e equipas de segurança para combater esta ameaça emergente.
Natureza de dupla utilização da IA generativa
A IA generativa é uma espada de dois gumes: a mesma tecnologia que pode redigir os seus emails ou escrever código de software também pode ser explorada para fins nefastos. Os LLMs modernos, como o GPT-3.5/4 da OpenAI ou o Bard da Google, são assistentes poderosos com guardrails éticos incorporados. No entanto, os criminosos encontraram formas de contornar estas salvaguardas — seja por “jailbreaking” modelos públicos ou por usar modelos de código aberto para criar a sua própria IA sem restrições. O resultado é uma onda de sistemas GPT maliciosos construídos especificamente para o cibercrime. Estas IAs desonestas podem gerar código de malware, explorar scripts, conteúdo de phishing, e mais sob demanda, sem os habituais filtros de conteúdo ou limitações.
Vários fatores tornam isso possível. Primeiro, o boom dos LLM de código aberto fornece modelos disponíveis gratuitamente, como o GPT-J e o LLaMA, que qualquer pessoa com conhecimentos suficientes pode ajustar com dados maliciosos. Além disso, atores mal-intencionados estão a partilhar técnicas de fuga para manipular chatbots de IA legítimos de modo a produzir resultados prejudiciais.
Um próspero mercado clandestino também surgiu, vendendo IA como serviço ilícito. Aqui, cibercriminosos empreendedores oferecem bots de "IA maligna" baseados em assinatura que prometem "sem limites" — IA que produzirá alegremente e-mails de phishing, malware, notícias falsas ou qualquer resultado ilegal que um comprador desejar. Esta comoditização da IA generativa reduz a barreira de entrada para o cibercrime: Mesmo atacantes com habilidades limitadas podem aproveitar a IA para aumentar significativamente a escala e sofisticação de suas campanhas. Em essência, a IA generativa tem um problema de uso duplo, e a comunidade de segurança está agora a lidar com as consequências de seu uso malicioso.
O que se segue
Nos próximos posts desta série de blogues, explorarei detalhadamente cada uma das quatro ferramentas de IA maliciosas:
- Evil-GPT: Vou examinar as capacidades, estratégias de promoção e aplicações do mundo real do cibercrime desta ferramenta apelidada de "inimigo do ChatGPT".
- WolfGPT: Esta versão “melhorada” de IA obscura foca-se na criação de malware. Vou analisar as suas características e os potenciais riscos que representa para a cibersegurança.
- DarkBard: Vou investigar as capacidades únicas desta ferramenta conhecida como o "gémeo malvado" do Google Bard, e como pode ser utilizada para desinformação em tempo real.
- PoisonGPT: Esta ferramenta exemplifica a aplicação mais obscura da IA generativa para desinformação. Vou discutir as suas implicações e os riscos associados a ataques à cadeia de abastecimento de IA.
Por fim, irei discutir as implicações estratégicas para a defesa empresarial e fornecer recomendações acionáveis para CISOs e equipas de segurança para contrariar estas ameaças emergentes.
Fique atento enquanto navego pelas complexidades do panorama de ameaças da IA e descubro os desafios e estratégias que estão por vir na luta contra a IA generativa maliciosa.

O Relatório de Perspetivas sobre Ransomware 2025
Principais conclusões sobre a experiência e o impacto do ransomware nas organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.

Segurança de Vulnerabilidades Geridas: Remediação mais rápida, menos riscos, conformidade mais fácil
Veja como pode ser fácil encontrar as vulnerabilidades que os cibercriminosos querem explorar