
5 Maneiras como os cibercriminosos estão a usar IA: Geração de Malware
Nos últimos meses, temos analisado novamente a inteligência artificial (IA) e os seus muitos subconjuntos, como o machine learning (ML) e a GenAI. Hoje, continuamos este tópico com uma análise de como os cibercriminosos estão a usar a GenAI para criar malware. Na maior parte, falaremos sobre a GenAI empregada em grandes modelos de linguagem (LLMs) como ChatGPT ou Google Gemini.
Se alguma vez jogou com um destes LLMs, pode ter-se deparado com as suas limitações programadas. Peça ao ChatGPT para escrever malware para si e receberá um educado "não" com algumas palavras sobre usar as suas competências de forma responsável e dentro dos limites da lei. Investigando um pouco mais, podemos ver que o ChatGPT tem vários mecanismos em vigor para prevenir o uso malicioso da tecnologia. O Gemini também tem alguns mecanismos em vigor, mas a primeira coisa que lhe diz é que não é responsável pelo que os utilizadores fazem. E claro, podemos concordar com isso, mas mais algumas perguntas como "Porque não podes criar malware?" resultam em respostas de baixo valor como "É prejudicial" e "É ilegal." Em última análise, o Gemini assegura-lhe, "A minha resposta é guiada por um conjunto mais geral de princípios concebidos para promover a segurança e o uso responsável."
A maioria de nós não precisa ultrapassar os limites destes LLMs. Se um LLM ou outra aplicação GenAI não funcionar para nós, podemos encontrar outra ou criar a nossa própria. Os cibercriminosos podem fazer o mesmo, embora operem num mercado diferente com menos restrições.
Como os criminosos utilizam o GenAI
A IA abre novas oportunidades e capacidades para os cibercriminosos. Lembre-se de que os sistemas de IA são concebidos para aprender. Criminosos que treinam os seus próprios sistemas de IA em malware e outro software malicioso podem significativamente ‘elevar’ os seus ataques. Por exemplo:
- Geração de código automatizada: Os criminosos podem criar novas variantes de malware de forma rápida e automática. Isto ajuda-os a criar muitos ataques diferentes com características distintas, mas funcionalidade semelhante.
- Técnicas de Evasão: Executar malware e software de segurança um contra o outro pode ensinar aos sistemas de IA como o malware é detetado. A IA pode então modificar o malware para evitar a deteção.
- Desenvolvimento de Exploits: A IA pode examinar e descobrir vulnerabilidades em sistemas-alvo. Estas vulnerabilidades são então analisadas e utilizadas para criar exploits e sequências de ataques.
- Adaptação e Aprendizagem: O GenAI adapta-se aos sistemas de segurança e pode aprender com os resultados de outros ataques. O uso de IA pode permitir que o malware ajuste dinamicamente as suas táticas durante um ataque com base na análise em tempo real das defesas do alvo.
Pode ainda estar a perguntar-se como os LLMs podem ser usados para criar malware ou ajudar em outros ataques. Os atores de ameaças geralmente adotam duas abordagens com IA maliciosa. A primeira é o uso de 'ataques adversariais', que é um termo abrangente para as diferentes técnicas usadas para fazer com que as tecnologias de IA funcionem mal. Ataques de envenenamento, evasão e extração são alguns exemplos disso. Esses ataques podem criar malware ou ser usados em conjunto com um ataque de malware. Por exemplo,
- Vulnerabilidades encontradas em sistemas de IA podem ajudar os atores de ameaças a desenvolver ataques mais eficazes contra o alvo. Veja o blog de Gabe aqui para exemplos.
- Sistemas de IA com mau funcionamento podem criar confusão e esconder outros ataques a sistemas financeiros, infraestruturas críticas e operações empresariais. Em vez de procurar intrusos ou malware, o departamento de TI é distraído pelo sistema de IA.
- Explorar vulnerabilidades de LLM pode permitir que um ator de ameaça crie um e-mail de phishing através de um sistema restrito como o ChatGPT. Este post sobre o uso de GenAI para ataques de phishing fornece um exemplo.
Estes ataques adversários são também conhecidos como ‘jailbreaks,’ e muitos são partilhados ou vendidos em comunidades criminosas.
Uma segunda e mais comum abordagem para gerar malware através do GenAI é construir ou comprar 'dark LLMs' que foram feitos para atores de ameaças. Estes LLMs não têm as restrições que viu anteriormente no ChatGPT e Gemini, e alguns são construídos para tipos específicos de ataques. Por exemplo, o FraudGPT foi projetado para criar e-mails de phishing, ferramentas de cracking, e esquemas de carding. O DarkBart (ou DarkBard) é utilizado para phishing, engenharia social, exploração de vulnerabilidades de sistemas, e distribuição de malware. O DarkBart foi baseado no Google Bard (agora Google Gemini) e integra-se com outras aplicações Google para facilitar o uso de imagens e outros componentes num ataque. Os investigadores suspeitam que CanadianKingpin12 é o principal ator de ameaça por trás da maioria destes dark LLMs porque ele é o promotor e vendedor mais prolífico deste software nos fóruns de crime.
O software tinha um preço de $200 por mês ou $1700 por ano, com um par de outros níveis intermédios. O anúncio afirma mais de 3.000 vendas confirmadas. É mais provável que grupos de ameaças avançadas construam as suas próprias ferramentas em vez de comprar através de um anúncio como este.
Tipos de ataques de malware criados por IA
Agora que discutimos como os atores de ameaça podem usar LLMs, vamos examinar alguns dos malware que produzem com essas ferramentas.
Malware adaptativo
O malware adaptativo pode mudar o seu código, padrões de execução ou métodos de comunicação com base no que encontra durante um ataque. Isto serve para evitar a deteção, mas também pode adaptar-se para tirar partido de novas oportunidades de ataque. O malware adaptativo é anterior ao GenAI e aos dark LLMs, mas a inteligência artificial e o machine learning (ML) melhoraram as suas técnicas de evasão e eficácia.
Cargas úteis dinâmicas de malware
Uma carga útil de malware é a parte do malware que realiza a atividade maliciosa propriamente dita. No ransomware Cactus, por exemplo, o binário de encriptação é a carga útil. Uma carga útil dinâmica pode modificar suas ações ou carregar malware adicional durante o ataque. Pode adaptar-se às condições após ser implantada para evitar deteção ou aumentar a eficácia. Tal como o malware adaptativo, as cargas úteis dinâmicas podem ser criadas sem o aprimoramento de IA. A utilização de capacidades de IA melhora o malware, tornando-o mais responsivo ao ambiente.
ataques de zero-day e one-day
Estes são ataques contra vulnerabilidades desconhecidas ou recentemente descobertas. Os ataques de zero-day são desconhecidos para o fornecedor, pelo que o fornecedor teve “zero dias” para corrigir a vulnerabilidade antes de ser atacada. Os ataques de one-day ocorrem no curto espaço de tempo entre o lançamento de uma correção pelo fornecedor e a instalação da correção pelo cliente. O “um dia” refere-se à janela de oportunidade limitada para os atacantes. O GenAI pode acelerar a descoberta de vulnerabilidades de zero-day e o desenvolvimento de um exploit. O panorama de ataques é reduzido cada vez que uma correção é lançada ou instalada, por isso os agentes de ameaça querem lançar os seus ataques o mais rapidamente possível. O GenAI reduz o tempo que eles demoram a atacar.
Ofuscação de conteúdo
Tal como parece, a ofuscação de conteúdo refere-se ao ato de esconder ou disfarçar a verdadeira intenção de código malicioso através de encriptação, codificação, polimorfismo ou metamorfismo. Estas técnicas de evasão são mais bem-sucedidas contra medidas de segurança que dependem da identificação de padrões conhecidos de atividade maliciosa. GenAI pode aumentar a complexidade e a eficácia de todos estes métodos. A IA também tem sido usada para misturar código irrelevante em malware, de modo que os sistemas de segurança não reconhecem o malware como uma ameaça.
botnets alimentados por IA
Botnets aprimorados com capacidades de IA podem modificar o seu próprio código para evitar deteção, propagar-se para outros dispositivos sem intervenção humana, selecionar o melhor entre múltiplos alvos e otimizar os seus ataques com base na resposta de segurança. A IA também pode gerir os recursos do botnet para balanceamento de carga e melhorar a comunicação entre dispositivos e redes. Botnets potenciados por IA realizam ataques de negação de serviço distribuído (DDoS) e campanhas de spam mais eficazes. Também são mais resilientes porque a IA pode decidir executar capacidades de autorrecuperação e ofuscação/evitação conforme necessário.
E há mais
Esta é apenas uma lista parcial de como e por que os atores de ameaças estão a usar GenAI para criar e melhorar malware. Não há maneira de podermos listar todos aqui, mas há alguns outros recursos que poderá encontrar interessantes. A Microsoft e a OpenAI estão a acompanhar os atores de ameaças que estão a usar LLMs nas suas operações. Aqui estão alguns exemplos:
- Forest Blizzard (Rússia) está a gerar scripts para executar tarefas como manipulação de ficheiros e seleção de dados. Isto é provavelmente parte do esforço para automatizar as suas operações de ameaça.
- Emerald Sleet (Coreia do Norte) está a criar scripts de tarefas que aceleram ataques, como identificar determinados eventos de utilizador num sistema. O grupo também utiliza LLMs para criar spear phishing e outros ataques de engenharia social contra governos e outras organizações que se concentram na defesa contra a Coreia do Norte.
- Crimson Sandstorm (Irão) está a gerar código para evadir a deteção e a tentar desativar a segurança através do Windows Registry ou da Group Policy.
Se está à procura de mais informações sobre estes atores de ameaça, tenha em mente que a lista acima segue a convenção de nomenclatura da Microsoft. A maioria dos atores de ameaça recebeu múltiplos nomes. Forest Blizzard, por exemplo, também é conhecido como Fancy Bear e APT28.
A Microsoft está também a trabalhar com a MITRE para adicionar as seguintes táticas, técnicas e procedimentos (TTPs) ao quadro MITRE ATT&CK® ou MITRE ATLAS™ (Base de conhecimento do Panorama de Ameaças Adversárias para Sistemas de Inteligência Artificial):
- Reconhecimento informado por LLM: Utilização de LLMs para recolher informações acionáveis sobre tecnologias e potenciais vulnerabilidades.
- Técnicas de scripting aprimoradas por LLM: Utilização de LLMs para gerar ou refinar scripts que podem ser usados em ciberataques ou para tarefas básicas de scripting, como identificar programaticamente certos eventos de utilizador num sistema e assistência na resolução de problemas e compreensão de várias tecnologias web.
- Desenvolvimento assistido por LLM: Utilização de LLMs no ciclo de desenvolvimento de ferramentas e programas, incluindo aqueles com intenção maliciosa, como malware.
- Engenharia social suportada por LLM: Aproveitar LLMs para assistência com traduções e comunicação, provavelmente para estabelecer conexões ou manipular alvos.
A Microsoft tem vários TTPs temáticos de LLM listados no seu site aqui.
Outro artigo interessante é esta publicação de Harvard sobre um worm “zero-click” que sequestra sistemas de IA para campanhas de spam, roubo de dados ou outras atividades maliciosas. Investigadores de Harvard desenvolveram o worm para demonstrar a necessidade de contramedidas defensivas em sistemas de IA.
A Barracuda publicou recentemente um e-book, Protegendo o amanhã: O guia de um CISO para o papel da IA na cibersegurança. Este e-book explora os riscos de segurança e expõe as vulnerabilidades que os criminosos exploram com a ajuda da IA para aumentar os seus ataques e melhorar as suas taxas de sucesso. Obtenha já a sua cópia gratuita do e-book e veja todas as ameaças, dados, análises e soluções mais recentes por si mesmo.

O Relatório de Perspetivas sobre Ransomware 2025
Principais conclusões sobre a experiência e o impacto do ransomware nas organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.

Segurança de Vulnerabilidades Geridas: Remediação mais rápida, menos riscos, conformidade mais fácil
Veja como pode ser fácil encontrar as vulnerabilidades que os cibercriminosos querem explorar