O Lado Negro da GenAI: Implicações estratégicas para a defesa cibernética
A ascensão de ferramentas de IA generativa maliciosas, como Evil-GPT, WolfGPT, DarkBard e PoisonGPT, apresenta desafios estratégicos significativos para as empresas. À medida que os cibercriminosos utilizam cada vez mais a IA como copiloto nas suas operações, os diretores de segurança da informação (CISOs) e os líderes de segurança devem navegar por um cenário de ameaças em rápida evolução. Aqui estão as principais implicações que as organizações precisam considerar:
1. Volume e velocidade dos ataques
A IA generativa capacita os atores de ameaças a escalar dramaticamente as suas operações. Campanhas de phishing que antes levavam dias a elaborar podem agora ser geradas em massa em minutos, com cada e-mail exclusivamente adaptado ao seu alvo. Esta automação pode sobrecarregar as defesas tradicionais, e os e-mails de phishing escritos por IA muitas vezes eliminam sinais reveladores comuns, como erros gramaticais, tornando-os mais difíceis de identificar pelos utilizadores. As equipas de segurança devem preparar-se para um aumento no número de ataques, incluindo um aumento nos e-mails de phishing e variantes de código malicioso, tudo impulsionado pela velocidade da IA.
2. Sofisticação e iscos convincentes
A sofisticação dos ataques também está prestes a aumentar. Ferramentas como o DarkBard podem incorporar notícias em tempo real ou detalhes pessoais extraídos da web em mensagens de phishing, tornando-as mais convincentes. A integração da tecnologia deepfake — anunciada com o DarkBard e observada em vários esquemas fraudulentos — significa que o phishing por voz e vídeos falsos podem visar organizações com um realismo alarmante. As empresas devem educar os utilizadores de que os "sinais de alerta" tradicionais do phishing, como inglês pobre ou saudações genéricas, podem já não se aplicar sempre, à medida que a linha entre comunicações legítimas e conteúdo gerado por IA se torna mais ténue.
3. Personalização e evasão de malware
Na frente de malware, as ferramentas de IA podem produzir código polimórfico ou ofuscado em tempo real, como o WolfGPT afirmou fazer. Esta capacidade leva ao surgimento de mais malware zero-day — não no sentido de explorar vulnerabilidades desconhecidas, mas na criação de assinaturas e padrões que os produtos de segurança não encontraram antes. As soluções antivírus baseadas em assinaturas tradicionais terão dificuldade em acompanhar, pois cada carga maliciosa pode ser ligeiramente alterada por IA para evitar a deteção. Consequentemente, detecção e resposta de endpoint (EDR) e métodos de detecção baseados em comportamento tornam-se ainda mais cruciais para capturar ameaças que a análise estática pode não detectar.
4. Reduzir a barreira de entrada
Uma das mudanças mais significativas no panorama das ameaças cibernéticas é a democratização das ferramentas de cibercrime. Os aspirantes a cibercriminosos já não precisam de habilidades avançadas para lançar ataques credíveis; podem simplesmente alugar acesso a uma IA maliciosa. Esta tendência pode levar a um aumento de atores de ameaças menos habilidosos a realizar ataques que são desproporcionalmente eficazes para o seu nível de habilidade. Como resultado, o conjunto de potenciais adversários expande-se, abrangendo não apenas o crime organizado e os estados-nação, mas também amadores capacitados por IA-como-um-Serviço.
5. Engenharia social aumentada por IA
Para além dos ataques digitais, a IA maliciosa pode potenciar as tácticas de engenharia social utilizadas contra as organizações. Já foram observados os primeiros casos de clonagem de voz por IA em esquemas de fraude, como esquemas fraudulento de vishing onde uma voz gerada por IA imita um CEO. À medida que estas ferramentas se proliferam, tudo, desde esquemas telefónicos a chats de serviço ao cliente falsos, pode ser automatizado. As equipas de segurança devem preparar-se para novos vetores de ataque, como chatbots impulsionados por IA que tentam manipular socialmente o pessoal do helpdesk para redefinir senhas ou realizar chamadas de phishing em massa por voz.
6. Desinformação e reputação corporativa
As implicações de ferramentas como o PoisonGPT estendem-se a campanhas de desinformação direcionadas a empresas. Notícias falsas geradas por IA ou vídeos deepfake podem ser usados para manipular preços das ações, danificar a reputação de uma marca ou influenciar a opinião pública contra uma organização. Isto torna ténue a linha entre cibersegurança e relações públicas tradicionais ou gestão de crises. Os CISOs podem precisar de colaborar com equipas de comunicação para rastrear e responder a estas ameaças, pois elas representam outra forma de ataque à empresa, embora através de canais de informação.
7. IA defensiva e IA vs. IA
Num tom mais positivo, o aumento da IA maliciosa está a motivar um esforço paralelo na IA defensiva. Os fornecedores de segurança estão a desenvolver filtros impulsionados por IA capazes de identificar e-mails de phishing gerados por IA ou padrões de código malicioso. Por exemplo, os gateways avançados de segurança de e-mail estão agora a empregar modelos de aprendizagem automática treinados para detetar as assinaturas subtis do texto escrito por IA, como linguagem excessivamente polida ou pistas de formatação específicas, para bloquear estas mensagens. Da mesma forma, as ferramentas de segurança de código estão a explorar formas de sinalizar código que pareça gerado por IA ou que corresponda a padrões de saída conhecidos de IA. Isto cria uma corrida armamentista IA contra IA: à medida que os atacantes usam IA para melhorar os seus ataques, os defensores usarão IA para detetar anomalias e adaptar-se rapidamente. No entanto, isto introduz os seus próprios desafios, incluindo falsos positivos e a necessidade de analistas qualificados para interpretar alertas impulsionados por IA.
Conclusão
Em resumo, o surgimento da IA generativa maliciosa acelerou o ciclo de ataques e expandiu o seu âmbito, apresentando às empresas um volume maior de ameaças mais sofisticadas. As organizações devem ajustar as suas estratégias de tecnologia e formação para considerar os adversários aumentados por IA.
O campo de jogo entre atacantes e defensores está a mudar, e é imperativo que os líderes de segurança adaptem as suas estratégias e sejam proativos nas suas defesas contra estas ameaças em evolução. É claro que compreender estas ferramentas e as suas implicações é essencial para proteger contra a crescente onda de cibercrime impulsionado por IA. No nosso próximo e último post no blog em esta série, ofereceremos recomendações sobre como os líderes de segurança podem desenvolver uma abordagem multifacetada para defender contra estes tipos de ameaças.