
LLMs corrompidos: O lado negro da IA generativa
A inteligência artificial (IA) chegou. De acordo com um recente relatório da Deloitte, 78% das empresas planeiam aumentar os seus gastos em IA este ano, com 74% a afirmar que as iniciativas de IA generativa (GenAI) cumpriram ou excederam as expectativas.
A acessibilidade é a pedra angular do sucesso da IA. Grandes ou pequenas, nativas digitais ou físicas, qualquer empresa pode beneficiar de ferramentas inteligentes. Mas esta acessibilidade não é inerentemente ética. Agentes maliciosos estão a ter um sucesso semelhante com a IA, utilizando modelos de linguagem de grande escala (LLMs) para criar e impulsionar novos vetores de ataque.
Se não forem controlados, estes chamados "dark LLMs" representam um risco significativo para as organizações. Aqui está o que as empresas precisam saber sobre como navegar no novo estado da segurança de IA e mitigar o risco de dark LLMs.
O que é um LLM escuro?
As LLMs obscuras são LLMs com as suas barreiras de proteção removidas.
Modelos de linguagem de grande escala formam a base das ferramentas de IA generativa. São treinados com enormes quantidades de dados. Com o tempo, conseguem tanto compreender como gerar linguagem natural, e continuam a melhorar essa compreensão. Isto torna os LLMs ideais para responder a perguntas e realizar tarefas, uma vez que os utilizadores podem interagir com interfaces de IA da mesma forma que falam com humanos.
Os LLMs alimentam ferramentas de IA generativa, como o ChatGPT da OpenAI, os modelos PaLM da Google e o watsonx da IBM. Também existem vários LLMs de código aberto que as empresas podem usar para desenvolver soluções internas.
Juntamente com a sua capacidade de compreender línguas naturais, os LLMs partilham outra característica comum: as barreiras de proteção. Estas barreiras são o que impede os LLMs de fazerem tudo o que um utilizador pede, como fornecer informações protegidas ou criar código que lhes permita infiltrar-se numa rede. Vale a pena notar que estas barreiras não são perfeitas — certos pedidos podem contornar estas barreiras e permitir que os utilizadores gerem conteúdo malicioso. Por exemplo, a investigação descobriu que o concorrente do ChatGPT, DeepSeek, não conseguiu impedir um único dos 50 pedidos maliciosos de "jailbreak".
LLMs obscuros removem completamente as salvaguardas. Normalmente construídos em plataformas de código aberto, estes grandes modelos de linguagem são concebidos com intenção maliciosa. Frequentemente hospedados na dark web como serviços gratuitos ou pagos, os LLMs obscuros podem ajudar atacantes a identificar fraquezas de segurança, criar código para atacar sistemas ou conceber versões mais eficazes de ataques de phishing ou engenharia social.
Quais LLMs obscuros são os mais populares?
Com o uso de ferramentas disponíveis gratuitamente, juntamente com uma perícia tecnológica moderada, os atacantes podem criar o seu próprio LLM. No entanto, estes modelos não são todos iguais — tal como os seus equivalentes legítimos, a quantidade e qualidade dos dados utilizados para o treino afetam significativamente a precisão e eficácia dos seus resultados.
Os LLMs sombrios populares incluem:
- WormGPT – WormGPT é um LLM de código aberto com seis mil milhões de parâmetros. Está atrás de um paywall na dark web e permite aos utilizadores desbloquear o ChatGPT. Este LLM obscuro pode ser usado para elaborar e lançar ataques de comprometimento de email empresarial (BEC).
- FraudGPT – FraudGPT pode escrever código, criar páginas web falsas e descobrir vulnerabilidades. Está disponível tanto na dark web como através de serviços como o Telegram.
- DarkBard – Baseado no chatbot de IA da Google, Bard, este LLM dark oferece funcionalidades semelhantes ao FraudGPT.
- WolfGPT – Um recém-chegado relativo ao espaço LLM obscuro, o WolfGPT é codificado em Python e anunciado como uma alternativa ao ChatGPT, sem as restrições.
Estes quatro são apenas uma amostra dos LLMs obscuros disponíveis. Normalmente, utilizadores maliciosos pagam para aceder a estas ferramentas através da dark web. São provavelmente usados como pontos de partida para ataques de rede — maus atores podem pedir a estes LLMs para descobrir falhas na cibersegurança ou escrever e-mails de phishing de alta qualidade que são difíceis para o pessoal identificar.
Como podem as empresas mitigar os riscos dos LLM obscuros?
Dark LLMs fornecem boas respostas a perguntas ruins, dando aos atacantes uma vantagem na criação de código malicioso e na identificação de vulnerabilidades de software. Além disso, quase qualquer LLM pode ser transformado em "dark" usando o prompt de jailbreak certo.
No geral, parece bastante sombrio, certo? Não exatamente.
Isto porque os LLMs são excelentes a melhorar o código e a sugerir novas vias de ataque, mas eles não se saem tão bem no mundo real quando deixados por conta própria. Por exemplo, o Chicago Sun-Times publicou recentemente uma lista de livros obrigatórios para o verão. A advertência? A lista foi criada por IA, e a maioria dos livros nela não são reais. A gigante de fast-food McDonald's, por sua vez, deixou a IA solta nos pedidos de drive-thru, o que lutou para que a solução entendesse o que as pessoas estavam a dizer ou adicionasse os itens certos ao seu pedido. Num caso, a interface adicionou 260 nuggets de frango (indesejados). As mesmas limitações aplicam-se aos LLMs obscuros. Embora possam ajudar a construir melhores ferramentas, estas ferramentas são mais eficazes nas mãos dos humanos.
Esta é uma boa notícia para as empresas. Embora a ameaça dos LLMs obscuros continue a ser preocupante, as mesmas práticas que mantêm os dados seguros agora ajudarão a defender os ativos contra ataques impulsionados por LLMs. As melhores práticas incluem:
1. Se vires algo, diz alguma coisa
Os humanos continuam a ser um componente chave de uma defesa eficaz. Considere os emails de phishing. Por mais bem elaborados que sejam, eles exigem interação humana para serem bem-sucedidos. Ao formar o pessoal para reconhecer os traços característicos dos esforços de phishing — e, mais importante, dizer algo quando veem algo errado — as empresas podem reduzir significativamente o seu risco.
2) Voltar ao básico
Quando em dúvida, volte ao básico. Práticas de segurança fundamentais, como encriptação forte, autenticação robusta e confiança zero, são tão eficazes contra ataques impulsionados por IA quanto contra vetores de ameaça mais comuns.
3) Mantenha-se à frente do jogo
As ferramentas de IA ajudam os cibercriminosos a criar códigos melhores e a produzir falsificações mais convincentes. Mas isso não os torna invisíveis. Usando ferramentas avançadas de deteção e resposta a ameaças, as empresas estão mais bem preparadas para prever e deter ameaças. As empresas também podem aproveitar o poder da segurança habilitada por IA para superar a inteligência maliciosa.
Em resumo? A IA é tanto uma bênção como uma maldição para as empresas. Para cada uso ético, há um equivalente malicioso, e os LLMs obscuros são apenas a mais recente iteração. Embora sejam preocupantes, não são imparáveis. Ao combinar a supervisão humana com boas práticas de segurança e ferramentas avançadas de deteção, as empresas podem iluminar os esforços dos atacantes e manter as trevas à distância.

O Relatório de Perspetivas sobre Ransomware 2025
Principais conclusões sobre a experiência e o impacto do ransomware nas organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.

Segurança de Vulnerabilidades Geridas: Remediação mais rápida, menos riscos, conformidade mais fácil
Veja como pode ser fácil encontrar as vulnerabilidades que os cibercriminosos querem explorar