Previsões de segurança de linha de frente 2026: A batalha pela realidade e controlo num mundo de IA agencial
Um olhar sobre como a IA agentiva transformará as ameaças e defesas cibernéticas em 2026
Principais conclusões
- Maneiras como a IA agencial está a moldar a evolução do panorama de ameaças
- Como as organizações podem defender-se contra ameaças de IA agentic
- Estratégias para proteger implementações de IA agente
- Como a IA agente ajudará a melhorar a segurança
O poder e potencial da IA agente — adaptativa, automatizada e independente — dominaram as conversas sobre segurança durante 2025. A Barracuda perguntou a quatro colegas que lideram áreas de ciberameaças e segurança em todo o mundo, o que esperam da IA agente em 2026 e o que isso significa para a cibersegurança.
Entre eles, antecipam um futuro onde:
- ·Um operador de IA agente irá executar ciberataques de ponta a ponta, reunindo o que precisa, criando iscas convincentes, tentando um caminho, observando como a proteção ou defesa do alvo reage, depois mudando silenciosamente de táticas e timing até conseguir o que deseja. Os defensores devem esperar novos tipos de ataques e táticas que não se assemelham a nada que já tenham visto e podem ser difíceis de explicar depois do fato. (Yaz Bekkar)
- A IA Agente irá analisar vastas quantidades de dados para identificar vulnerabilidades em tempo real, permitindo que os atacantes automatizem a forma como exploram fraquezas de forma mais eficaz. (Jesus Cordero-Guzman)
- A IA manterá conversas com humanos, tanto por voz como por mensagens, a um nível que torna quase impossível para as pessoas perceberem que não estão a conversar com uma pessoa real. (Eric Russo)
- Múltiplos agentes de IA irão trabalhar em conjunto em ações para alcançar um objetivo específico, com supervisão humana mínima ou inexistente. Isto abre a possibilidade de sequestrar ou envenenar interações agente-a-agente, usando informações controladas por atacantes para manipular as ações coordenadas. A ausência de humanos no loop pode atrasar a deteção e mitigação. (Rohit Aradhya)
- A liderança em cibersegurança será sobre liderar agentes de IA, bem como pessoas. A nova geração de gestores precisará aprender a incluir agentes de IA nas suas equipas e geri-los para melhorar a produtividade e a tomada de decisões. (Jesus Cordero-Guzman)
O que significa a IA agente para a evolução do panorama de ameaças em 2026 e além?
Yaz Bekkar, arquiteto consultor principal XDR, EMEA. No próximo ano, os ataques não vão apenas usar IA, a IA irá comportar-se como um operador independente, fazendo escolhas em tempo real para atingir o objetivo do ataque. Já estamos a ver a IA a automatizar partes do kill chain, como reconhecimento, phishing e evasão básica de defesa. Acredito que a mudança em 2026 será em direção a sistemas que planeiam etapas, aprendem com as defesas em tempo real e redirecionam sem intervenção humana.
O operador de IA irá conduzir o espetáculo de ponta a ponta, reunindo o que precisa, criando iscas convincentes, tentando um caminho, observando como a sua proteção ou defesas reagem, depois ajustando silenciosamente as táticas e o timing até conseguir o que deseja. Estas ferramentas de hacking avançadas parecerão um cérebro coordenado que encadeia passos, aprende com cada obstáculo e se mistura com a atividade normal.
Os defensores devem esperar novos tipos de ataques e táticas que não se assemelham a nada que tenham visto e que podem ser difíceis de explicar posteriormente. A superfície de ataque continua a expandir-se, criando lacunas conhecidas e desconhecidas, e a exploração de zero-day aumentará.
Eric Russo, diretor, segurança defensiva SOC. A IA avançou tão rapidamente que pode manter conversas com humanos, tanto em voz como em mensagens, a um nível que é quase impossível para as pessoas perceberem que não estão a conversar com uma pessoa real. Os utilizadores de Android, por exemplo, podem agora aproveitar as capacidades de IA da Google para atender chamadas telefónicas de números desconhecidos, fazer perguntas, ter uma conversa e determinar se a chamada é legítima. A tecnologia é extremamente impressionante — mas agora imagine um agente de ameaça a usar essa mesma tecnologia.
A AI agentic poderia ser utilizada para transformar abordagens tradicionais de ataque. Por exemplo, num ataque de engenharia social contra um membro da equipa financeira para obter números de contas bancárias corporativas. Ou poderia haver objetivos mais intrincados, como usar a falsificação de identidade com deepfake para enganar um administrador de help desk a redefinir a MFA, dando a um ator de ameaça acesso aos sistemas de TI e permitindo que um ataque mais elaborado se desenrole.
Jesus Cordero-Guzman, diretor, arquitetos de soluções para segurança de aplicações, rede e XDR, EMEA. A IA autónoma já é uma realidade e, como ameaça, evoluirá rapidamente. Pode analisar vastas quantidades de dados para identificar vulnerabilidades em tempo real, permitindo que os atacantes automatizem a forma como exploram as fraquezas de forma mais eficaz. Xanthorox, uma plataforma de inteligência artificial auto-hospedada e construída propositadamente para facilitar o cibercrime, surgiu no início de 2025. Existem também HexStrike e a ainda mais avançada Venice.AI. A IA agentic pode ser armada para ataques de phishing automatizados, monitorização em tempo real das defesas e até mesmo a capacidade de decifrar CAPTCHAs para obter acesso não autorizado.
Rohit Aradhya, VP e diretor-geral, engenharia de segurança de aplicações. A evolução da IA agentic levará a um aumento no malware polimórfico adaptativo — malware que pode analisar o ambiente da vítima e as ferramentas de segurança e reescrever ou alterar autonomamente o seu próprio código e comportamento para contornar defesas baseadas em assinaturas e comportamentais em tempo real.
Veremos vários agentes a trabalhar em conjunto em ações para alcançar um objetivo específico, com supervisão humana mínima ou inexistente. Isto abre a possibilidade de sequestrar ou envenenar interações entre agentes, utilizando informações controladas por atacantes para manipular as ações coordenadas. A ausência de humanos no processo pode atrasar a deteção e mitigação.
Veremos também um aumento significativo no uso indevido de interfaces de programação de aplicações (APIs) voltadas para o público, gateways de API, APIs de serviço agentic e interfaces de utilizador baseadas em chatbot. Tornar-se-á crítico para a gestão do ciclo de vida das APIs lidar com a manipulação dinâmica de APIs, à medida que as ferramentas agentic criam e destroem dinamicamente interfaces de API entre agentes e com utilizadores para fornecer e consumir serviços.
Como podem as organizações defender-se contra ameaças baseadas em IA agentic e proteger os seus próprios sistemas de IA agentic?
Yaz Bekkar. A maioria das empresas não verá a IA agente a chegar. É um pouco como o gato de Schrödinger: O ambiente de TI parecerá simultaneamente “seguro” e “comprometido”, sem pistas claras para os defensores.
A única defesa realista é a deteção baseada em comportamentos, impulsionada por IA ajustada ao seu ambiente, e não uma ferramenta comprada e deixada nas definições padrão enquanto espera que funcione. Escolha a solução certa, implemente-a bem e continue a refiná-la. A verdadeira resiliência vem da combinação: tecnologia forte mais uma elevada perícia na sua operação, dia após dia.
As organizações precisam de ir além das ferramentas pontuais isoladas para uma plataforma com verdadeira visibilidade de ponta a ponta. Isto inclui identidades, endpoints, SaaS, cloud, email e tráfego de rede. Também é necessário apoiar-se em uma IA analítica orientada por comportamento que aprende como é o normal para si e pode detetar anomalias e padrões de estilo zero-day sem esperar por assinaturas. Mantenha os humanos envolvidos no processo.
Jesus Cordero-Guzman. Os mecanismos de defesa tradicionais podem ter dificuldade em acompanhar a velocidade e adaptabilidade das ameaças impulsionadas por IA. As organizações precisarão investir em soluções de segurança avançadas que incorporem IA para a deteção e resposta a ameaças, garantindo que possam contrariar estas ameaças em evolução de forma eficaz.
O que devem as organizações fazer para proteger as suas próprias implementações de IA agencial?
Jesus Cordero-Guzman. A liderança em Cibersegurança consistirá em liderar agentes de IA assim como pessoas. Os gestores da nova geração precisam de aprender a incluir agentes de IA como parte das suas equipas e a geri-los para melhorar a produtividade e a tomada de decisões.
Precisamos aprender mais sobre proficiência técnica, processamento de linguagem natural e análise de dados para dar aos agentes de IA o ‘caráter’ necessário para o modelo de negócios organizacional. Este é um desafio não apenas operacional, mas também ético. Precisamos garantir que os agentes de IA integrados sejam usados de forma responsável e que as decisões tomadas por esses sistemas estejam alinhadas com os valores organizacionais e as normas sociais. À medida que a IA continua a evoluir, também evoluirá o papel da liderança na navegação deste cenário dinâmico em cibersegurança.
Rohit Aradhya. À medida que as organizações começam a implementar IA agentiva, será necessário um conjunto de controlos de segurança específicos da IA. Estes incluem uma gestão robusta de identidade e acesso (IAM) para agentes de IA. Cada agente deve ser tratado como uma entidade independente com utilizadores, grupos e privilégios de acesso a recursos associados. As organizações precisarão de expandir a sua estrutura de confiança zero para agentes e ferramentas de IA; para verificar e validar cada pedido e ação que um agente tenta, independentemente do seu comportamento anterior. Será necessário aumentar o foco na monitorização do comportamento operacional dos sistemas, para que quaisquer desvios sejam detetados rapidamente. As comunicações agente-a-agente precisam de ser seguras, devidamente autenticadas, encriptadas e registadas para rastreabilidade e explicabilidade e para proteger contra o tipo de ataques concebidos para envenenar comunicações. Por último, mas não menos importante, as organizações precisam de garantir que compreendem e cumprem normas como o Quadro de Gestão de Riscos de IA da NIST.
Para além do risco, como irá a IA agente ajudar a melhorar a segurança?
Eric Russo. A Agentic AI será uma ferramenta poderosa para as equipas SOC. Apresenta uma oportunidade de reduzir a carga de trabalho reativa a que as equipas SOC estão sujeitas, aumentando a capacidade de recursos para iniciativas de segurança mais proativas, como investigação de ameaças, engenharia de deteção, etc. Por exemplo, muitas tarefas relacionadas com a gestão administrativa dos sistemas de segurança podem ser geridas pela agentic AI. Agora, o tempo que um analista ou engenheiro SOC teria tradicionalmente necessitado para concluir essa tarefa manualmente pode ser utilizado para se concentrar numa ameaça emergente.
Outro caso de uso para IA na defesa de segurança é expandir o aprendizado de máquina na deteção de ameaças. Os mecanismos de deteção tradicionais são mais estáticos por natureza. Contudo, construir algoritmos de ML que possam estabelecer linhas de base para o comportamento do utilizador, tráfego de rede, etc., e depois definir critérios para pontuação de anomalias para permitir que os sistemas decidam quando deve haver um alerta de segurança, é uma abordagem muito eficaz para detetar atores de ameaças sofisticados. Esta abordagem também tem o benefício de gerar alertas com maior confiança, o que reduz a fadiga de alerta e os falsos positivos.
O Relatório de Invasão de Segurança de E-mail de 2025
Principais conclusões sobre a experiência e o impacto das violações de segurança de e-mail em organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.
Relatório de Insights do Cliente MSP 2025
Uma visão global sobre o que as organizações precisam e desejam dos seus provedores de serviços geridos de cibersegurança