
É hora de aquela conversa pendente sobre IA.
É oficialmente mais do que tempo de os profissionais de cibersegurança terem uma conversa adulta com os líderes empresariais sobre a necessidade de implementar controlos e processos para proteger plataformas e serviços de inteligência artificial.
Como de costume, as equipas de cibersegurança estão mais uma vez a responder a mais uma tecnologia emergente que está a ser amplamente utilizada sem grande consideração pelas implicações de cibersegurança. O desafio é que plataformas como o ChatGPT estão facilmente acessíveis aos utilizadores finais, que nem sempre estão cientes dos riscos potenciais. Algumas organizações chegaram mesmo a proibir o uso destes serviços até conseguirem implementar alguns controlos, mas, como sempre, os serviços em cloud continuam a exacerbar os desafios do shadow IT.
A questão mais imediata é garantir que dados sensíveis não sejam introduzidos num prompt usado para gerar texto, código e, em breve, vídeo. Embora os fornecedores de serviços de IA generativa garantam, se as configurações corretas estiverem ativadas, que os dados usados num prompt não serão utilizados para treinar a próxima iteração dos seus modelos de IA, a maioria dos utilizadores finais não lê os termos de serviço com tanta atenção. Na verdade, a Federal Trade Commission acabou de avisar os fornecedores de serviços de IA para não alterarem esses termos e condições no futuro para ganhar acesso a esses dados.
É claro que as equipas de cibersegurança experientes não deixarão ao acaso a observância dos termos e condições. Já existem várias variações de ferramentas de prevenção de perda de dados (DLP) especificamente concebidas para garantir que dados sensíveis, como números de segurança social ou, pior ainda, propriedade intelectual proprietária, não se encontrem num prompt.
Onde as coisas se tornam mais desafiadoras é quando as organizações começam a personalizar ou construir um modelo de linguagem grande (LLMs) usando os seus próprios dados. Os modelos de IA criados estarão entre a propriedade intelectual mais valiosa que qualquer organização possui, por isso é apenas uma questão de tempo até que ciberciminosos lancem ataques de phishing para roubar credenciais que lhes darão acesso. Uma vez que tenham essas credenciais, podem contentar-se em tentar lançar um ataque de ransomware para encriptar dados valiosos ou envenenar o conjunto de dados que está a ser usado para treinar um modelo de IA, para garantir que ele alucina aleatoriamente.
Pior ainda, podem simplesmente roubar todo o LLM e depois vendê-lo ao licitador mais alto que conseguirem encontrar na Dark Web.
Infelizmente, as equipas de ciência de dados que constroem modelos de IA não têm muita experiência em cibersegurança, pelo que estão propensas a cometer erros que podem facilmente revelar-se devastadores quando se descobre que um modelo de IA está comprometido ou a ser utilizado para fins maliciosos. Tal como os desenvolvedores de aplicações que não têm a experiência em cibersegurança necessária para construir e implementar aplicações seguras, os cientistas de dados precisarão de contar com profissionais de cibersegurança para os ajudar a proteger os fluxos de trabalho das operações de aprendizagem automática (MLOps) utilizados para construir modelos.
O Centro Nacional de Cibersegurança do Reino Unido publicou este mês um guia que as equipas de cibersegurança podem utilizar para enquadrar conversas com líderes empresariais sobre a natureza das ameaças que uma organização é suscetível de enfrentar ao adotar IA. Esse guia é baseado em um conjunto de melhores práticas para proteger ambientes de IA que foi criado em colaboração com a Agência de Cibersegurança e Segurança de Infraestruturas (CISA) e foi publicado no final do ano passado.
É claro que muitos líderes empresariais estão envolvidos numa onda de exuberância irracional em torno da IA, por isso conseguir que eles dediquem o tempo necessário para apreciar as implicações de cibersegurança nem sempre será fácil. No entanto, como sempre, ser o adulto na sala ainda faz parte da descrição do trabalho de cibersegurança.

O Relatório de Perspetivas sobre Ransomware 2025
Principais conclusões sobre a experiência e o impacto do ransomware nas organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.

Segurança de Vulnerabilidades Geridas: Remediação mais rápida, menos riscos, conformidade mais fácil
Veja como pode ser fácil encontrar as vulnerabilidades que os cibercriminosos querem explorar