
Modelos de linguagem pequenos trazem grandes benefícios para os negócios
Uma pesquisa recente revelou que a maioria dos líderes globais de TI estão preocupados que as suas empresas fiquem "para trás" se não adotarem a inteligência artificial (IA). Mais de metade destes líderes também afirmam que a pressão dos clientes é um fator crucial para a adoção da IA e que a IA é fundamental para melhorar a eficiência e o serviço ao cliente dentro da empresa. A maioria das empresas vê a adoção da IA como um requisito para manter uma vantagem competitiva.
Apesar do entusiasmo, muitas empresas têm preocupações com os custos de implementação, uso indevido por parte dos funcionários e possíveis questões de conformidade. O relatório de agosto de 2024 State of Intelligent Automation Report da ABBY mostra como estas preocupações são classificadas entre os inquiridos na pesquisa.
O relatório também destaca que os líderes de TI têm um alto nível de confiança em modelos de linguagem pequena (SLMs) em comparação com outros tipos de IA. Uma descoberta chave é que o setor de manufatura exibe a maior confiança em SLMs com 92%, seguido de perto pelos serviços financeiros e TI com 91%.
O que é um pequeno modelo de linguagem?
Um pequeno modelo de linguagem (SLM) é uma rede neural concebida para gerar conteúdo de linguagem natural, mas com menos parâmetros do que modelos de linguagem grandes (LLMs). Voltaremos ao significado dos parâmetros, mas aqui está uma rápida olhada nas diferenças entre SLMs e LLMs:
Finalidade/Casos de Uso:
- SLMs: Tarefas específicas de domínio, computação de edge, ambientes com recursos limitados. O treino é focado em conjuntos de dados específicos do domínio. Os SLMs frequentemente fornecem respostas/inferências mais rápidas e menor latência. As implementações de domínio e endpoint são mais adequadas para lidar com dados sensíveis, pois os dados permanecem locais.
- LLMs: Tarefas gerais de linguagem, raciocínio complexo. O treino é baseado em grandes e diversificados conjuntos de dados, proporcionando-lhes um conhecimento mais amplo e maior flexibilidade. Os grandes modelos de linguagem também são melhores em tarefas complexas do que os SLMs mais leves e focados no domínio, mas os LLMs podem também exigir que dados sensíveis sejam enviados para a cloud para processamento.
Requisitos Operacionais:
- SLMs: Menor poder computacional, menos memória e adequado para implementar no local ou em dispositivos de borda. Os SLMs são quase sempre mais rentáveis para treinar e executar em produção.
- LLMs: Elevado poder computacional, grandes requisitos de memória e custos operacionais e de formação mais elevados.
Agora, vamos voltar aos parâmetros. Estes são valores numéricos que determinam como um SLM ou LLM processa a entrada e gera a saída. Existem outliers, mas os SLMs geralmente têm menos de 100 milhões de parâmetros, enquanto os LLMs costumam ter bilhões ou trilhões. Uma maneira simples de ilustrar a relação entre um parâmetro e um modelo de linguagem é usar o exemplo de uma biblioteca. Uma biblioteca médica ou jurídica pode ter centenas ou milhares de livros diretamente relevantes para o seu campo específico. Uma grande biblioteca com recursos sobre todos os assuntos terá mais livros (parâmetros), mas nem todos são relevantes para os seus interesses. A biblioteca maior requer mais recursos para gerir, mas também pode fornecer informações sobre mais tópicos.
Os parâmetros são o "conhecimento" que o modelo de linguagem aprendeu durante o seu treino. Se a sua empresa precisar de tecnologia de IA que possa realizar um conjunto limitado de tarefas com muita eficácia, o modelo de linguagem pequeno com menos parâmetros pode ser adequado às suas necessidades.
Segurança de dados e transparência
Como os SLMs são treinados em dados limitados e podem ser implementados em dispositivos de borda, esses modelos podem ser mais aceitáveis para empresas preocupadas com segurança e conformidade. Os dados são processados localmente, o que torna mais fácil auditar, controlar e monitorizar os processos de tomada de decisão do modelo. O ambiente regulatório de IA está a mudar rapidamente, e muitos governos já implementaram regulamentos de transparência. Por exemplo:
O Ato da IA da União Europeia (UE) (2024) exige que os utilizadores sejam informados quando estão a interagir com sistemas de IA em certas aplicações. Também exige que as empresas que operam sistemas de IA de alto risco forneçam documentação sobre certos aspetos desses sistemas.
Utah, Colorado, e California estão entre os primeiros nos Estados Unidos (EUA) a desenvolver regulamentos sobre a transparência dos sistemas de IA e uso. Estes regulamentos podem exigir a divulgação do uso de IA, políticas de gestão de riscos, e proteção contra preconceitos nos sistemas de IA.
Fornecedores de tecnologia e associações publicaram as suas próprias diretrizes sobre governança e ética da IA, que podem incluir a transparência como um elemento fundamental para a adoção.
Esta pressão pela transparência causa um tipo diferente de preocupação para os desenvolvedores e empresas que trabalham com IA. Modelos de linguagem pequenos ou grandes proprietários podem ser considerados propriedade intelectual (PI) e uma vantagem competitiva. As empresas normalmente não querem divulgar os detalhes desses ativos. Existe também uma preocupação legítima de segurança em fornecer demasiada informação sobre um modelo de linguagem. Os agentes de ameaça podem usar essa informação para atacar ou fazer uso indevido do modelo.
Outras preocupações sobre a regulação de transparência incluem a complexidade dos modelos, que torna difícil explicar a informação necessária a alguém que não tem formação na tecnologia. Esta complexidade e a falta de normas universalmente aceites para IA deixam muitos preocupados que a conformidade com as regulamentações de transparência possa tornar-se um obstáculo para a inovação e implementações.
Computação de Borda
A computação de borda está a crescer a um ritmo ridículo, em grande parte devido às iniciativas Industry 4.0 e à proliferação de dispositivos e controladores conectados à internet nos setores de manufatura, energia e transportes. Os avanços na tecnologia 5G e os benefícios do processamento em tempo real em dispositivos remotos também contribuíram para este crescimento. A pandemia de COVID-19 acelerou a adoção da computação de borda para apoiar o trabalho remoto, mas este fator é muito menos significativo do que o crescimento na Internet das Coisas (IoT) e na Internet das Coisas Industrial (IIoT).
Modelos de linguagem pequenos são uma solução quase perfeita para dispositivos de computação de ponta, e a IA de ponta continua a melhorar. Ainda assim, há algumas limitações a considerar. Os SLMs para dispositivos de ponta frequentemente exigem atualizações e ajustes mais frequentes, o que pode ser desafiador em dispositivos com conectividade limitada. Os SLMs também atingem seus limites de desempenho mais rapidamente quando os requisitos de processamento de dados aumentam. E, embora os SLMs geralmente ofereçam maior privacidade, os dados transmitidos da ponta podem ser expostos à nuvem.
Crescimento contínuo para SLMs
Não há dúvida de que a adoção empresarial de pequenos modelos de linguagem continuará a crescer, e não é apenas impulsionada por edge AI e IIoT. A automação do serviço ao cliente, a tradução de idiomas, a análise de sentimento e outros casos de uso específicos contribuirão para este crescimento. A Microsoft, o Google e outros fornecedores de IA acreditam que os SLMs oferecem um "resultado mais preciso a um custo muito mais baixo", e uma mudança em direção a um portfólio de modelos que permite às empresas escolher a melhor opção para os seus cenários.
Se gostaria de saber mais sobre SLMs e como funcionam, estes sites podem ajudar:
IBM: Os modelos de linguagem maiores são sempre melhores?
Salesforce: Pequenos Titãs: Como os Modelos de Linguagem Pequenos Superam os LLMs por Menos
HatchWorksAI: Como usar modelos de linguagem pequenos para necessidades específicas em 2024
Microsoft: Pequenos mas poderosos: Os pequenos modelos de linguagem Phi-3 com grande potencial

O Relatório de Perspetivas sobre Ransomware 2025
Principais conclusões sobre a experiência e o impacto do ransomware nas organizações em todo o mundo
Subscreva o Blogue Barracuda.
Inscreva-se para receber destaques sobre ameaças, comentários do setor e muito mais.

Segurança de Vulnerabilidades Geridas: Remediação mais rápida, menos riscos, conformidade mais fácil
Veja como pode ser fácil encontrar as vulnerabilidades que os cibercriminosos querem explorar