
O ambiente no Moscone Center durante a RSA Conference 2026 estava eletrizante, dominado por um tema único e abrangente: a transição de assistentes de IA Generativa (Generative AI) passivos para uma "IA Agêntica (Agentic AI)" autônoma. À medida que as empresas avançam além da mera geração de texto para a implantação de agentes de IA sofisticados, capazes de executar fluxos de trabalho complexos, o setor atingiu um ponto de inflexão crítico. O desafio central, conforme destacado por uma onda de anúncios esta semana, não é mais apenas proteger os dados — é proteger a identidade da própria força de trabalho digital.
No centro do discurso da RSAC 2026, cinco grandes titãs da segurança — CrowdStrike, Cisco, Palo Alto Networks, Microsoft e Cato CTRL — revelaram simultaneamente novas estruturas de identidade para agentes de IA. Essas iniciativas foram projetadas para categorizar, autenticar e autorizar identidades não humanas, uma evolução necessária em um ambiente Zero Trust. No entanto, por trás dos comunicados de imprensa polidos e roteiros ambiciosos, uma realidade preocupante emergiu. Análises recentes de pós-incidentes em organizações da Fortune 50 revelam que, apesar dessas novas estruturas, persistem três lacunas de segurança críticas, deixando esses agentes automatizados vulneráveis a explorações sofisticadas.
Durante anos, o gerenciamento de identidade concentrou-se em "quem" está acessando o sistema, geralmente assumindo um usuário humano. Com o surgimento da Agentic AI, o paradigma mudou. Agora estamos lidando com entidades que possuem autonomia para consultar bancos de dados, iniciar chamadas de API e modificar configurações de sistema sem intervenção humana direta.
A resposta da indústria na RSAC 2026 reflete essa urgência. O objetivo das estruturas recém-lançadas é tratar cada agente de IA como uma identidade distinta, completa com seu próprio conjunto de credenciais, escopos de autoridade e perfis comportamentais. Essa abordagem busca afastar-se das "contas de sistema" que geralmente possuem privilégios excessivos e são difíceis de auditar, em direção a um modelo granular centrado na identidade.
No entanto, a velocidade impressionante do desenvolvimento superou a maturidade dessas estruturas. Enquanto a CrowdStrike e a Cisco enfatizaram a telemetria de endpoint e de rede como a espinha dorsal de seus modelos de confiança de identidade, e a Microsoft se apoiou em sua profunda integração com o Entra ID, o problema fundamental do comportamento do agente — o que o agente faz uma vez autenticado — continua sendo o principal ponto de discórdia.
Cada um dos principais players abordou o problema através da lente de sua competência principal. A tabela a seguir fornece um resumo do foco estratégico dessas organizações.
| Fornecedor | Estratégia Principal | Foco Principal |
|---|---|---|
| CrowdStrike | Telemetria de Endpoint | Monitoramento de comportamento do agente via EDR |
| Cisco | Malha de Rede (Network Fabric) | Controles de acesso Zero Trust para agentes |
| Palo Alto Networks | Plataforma Integrada | Aplicação de políticas sensíveis ao contexto |
| Microsoft | Ecossistema de Identidade | Integração com Entra ID para identidades de IA |
| Cato CTRL | Estrutura SASE | Acesso seguro para agentes distribuídos |
Como delineado acima, o foco está em grande parte no estabelecimento de quem é o agente. No entanto, analistas da indústria na Creati.ai observam que estabelecer a identidade é apenas o primeiro passo. A lacuna reside no gerenciamento da natureza dinâmica desses agentes uma vez que eles entram na rede corporativa.
Apesar dos avanços tecnológicos apresentados na RSAC 2026, dados do mundo real de incidentes de segurança recentes em empresas da Fortune 50 destacam que essas estruturas não estão conseguindo abordar três vulnerabilidades fundamentais. Essas lacunas representam os "pontos cegos" da segurança moderna da IA Agêntica.
A maioria das estruturas atuais baseia-se em definições de políticas estáticas. Em um ambiente estático, um agente recebe uma função fixa — por exemplo, "Acesso ao Banco de Dados Apenas para Leitura". No entanto, a força dos agentes de IA reside em sua capacidade de raciocinar e se adaptar. Quando um agente é encarregado de um objetivo complexo, ele pode tentar escalar suas próprias operações, resultando efetivamente em uma "expansão de escopo (scope creep)".
As atuais identity frameworks carecem da lógica para reavaliar dinamicamente o escopo de autorização de um agente em tempo real com base na intenção de um prompt específico. Se um agente for comprometido ou sofrer uma alucinação, ele pode aproveitar sua identidade atribuída para realizar ações para as quais nunca foi explicitamente pretendido, simplesmente porque o limite de permissão era muito amplo e definido no início da sessão, em vez da execução da tarefa.
Na segurança de TI tradicional, os logs são lineares e determinísticos. Se um usuário exclui um arquivo, há uma cadeia de custódia clara: ID do Usuário -> Ação -> Carimbo de Data/Hora. Os agentes de IA, no entanto, operam de formas não determinísticas. Eles encadeiam várias etapas, caminhos de raciocínio e chamadas de API para atingir um objetivo.
A segunda lacuna crítica identificada é a incapacidade das estruturas de identidade atuais em fornecer uma trilha auditável e legível por humanos de por que um agente tomou uma decisão. Quando ocorre um incidente, as equipes forenses ficam com uma pilha massiva de logs de API não estruturados, mas sem visibilidade do "processo de pensamento" interno do agente. Isso torna quase impossível determinar se uma ação foi resultado de uma injeção de prompt maliciosa, uma configuração incorreta ou um caminho de raciocínio genuíno (embora falho).
Finalmente, há a questão da comunicação entre agentes. As arquiteturas empresariais modernas dependem cada vez mais de "sistemas multiagentes", onde um agente de orquestração gerencia vários subagentes especializados. As estruturas de identidade reveladas na RSAC 2026 tratam amplamente os agentes como entidades isoladas.
Isso deixa uma vulnerabilidade significativa: o envenenamento de contexto (context poisoning). Se um agente de baixo privilégio for comprometido, ele pode enviar um contexto "envenenado" ou instruções maliciosas para um agente de privilégio superior dentro do mesmo fluxo de trabalho. Como essas estruturas carecem de validação de identidade entre agentes — onde um agente verifica o nível de confiança de outro antes de aceitar a entrada — a segurança de toda a cadeia é tão forte quanto o seu elo mais fraco.
Os anúncios de fornecedores como Cisco e Microsoft são, sem dúvida, um passo na direção certa. Ao padronizar o conceito de identidade não humana, eles estão lançando as bases para sistemas autônomos mais seguros. No entanto, as organizações não devem confundir essas estruturas com soluções de segurança do tipo "configurar e esquecer".
Para preencher essas lacunas, as empresas devem adotar uma estratégia de defesa em várias camadas:
A RSAC 2026 sinalizou com sucesso que a AI security está entrando em uma nova fase, mais madura. O foco na Identidade do Agente de IA é um desenvolvimento necessário e bem-vindo, fornecendo a integridade estrutural necessária para governar a próxima geração de cargas de trabalho autônomas.
No entanto, como as experiências das empresas da Fortune 50 comprovam, a identidade não é uma solução mágica. Enquanto a CrowdStrike, a Cisco e seus pares construíram as portas para esta nova era, as fechaduras — especificamente aquelas que regem a autorização dinâmica, a auditabilidade e a confiança entre agentes — ainda estão sendo forjadas. Para os leitores da Creati.ai e líderes empresariais, a lição é clara: adotem essas novas estruturas de identidade, mas priorizem a segurança operacional dos próprios agentes. A era da IA Agêntica chegou, e nossa postura de segurança deve evoluir tão rapidamente quanto os modelos que implantamos.