
A Anthropic, amplamente considerada a consciência da corrida da IA generativa (Generative AI) preocupada com a segurança, lançou a terceira iteração de sua Política de Escalonamento Responsável (RSP v3). A atualização, que reestrutura fundamentalmente a forma como a empresa lida com riscos catastróficos de IA, chega em um momento de intensa fricção geopolítica e comercial. Enquanto a empresa enfrenta um suposto ultimato do Departamento de Defesa dos EUA em relação ao uso militar de sua tecnologia, a remoção de sua promessa de segurança "carro-chefe" — pausar o desenvolvimento se a segurança não puder ser garantida — atraiu um escrutínio rigoroso de observadores do setor.
Desde a sua criação, a RSP da Anthropic foi definida por um mecanismo de "compromissos condicionais". Sob a RSP v2 anterior, a empresa prometia interromper o treinamento ou a implantação de novos modelos se eles cruzassem limites específicos de "AI Safety Level" (ASL) sem as salvaguardas correspondentes em vigor. Essa abordagem de "tripwire" foi projetada para priorizar a segurança em detrimento da velocidade competitiva.
Com a RSP v3, a Anthropic se afastou dessas interrupções rígidas. A empresa argumenta que pausas unilaterais são ineficazes em um mercado onde os competidores continuam a avançar. Em vez disso, a nova política enfatiza a transparência e a definição pública de metas.
Componentes Principais da RSP v3:
Os executivos da Anthropic enquadraram essa mudança como uma resposta "pragmática" à realidade. Em uma postagem de blog que acompanha o lançamento, a empresa observou que "interromper o treinamento de modelos de IA não ajudaria ninguém, na verdade" se outros desenvolvedores com menos escrúpulos continuassem a avançar. Eles citaram o fracasso de uma "corrida para o topo" — onde os competidores emulariam as restrições de segurança da Anthropic — como o principal motor da mudança.
A tabela a seguir descreve as mudanças estruturais entre a política anterior e a versão recém-lançada.
| Recurso/Compromisso | RSP v2 (Anterior) | RSP v3 (Atual) |
|---|---|---|
| Mecanismo Central | Pausa Condicional (Tripwires de ASL) | Transparência e Roteiros |
| Promessa de Segurança | Parar o treinamento se a segurança não for garantida | Metas unilaterais pragmáticas |
| Documentação | Avaliações internas e limites definidos | Roteiros de Segurança de Fronteira Públicos |
| Relatórios de Risco | Foco ad-hoc e interno | Relatórios de Risco Públicos Sistemáticos (3-6 meses) |
| Estratégia do Setor | Liderar pelo exemplo (Corrida para o Topo) | Mudança para competitividade nacional |
O timing da RSP v3 é impossível de dissociar do impasse crescente entre a Anthropic e os militares dos EUA. Relatórios confirmam que o Secretário de Defesa Pete Hegseth se reuniu recentemente com o CEO da Anthropic, Dario Amodei, entregando um ultimato contundente: suspender as restrições ao uso militar dos modelos Claude ou enfrentar consequências graves.
O Pentágono está supostamente exigindo que a Anthropic permita que sua IA seja usada para "qualquer propósito legal", efetivamente retirando da empresa o seu direito de vetar aplicações militares específicas. A Anthropic historicamente manteve "linhas vermelhas" estritas contra o uso de sua tecnologia para:
O Departamento de Defesa ameaçou invocar a Lei de Produção de Defesa (Defense Production Act - DPA) — uma lei da era da Guerra da Coreia que permite ao Presidente obrigar empresas privadas a priorizar contratos de defesa nacional. Além disso, autoridades levantaram a possibilidade de designar a Anthropic como um "risco à cadeia de suprimentos", o que efetivamente colocaria a empresa em uma lista negra de todos os contratos federais, custando-lhes potencialmente centenas de milhões em receita e excluindo-os do lucrativo setor governamental.
Críticos argumentam que o afrouxamento dos compromissos de "pausa" da RSP cria uma brecha política conveniente. Ao remover o requisito estrito de interromper a implantação com base em limites de segurança internos, a Anthropic pode estar se posicionando para acomodar as demandas do Pentágono sem violar tecnicamente sua própria constituição de segurança.
A revisão da RSP destaca uma tensão crescente na indústria de IA: o "excesso de capacidade" (capability overhang). Este termo refere-se à lacuna entre o poder bruto de um modelo de IA e os mecanismos de segurança disponíveis para controlá-lo. A política anterior da Anthropic foi projetada para evitar que esse excesso crescesse demais. Ao remover o freio brusco, a empresa está aceitando implicitamente um nível mais alto de risco para permanecer competitiva contra rivais como OpenAI e xAI, que já garantiram extensos contratos de defesa.
Por que isso importa para o ecossistema de IA:
A RSP v3 da Anthropic representa uma percepção madura, embora cínica, do cenário da IA em 2026. O idealismo de 2023 — onde uma única empresa poderia guiar a indústria em direção à segurança por meio de liderança moral — colidiu com as duras realidades da competição entre grandes potências e da necessidade militar. Embora a introdução de Relatórios de Risco e Roteiros de Segurança de Fronteira ofereça uma nova camada de transparência, a remoção da "promessa de segurança" vinculativa marca o fim de uma era. Enquanto o Pentágono se agiganta, a Anthropic não está mais tentando atrasar o trem; ela está apenas prometendo soar o apito com mais força à medida que ele acelera.