
Em uma mudança significativa na liderança técnica da OpenAI, Max Schwarzer, Vice-Presidente de Pesquisa e Chefe de Pós-Treinamento (Post-training), renunciou para se juntar ao laboratório rival Anthropic. O anúncio, feito via X (antigo Twitter) em 3 de março de 2026, ocorre poucas horas após a OpenAI oficializar uma parceria controversa com o Departamento de Guerra dos EUA (anteriormente Departamento de Defesa), um acordo que gerou um intenso debate sobre a militarização da inteligência artificial.
A partida de Schwarzer marca a mais recente saída de alto perfil no que analistas da indústria estão chamando de uma "migração impulsionada por valores" da OpenAI para a Anthropic. Embora Schwarzer tenha citado publicamente o desejo de retornar à pesquisa como contribuidor individual (Individual Contributor - IC) em aprendizado por reforço (Reinforcement Learning), o momento de sua renúncia — coincidindo com a reação pública contra o novo alinhamento militar da OpenAI — atraiu um escrutínio severo da comunidade de IA.
Max Schwarzer deixa para trás um legado monumental na OpenAI. Como Chefe de Pós-Treinamento, ele foi diretamente responsável pelo refinamento e alinhamento de segurança dos modelos mais avançados da empresa. Seu mandato supervisionou a entrega de toda a linhagem GPT-5 (incluindo o GPT-5.1, 5.2 e o 5.3-Codex especializado em codificação) e a série-o focada em raciocínio (o1 e o3).
"Estou incrivelmente orgulhoso de todo o trabalho do qual fiz parte aqui", escreveu Schwarzer em sua declaração de despedida. Ele destacou suas contribuições para a criação do paradigma de raciocínio ao lado de colegas e para o escalonamento da computação em tempo de teste. No entanto, sua declaração enfatizou notavelmente o apelo da cultura da Anthropic: "Muitas das pessoas em quem mais confio e respeito se juntaram à Anthropic nos últimos dois anos".
A mudança de Schwarzer não é meramente uma alteração administrativa; ela representa uma transferência de conhecimento institucional crítico. O Pós-treinamento é a fase em que os modelos brutos de IA são aprimorados em termos de comportamento, segurança e utilidade — dando efetivamente ao modelo sua "personalidade" e restrições éticas. Ao mudar-se para a Anthropic, Schwarzer leva consigo uma profunda expertise nos métodos proprietários usados para alinhar o GPT-5 e o o3, reforçando a equipe de pesquisa já formidável da Anthropic.
O contexto da renúncia de Schwarzer não pode ser dissociado da tempestade geopolítica que atualmente envolve o Vale do Silício. No início desta semana, o Pentágono — referido em atualizações de documentos oficiais recentes como o Departamento de Guerra — anunciou uma mudança decisiva em sua estratégia de aquisição de IA.
Seguindo uma diretriz do governo Trump, as agências federais foram instruídas a cessar contratos com a Anthropic após a empresa se recusar a abrir mão de suas "linhas vermelhas" em relação à vigilância em massa e armamentos autônomos. A recusa da Anthropic em modificar seus Termos de Serviço para acomodar as amplas demandas de acesso do Departamento levou a um rápido "descarte" de seus serviços.
A OpenAI, inversamente, preencheu o vácuo. O CEO Sam Altman confirmou um novo acordo permitindo a implementação dos modelos da OpenAI em redes classificadas. Embora Altman tenha admitido posteriormente que a gestão inicial do anúncio foi "oportunista e descuidada", e esclarecido que o acordo inclui salvaguardas contra vigilância doméstica, a imagem pública foi prejudicada.
A tabela a seguir descreve os caminhos divergentes tomados pelas duas gigantes da IA em relação à colaboração militar, uma cisão que parece estar impulsionando decisões de talentos.
Tabela: O impasse militar OpenAI vs. Anthropic (Março de 2026)
| Recurso | Postura da OpenAI | Postura da Anthropic |
|---|---|---|
| Status do Contrato | Assinou acordo de implementação classificada (Março de 2026) | Negociações de contrato colapsaram/Encerradas |
| Objeção Principal | Nenhuma; cumpriu as cláusulas de "propósito legal" | Recusou-se a abrir mão das "Linhas Vermelhas" sobre vigilância |
| Política de Vigilância | Afirma que existem salvaguardas contra espionagem doméstica | Proibição estrita nos Termos de Serviço |
| Ambiente de Implementação | Redes classificadas do Pentágono permitidas | Recusou implementação classificada sem auditoria |
| Relação com o Governo | Parceiro preferencial sob a diretriz de Trump | Designada como "Risco na Cadeia de Suprimentos" |
| Declaração do CEO | "Precisamos trabalhar com governos." (Altman) | "Não comprometeremos os padrões de segurança." (Amodei) |
Schwarzer não é uma anomalia; ele faz parte de uma tendência crescente. Nos últimos 18 meses, a Anthropic tornou-se um refúgio para pesquisadores que priorizam a segurança da IA e a rigidez ética em detrimento da rápida comercialização ou do alinhamento governamental.
A "confiança" a que Schwarzer se referiu em sua carta de renúncia provavelmente alude a ex-pesos pesados da OpenAI que já fizeram a transição, como Jan Leike e Ilya Sutskever (através de seu próprio empreendimento, embora ideologicamente alinhado com o campo de segurança em primeiro lugar). A Anthropic, liderada pelo ex-VP da OpenAI Dario Amodei, posicionou-se com sucesso como a "consciência" da indústria.
Essa migração representa um risco estratégico para a OpenAI. Enquanto a empresa mantém uma liderança comercial massiva e apoio governamental, a perda da liderança técnica principal — especificamente daqueles que entendem as complexidades do pós-treinamento e do aprendizado por reforço a partir de feedback humano (RLHF) — pode desacelerar os ciclos de iteração para modelos futuros como o GPT-6.
A dicotomia entre a OpenAI e a Anthropic está agora mais nítida do que nunca.
Para Max Schwarzer, a mudança para a Anthropic é um retorno às suas raízes. Ele declarou o desejo de "voltar aos detalhes" da pesquisa de Aprendizado por Reforço (RL). Na Anthropic, ele provavelmente se concentrará na próxima geração de inteligência artificial constitucional (Constitutional AI), ajudando a construir sistemas que não sejam apenas poderosos, mas rigorosamente controláveis — uma missão que aparentemente ressoa mais com ele do que implementar o GPT-5 para o Departamento de Guerra.
Enquanto a poeira baixa nesta semana caótica, a indústria observa dois futuros distintos para a inteligência artificial: um que abraça o poder do Estado e outro que tenta restringi-lo. O fluxo de talentos de alto nível como Schwarzer sugere que, para os pesquisadores que constroem essas mentes, a escolha está se tornando cada vez mais clara.