Crise de identidade: o fim muitas vezes é o desaparecimento da própria identidade.
Por Ada, Deep潮 TechFlow
24 de fevereiro, terça-feira. Washington, Pentágono.
Dario Amodei, CEO da Anthropic, senta-se frente a frente com o Secretário de Defesa Pete Hegseth. Segundo várias fontes à NPR e CNN, o ambiente da reunião é “educado”, mas o conteúdo nada tem de cortês.
Hegseth deu-lhe um ultimato: até sexta-feira às 17h01, liberar o uso militar do Claude, permitindo que o Pentágono o utilize para “todos os fins legais”, incluindo mira de armas autônomas e vigilância doméstica em larga escala.
Caso contrário, cancelamento do contrato de 200 milhões de dólares, ativação da Lei de Produção de Defesa, requisição compulsória, e Anthropic será listado como “risco na cadeia de suprimentos”, o que equivale a colocá-la na lista negra de entidades hostis da Rússia e China.
No mesmo dia, a Anthropic lançou a terceira versão de sua “Política de Expansão Responsável” (RSP 3.0), silenciosamente removendo uma de suas promessas mais centrais desde a fundação: que não treinariam modelos mais avançados sem garantir medidas de segurança adequadas.
Também nesse dia, Elon Musk postou no X: “Anthropic está roubando dados de treinamento em grande escala, isso é um fato.” E, adicionalmente, a nota da comunidade no X complementou a notícia de que a Anthropic pagou 1,5 bilhão de dólares em acordo por treinar Claude com livros piratas.
Em 72 horas, essa empresa de IA, que se autodenomina “com alma”, desempenhou três papéis: mártir da segurança, ladrão de propriedade intelectual e traidora do Pentágono.
Qual deles é o verdadeiro?
Talvez todos.
Pentágono: “Ou obedece, ou sai”
A primeira camada da história é simples.
A Anthropic é a primeira empresa de IA a obter acesso confidencial do Departamento de Defesa dos EUA. O contrato, assinado no verão passado, tem limite de 200 milhões de dólares. OpenAI, Google e xAI também receberam contratos de escala semelhante posteriormente.
Segundo a Al Jazeera, Claude foi usado em uma operação militar dos EUA em janeiro deste ano, envolvendo o sequestro do presidente venezuelano Maduro.
Porém, a Anthropic estabeleceu duas linhas vermelhas: não apoiar mira de armas totalmente autônomas e não apoiar vigilância em massa de cidadãos americanos. A empresa acredita que a IA não é confiável o suficiente para controlar armas, além de que ainda não há leis ou regulamentações que normatizem o uso de IA em vigilância em larga escala.
O Pentágono não aceitou.
David Sacks, conselheiro de IA da Casa Branca, acusou publicamente a Anthropic no X, em outubro do ano passado, de “usar o medo como arma para capturar regulamentações”.
Seus concorrentes já se curvaram. OpenAI, Google e xAI concordaram em permitir que o setor militar use suas IAs em “todos os cenários legais”. Musk’s Grok foi aprovado nesta semana para acesso a sistemas confidenciais.
A Anthropic é a última a resistir.
Até o momento, a empresa afirmou em sua mais recente declaração que não pretende ceder. Mas o prazo de sexta às 17h01 está se aproximando.
Um ex-liaison anônimo do Departamento de Justiça e Defesa disse à CNN: “Como é possível declarar uma empresa como ‘risco na cadeia de suprimentos’ e, ao mesmo tempo, obrigá-la a trabalhar para o seu exército?”
Boa pergunta, mas não está na pauta do Pentágono. Para eles, se a Anthropic não ceder, usarão de força ou a abandonarão em Washington.
“Ataque de destilação”: uma acusação de tapa na cara
Em 23 de fevereiro, a Anthropic publicou um blog com tom agressivo, acusando três empresas chinesas de realizar “ataques de destilação em nível industrial” contra o Claude.
As acusadas são DeepSeek, Moonshot AI e MiniMax.
A Anthropic afirma que essas empresas usaram 24 mil contas falsas para interagir com Claude mais de 16 milhões de vezes, extraindo direcionadamente suas capacidades centrais de raciocínio, uso de ferramentas e programação.
A empresa classifica isso como uma ameaça à segurança nacional, alegando que modelos destilados provavelmente não manterão as salvaguardas de segurança, podendo ser utilizados por governos autoritários para ataques cibernéticos, desinformação e vigilância em massa.
A narrativa é perfeita, o timing também.
Justamente após o governo Trump relaxar as restrições de exportação de chips para a China, e quando a Anthropic buscava argumentos para sua posição na luta contra o controle de exportação de chips.
Porém, Musk disparou: “A Anthropic roubou dados de treinamento em grande escala e pagou bilhões de dólares em acordos judiciais. Isso é um fato.”
Tory Green, cofundador da empresa de infraestrutura de IA IO.Net, comentou: “Vocês treinam seus modelos com dados de toda a internet, e quando outros usam sua API pública para aprender com vocês, isso é chamado de ‘ataque de destilação’?”
A Anthropic chama de “ataque” a destilação, mas na indústria de IA isso é algo comum. OpenAI usou para comprimir o GPT-4, Google para otimizar o Gemini, e até a própria Anthropic faz isso. A única diferença é que, desta vez, ela foi destilada por ela mesma.
Segundo Erik Cambria, professor de IA na Nanyang Technological University, de Cingapura, “a linha entre uso legítimo e uso malicioso costuma ser tênue.”
Mais irônico ainda: a Anthropic pagou 1,5 bilhão de dólares em acordo por treinar Claude com livros piratas, e agora acusa outros de usar seus dados públicos para treinar modelos. Isso não é duplo padrão, é triplo.
A empresa queria se passar de vítima, mas acabou sendo processada como ré.
A desmontagem da promessa de segurança: RSP 3.0
No mesmo dia em que enfrentava o Pentágono e trocava farpas com o Vale do Silício, a Anthropic lançou a terceira versão de sua Política de Expansão Responsável.
Jared Kaplan, chefe de ciência da empresa, afirmou em entrevista: “Achamos que parar de treinar modelos de IA não ajuda ninguém. Em um cenário de rápido avanço da IA, fazer promessas unilaterais… enquanto os concorrentes avançam a toda velocidade, não faz sentido.”
Em outras palavras, se os outros não jogam limpo, nós também não vamos.
As versões 1.0 e 2.0 da RSP tinham uma promessa rígida: se o modelo ultrapassasse os limites de segurança, o treinamento seria suspenso. Essa promessa deu à Anthropic uma reputação única na comunidade de segurança de IA.
Mas a 3.0 a eliminou.
Substituiu por uma estrutura mais “flexível”, que divide as medidas de segurança que a Anthropic pode implementar e as recomendações de segurança que requerem colaboração de toda a indústria. Relatórios de risco a cada 3-6 meses, com revisão de especialistas externos.
Parece responsável?
Chris Painter, avaliador independente da organização sem fins lucrativos METR, comentou após revisar o rascunho inicial: “Isso mostra que a Anthropic acha que precisa entrar em uma ‘fase de triagem’, porque os métodos de avaliação e mitigação de riscos não acompanham o ritmo do crescimento de suas capacidades. Isso mais demonstra que a sociedade não está preparada para os riscos catastróficos potenciais da IA.”
Segundo a TIME, a Anthropic passou quase um ano discutindo internamente essa reformulação, com CEO Amodei e conselho aprovando por unanimidade. A justificativa oficial é que a política original tinha como objetivo impulsionar o consenso do setor, mas o setor não acompanhou. O governo Trump adotou uma postura de laissez-faire em relação ao desenvolvimento de IA, até tentando revogar regulamentações estaduais. A legislação federal de IA ainda está longe de acontecer. Apesar de parecer possível estabelecer uma governança global em 2023, três anos se passaram e a porta parece fechada.
Um pesquisador anônimo que acompanha de perto a governança de IA foi direto: “A RSP é o ativo de marca mais valioso da Anthropic. Remover a promessa de pausa no treinamento é como uma empresa de alimentos orgânicos que tira silenciosamente o ‘orgânico’ da embalagem e diz que agora seus testes são mais transparentes.”
A cisão de identidade sob uma avaliação de 380 bilhões de dólares
No início de fevereiro, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliada em 380 bilhões de dólares, com a Amazon como investidora âncora. Desde sua fundação, já faturou 14 bilhões de dólares em receita anualizada, crescendo mais de 10 vezes ao ano nos últimos três anos.
Ao mesmo tempo, o Pentágono ameaçou colocá-la na lista negra. Musk acusou publicamente de roubo de dados. Seus compromissos de segurança foram removidos. Após a saída de Mrinank Sharma, chefe de segurança de IA, ele escreveu no X: “O mundo está em perigo.”
Contradições?
Ou talvez a própria essência da Anthropic.
Fundada por ex-executivos da OpenAI, por medo de que a OpenAI estivesse avançando rápido demais na segurança, criaram uma empresa para desenvolver modelos mais poderosos ainda mais rápido, ao mesmo tempo que alertavam para os perigos.
Seu modelo de negócio pode ser resumido assim: somos mais assustados com IA do que qualquer um, então você deve pagar para que a gente construa IA.
Essa narrativa funcionou perfeitamente em 2023-2024. Segurança de IA virou palavra de ordem em Washington, e a Anthropic é a principal lobista.
Mas, em 2026, o vento mudou.
“IA woke” virou rótulo de ataque, projetos estaduais de regulação de IA foram barrados pelo governo, a lei californiana SB 53, apoiada pela Anthropic, foi sancionada, mas a política federal permanece inerte.
A estratégia de segurança da Anthropic, que antes era uma vantagem competitiva, agora virou um passivo político.
Ela faz uma jogada de equilíbrio delicado: precisa ser “segura” o suficiente para manter sua marca, mas também “flexível” o bastante para não ser abandonada pelo mercado ou pelo governo. O problema é que essa tolerância está diminuindo de ambos os lados.
Quanto vale a narrativa de segurança?
Ao juntar tudo isso, fica claro.
Acusar empresas chinesas de destilar Claude é uma narrativa para reforçar o lobby contra exportação de chips. Para não ficar para trás na corrida armamentista, eliminaram a promessa de pausa de segurança. Recusar o uso de armas autônomas pelo Pentágono é uma tentativa de manter a última camada de moralidade.
Cada passo faz sentido, mas também se contradiz.
Não se pode dizer que empresas chinesas “destilaram” seu modelo e que isso ameaça a segurança nacional, e ao mesmo tempo eliminar a promessa de evitar que seus próprios modelos saiam do controle. Se o modelo fosse realmente tão perigoso, deveria ser mais cauteloso, não mais agressivo.
A menos que você seja a Anthropic.
Na indústria de IA, identidade não é o que você declara, mas o que seu balanço patrimonial revela. A narrativa de “segurança” da Anthropic é, na essência, uma valorização de marca.
No início da corrida armamentista de IA, esse valor fazia sentido. Investidores pagavam mais por “IA responsável”, governos davam luz verde para “IA confiável”, clientes pagavam por “IA mais segura”.
Mas, em 2026, esse prêmio está desaparecendo.
Hoje, a Anthropic enfrenta uma questão de não “devo ou não ceder”, mas “a quem primeiro cederei”. Ceder ao Pentágono prejudica sua marca. Ceder aos concorrentes anula suas promessas de segurança. Ceder aos investidores exige sacrificar ambos.
Na sexta-feira às 17h01, a Anthropic entregará sua resposta.
Mas uma coisa já está certa: a Anthropic, que antes se apoiava na ideia de “ser diferente do OpenAI”, está se tornando igual a todos os outros.
O fim da crise de identidade muitas vezes é o próprio desaparecimento da identidade.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Anthropic: Os 72 Horas de uma Crise de Identidade
Crise de identidade: o fim muitas vezes é o desaparecimento da própria identidade.
Por Ada, Deep潮 TechFlow
24 de fevereiro, terça-feira. Washington, Pentágono.
Dario Amodei, CEO da Anthropic, senta-se frente a frente com o Secretário de Defesa Pete Hegseth. Segundo várias fontes à NPR e CNN, o ambiente da reunião é “educado”, mas o conteúdo nada tem de cortês.
Hegseth deu-lhe um ultimato: até sexta-feira às 17h01, liberar o uso militar do Claude, permitindo que o Pentágono o utilize para “todos os fins legais”, incluindo mira de armas autônomas e vigilância doméstica em larga escala.
Caso contrário, cancelamento do contrato de 200 milhões de dólares, ativação da Lei de Produção de Defesa, requisição compulsória, e Anthropic será listado como “risco na cadeia de suprimentos”, o que equivale a colocá-la na lista negra de entidades hostis da Rússia e China.
No mesmo dia, a Anthropic lançou a terceira versão de sua “Política de Expansão Responsável” (RSP 3.0), silenciosamente removendo uma de suas promessas mais centrais desde a fundação: que não treinariam modelos mais avançados sem garantir medidas de segurança adequadas.
Também nesse dia, Elon Musk postou no X: “Anthropic está roubando dados de treinamento em grande escala, isso é um fato.” E, adicionalmente, a nota da comunidade no X complementou a notícia de que a Anthropic pagou 1,5 bilhão de dólares em acordo por treinar Claude com livros piratas.
Em 72 horas, essa empresa de IA, que se autodenomina “com alma”, desempenhou três papéis: mártir da segurança, ladrão de propriedade intelectual e traidora do Pentágono.
Qual deles é o verdadeiro?
Talvez todos.
Pentágono: “Ou obedece, ou sai”
A primeira camada da história é simples.
A Anthropic é a primeira empresa de IA a obter acesso confidencial do Departamento de Defesa dos EUA. O contrato, assinado no verão passado, tem limite de 200 milhões de dólares. OpenAI, Google e xAI também receberam contratos de escala semelhante posteriormente.
Segundo a Al Jazeera, Claude foi usado em uma operação militar dos EUA em janeiro deste ano, envolvendo o sequestro do presidente venezuelano Maduro.
Porém, a Anthropic estabeleceu duas linhas vermelhas: não apoiar mira de armas totalmente autônomas e não apoiar vigilância em massa de cidadãos americanos. A empresa acredita que a IA não é confiável o suficiente para controlar armas, além de que ainda não há leis ou regulamentações que normatizem o uso de IA em vigilância em larga escala.
O Pentágono não aceitou.
David Sacks, conselheiro de IA da Casa Branca, acusou publicamente a Anthropic no X, em outubro do ano passado, de “usar o medo como arma para capturar regulamentações”.
Seus concorrentes já se curvaram. OpenAI, Google e xAI concordaram em permitir que o setor militar use suas IAs em “todos os cenários legais”. Musk’s Grok foi aprovado nesta semana para acesso a sistemas confidenciais.
A Anthropic é a última a resistir.
Até o momento, a empresa afirmou em sua mais recente declaração que não pretende ceder. Mas o prazo de sexta às 17h01 está se aproximando.
Um ex-liaison anônimo do Departamento de Justiça e Defesa disse à CNN: “Como é possível declarar uma empresa como ‘risco na cadeia de suprimentos’ e, ao mesmo tempo, obrigá-la a trabalhar para o seu exército?”
Boa pergunta, mas não está na pauta do Pentágono. Para eles, se a Anthropic não ceder, usarão de força ou a abandonarão em Washington.
“Ataque de destilação”: uma acusação de tapa na cara
Em 23 de fevereiro, a Anthropic publicou um blog com tom agressivo, acusando três empresas chinesas de realizar “ataques de destilação em nível industrial” contra o Claude.
As acusadas são DeepSeek, Moonshot AI e MiniMax.
A Anthropic afirma que essas empresas usaram 24 mil contas falsas para interagir com Claude mais de 16 milhões de vezes, extraindo direcionadamente suas capacidades centrais de raciocínio, uso de ferramentas e programação.
A empresa classifica isso como uma ameaça à segurança nacional, alegando que modelos destilados provavelmente não manterão as salvaguardas de segurança, podendo ser utilizados por governos autoritários para ataques cibernéticos, desinformação e vigilância em massa.
A narrativa é perfeita, o timing também.
Justamente após o governo Trump relaxar as restrições de exportação de chips para a China, e quando a Anthropic buscava argumentos para sua posição na luta contra o controle de exportação de chips.
Porém, Musk disparou: “A Anthropic roubou dados de treinamento em grande escala e pagou bilhões de dólares em acordos judiciais. Isso é um fato.”
Tory Green, cofundador da empresa de infraestrutura de IA IO.Net, comentou: “Vocês treinam seus modelos com dados de toda a internet, e quando outros usam sua API pública para aprender com vocês, isso é chamado de ‘ataque de destilação’?”
A Anthropic chama de “ataque” a destilação, mas na indústria de IA isso é algo comum. OpenAI usou para comprimir o GPT-4, Google para otimizar o Gemini, e até a própria Anthropic faz isso. A única diferença é que, desta vez, ela foi destilada por ela mesma.
Segundo Erik Cambria, professor de IA na Nanyang Technological University, de Cingapura, “a linha entre uso legítimo e uso malicioso costuma ser tênue.”
Mais irônico ainda: a Anthropic pagou 1,5 bilhão de dólares em acordo por treinar Claude com livros piratas, e agora acusa outros de usar seus dados públicos para treinar modelos. Isso não é duplo padrão, é triplo.
A empresa queria se passar de vítima, mas acabou sendo processada como ré.
A desmontagem da promessa de segurança: RSP 3.0
No mesmo dia em que enfrentava o Pentágono e trocava farpas com o Vale do Silício, a Anthropic lançou a terceira versão de sua Política de Expansão Responsável.
Jared Kaplan, chefe de ciência da empresa, afirmou em entrevista: “Achamos que parar de treinar modelos de IA não ajuda ninguém. Em um cenário de rápido avanço da IA, fazer promessas unilaterais… enquanto os concorrentes avançam a toda velocidade, não faz sentido.”
Em outras palavras, se os outros não jogam limpo, nós também não vamos.
As versões 1.0 e 2.0 da RSP tinham uma promessa rígida: se o modelo ultrapassasse os limites de segurança, o treinamento seria suspenso. Essa promessa deu à Anthropic uma reputação única na comunidade de segurança de IA.
Mas a 3.0 a eliminou.
Substituiu por uma estrutura mais “flexível”, que divide as medidas de segurança que a Anthropic pode implementar e as recomendações de segurança que requerem colaboração de toda a indústria. Relatórios de risco a cada 3-6 meses, com revisão de especialistas externos.
Parece responsável?
Chris Painter, avaliador independente da organização sem fins lucrativos METR, comentou após revisar o rascunho inicial: “Isso mostra que a Anthropic acha que precisa entrar em uma ‘fase de triagem’, porque os métodos de avaliação e mitigação de riscos não acompanham o ritmo do crescimento de suas capacidades. Isso mais demonstra que a sociedade não está preparada para os riscos catastróficos potenciais da IA.”
Segundo a TIME, a Anthropic passou quase um ano discutindo internamente essa reformulação, com CEO Amodei e conselho aprovando por unanimidade. A justificativa oficial é que a política original tinha como objetivo impulsionar o consenso do setor, mas o setor não acompanhou. O governo Trump adotou uma postura de laissez-faire em relação ao desenvolvimento de IA, até tentando revogar regulamentações estaduais. A legislação federal de IA ainda está longe de acontecer. Apesar de parecer possível estabelecer uma governança global em 2023, três anos se passaram e a porta parece fechada.
Um pesquisador anônimo que acompanha de perto a governança de IA foi direto: “A RSP é o ativo de marca mais valioso da Anthropic. Remover a promessa de pausa no treinamento é como uma empresa de alimentos orgânicos que tira silenciosamente o ‘orgânico’ da embalagem e diz que agora seus testes são mais transparentes.”
A cisão de identidade sob uma avaliação de 380 bilhões de dólares
No início de fevereiro, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliada em 380 bilhões de dólares, com a Amazon como investidora âncora. Desde sua fundação, já faturou 14 bilhões de dólares em receita anualizada, crescendo mais de 10 vezes ao ano nos últimos três anos.
Ao mesmo tempo, o Pentágono ameaçou colocá-la na lista negra. Musk acusou publicamente de roubo de dados. Seus compromissos de segurança foram removidos. Após a saída de Mrinank Sharma, chefe de segurança de IA, ele escreveu no X: “O mundo está em perigo.”
Contradições?
Ou talvez a própria essência da Anthropic.
Fundada por ex-executivos da OpenAI, por medo de que a OpenAI estivesse avançando rápido demais na segurança, criaram uma empresa para desenvolver modelos mais poderosos ainda mais rápido, ao mesmo tempo que alertavam para os perigos.
Seu modelo de negócio pode ser resumido assim: somos mais assustados com IA do que qualquer um, então você deve pagar para que a gente construa IA.
Essa narrativa funcionou perfeitamente em 2023-2024. Segurança de IA virou palavra de ordem em Washington, e a Anthropic é a principal lobista.
Mas, em 2026, o vento mudou.
“IA woke” virou rótulo de ataque, projetos estaduais de regulação de IA foram barrados pelo governo, a lei californiana SB 53, apoiada pela Anthropic, foi sancionada, mas a política federal permanece inerte.
A estratégia de segurança da Anthropic, que antes era uma vantagem competitiva, agora virou um passivo político.
Ela faz uma jogada de equilíbrio delicado: precisa ser “segura” o suficiente para manter sua marca, mas também “flexível” o bastante para não ser abandonada pelo mercado ou pelo governo. O problema é que essa tolerância está diminuindo de ambos os lados.
Quanto vale a narrativa de segurança?
Ao juntar tudo isso, fica claro.
Acusar empresas chinesas de destilar Claude é uma narrativa para reforçar o lobby contra exportação de chips. Para não ficar para trás na corrida armamentista, eliminaram a promessa de pausa de segurança. Recusar o uso de armas autônomas pelo Pentágono é uma tentativa de manter a última camada de moralidade.
Cada passo faz sentido, mas também se contradiz.
Não se pode dizer que empresas chinesas “destilaram” seu modelo e que isso ameaça a segurança nacional, e ao mesmo tempo eliminar a promessa de evitar que seus próprios modelos saiam do controle. Se o modelo fosse realmente tão perigoso, deveria ser mais cauteloso, não mais agressivo.
A menos que você seja a Anthropic.
Na indústria de IA, identidade não é o que você declara, mas o que seu balanço patrimonial revela. A narrativa de “segurança” da Anthropic é, na essência, uma valorização de marca.
No início da corrida armamentista de IA, esse valor fazia sentido. Investidores pagavam mais por “IA responsável”, governos davam luz verde para “IA confiável”, clientes pagavam por “IA mais segura”.
Mas, em 2026, esse prêmio está desaparecendo.
Hoje, a Anthropic enfrenta uma questão de não “devo ou não ceder”, mas “a quem primeiro cederei”. Ceder ao Pentágono prejudica sua marca. Ceder aos concorrentes anula suas promessas de segurança. Ceder aos investidores exige sacrificar ambos.
Na sexta-feira às 17h01, a Anthropic entregará sua resposta.
Mas uma coisa já está certa: a Anthropic, que antes se apoiava na ideia de “ser diferente do OpenAI”, está se tornando igual a todos os outros.
O fim da crise de identidade muitas vezes é o próprio desaparecimento da identidade.