Aconteceu um incidente de alegada fuga de código-fonte dos produtos da Anthropic, uma nova empresa de inteligência artificial, com a tecnologia por detrás do Claude Code. O incidente teve origem num erro dos programadores ao publicar um pacote npm, ao incluirem acidentalmente ficheiros de mapeamento do código-fonte usados internamente para depuração (.map), o que levou a que mais de 500 mil linhas de código TypeScript fossem descarregadas e analisadas pelo público. Esta fuga inesperada do código-fonte do Claude Code acabou por expor, de forma acidental, a arquitetura técnica do Claude. Um porta-voz da Anthropic confirmou o incidente à Venture Beat, afirmando que não houve exposição de quaisquer dados sensíveis confidenciais.
O que foi divulgado no Claude Code?
Um ficheiro de mapeamento do código-fonte JavaScript (.map) com 59.8 MB, originalmente usado para depuração interna, mas que foi inadvertidamente incluído na versão 2.1.88 do pacote de software @anthropic-ai/claude-code, que tinha sido publicado antes no registo público do npm. O estagiário da Solayer Labs “Chaofan Shou” publicou no X um post que incluía uma ligação direta de descarregamento para um arquivo alojado. Em poucas horas, esta base de código com cerca de 512 mil linhas de TypeScript foi espelhada para o GitHub e analisada por milhares de programadores.
De acordo com a análise do código-fonte vazado, a Anthropic, para lidar com o problema de Context Entropy “entropia de contexto” e de alucinações geradas aquando do funcionamento prolongado de um AI Agent, adoptou uma arquitectura de memória complexa em três camadas. O sistema abandona o modelo tradicional de recuperação baseada em armazenamento integral; o núcleo é composto por um índice leve denominado MEMORY.md, com cerca de 150 caracteres por linha, responsável por registar localizações de informação em vez do conteúdo em si. O conhecimento específico do projecto distribui-se por “ficheiros temáticos”, e o sistema apenas procura identificadores através de comandos específicos, em vez de ler integralmente o texto original para o contexto. Além disso, o sistema aplica rigorosamente “regras de escrita”: a entidade inteligente só pode actualizar o índice depois de conseguir escrever no ficheiro. Este desenho trata a memória como um “prompt” a ser verificado, exigindo que o modelo, antes de executar, compare os factos com o repositório de código real, mantendo assim a clareza lógica nas conversas complexas.
Esta fuga de dados revelou uma funcionalidade-chave chamada “KAIROS”, que suporta o Claude Code para funcionar em modo de guarda autónoma (Autonomous Daemon). Neste modo, a entidade inteligente deixa de responder apenas de forma passiva aos comandos, passando a executar um processo chamado autoDream quando o utilizador está ocupado, para realizar tarefas de “integração de memória”. O processo combina resultados de observação, elimina contradições lógicas e transforma informação vaga em critérios de factos definidos. Tecnicamente, a Anthropic executa estas tarefas de bastidores através de agentes subsidiários derivados, para garantir que a lógica de processamento do agente principal não é afectada por processos de manutenção. Este mecanismo assegura que, quando os utilizadores reiniciam uma tarefa, a entidade inteligente já está equipada com informação contextual altamente relevante e refinada, aumentando significativamente a utilidade das ferramentas de desenvolvimento autónomo.
Exposição do modo oculto do Claude
O detalhe técnico mais amplamente destacado revelado desta vez é o “modo oculto”, uma funcionalidade que mostra que o Claude Code faz contribuições para repositórios públicos de código-fonte aberto de uma forma “discreta”. Entre as informações vazadas, foi descoberto que o sistema alerta explicitamente o modelo: “Está a executar em modo oculto; a sua informação não deve incluir qualquer informação interna da Anthropic.” “Não revele a sua identidade.” Embora a Anthropic possa usar este modo para testes internos, ele fornece um quadro técnico para organizações que pretendem realizar trabalho voltado para o público com agentes de IA sem divulgar informação.
Esta lógica garante que qualquer nome de modelo (por exemplo, Tengu ou Capybara) não seja divulgado no registo público do Git. Os concorrentes empresariais poderão ver esta funcionalidade como obrigatória para clientes empresariais que valorizam a anonimidade no desenvolvimento assistido por IA.
A Anthropic afirma que não envolveu a fuga de quaisquer dados sensíveis
Um porta-voz da Anthropic confirmou este incidente à VentureBeat por e-mail, afirmando que, numa versão anterior do Claude Code, foram incluídos alguns códigos-fonte internos, sem envolver nem divulgar quaisquer dados de clientes sensíveis ou credenciais. Isto deveu-se a um problema de empaquetamento da versão causado por erro humano, não se tratando de uma vulnerabilidade de segurança. Estão a ser tomadas medidas para impedir que ocorram novamente incidentes deste tipo.
Especialistas recomendam que os programadores usem o instalador nativo oficial indicado
Apesar de a Anthropic ter afirmado oficialmente que a segurança dos dados na cloud está assegurada, a fuga de código-fonte e o ataque à cadeia de fornecimento npm que ocorreu em simultâneo implicam que o ambiente local enfrenta riscos significativos. Se os utilizadores, durante um período específico em 31 de Março de 2026, actualizarem o pacote claude-code, poderão, por engano, instalar dependências maliciosas que incluem um cavalo de Troia de acesso remoto. Para mitigar este tipo de risco, os especialistas da Venture Beat recomendam que os programadores abandonem o método de instalação baseado em npm e, em vez disso, usem o instalador nativo (Native Installer) indicado oficialmente, para garantir que obtêm ficheiros binários independentes e verificados. Ao mesmo tempo, os utilizadores devem adoptar o princípio de zero confiança, verificando os ficheiros de configuração locais e fazendo a rotação das chaves de API. À medida que a lógica central de orquestração e a lógica de validação são publicadas, a comunidade de programadores consegue agora imitar a sua arquitectura de memória em camadas com custos de desenvolvimento mais baixos. Este incidente, de um produto com um valor de 2,5 mil milhões de dólares de receita anualizada, irá acelerar a popularização competitiva da tecnologia dos agentes inteligentes a nível global.
Este artigo sobre a fuga acidental do código-fonte da Anthropic, com a revelação da arquitectura técnica do Claude Code, apareceu pela primeira vez em Cadeia News ABMedia.