Компанія-стартап у сфері штучного інтелекту Anthropic повідомляє про витік вихідного коду для продукту Claude Code, що належить до її лінійки. Причиною стало те, що розробник під час публікації пакета npm помилково включив файли мап для внутрішнього налагодження (.map), через що понад 500 тис. рядків коду на TypeScript стали доступними для завантаження й аналізу публікою. Цей випадковий витік вихідного коду Claude Code несподівано розкрив технічну архітектуру Claude; представник Anthropic підтвердив інцидент журналу Venture Beat і заявив, що жодних конфіденційних чутливих даних не було розкрито.
Що витекло в Claude Code?
Файл мап вихідного коду JavaScript обсягом 59.8 MB (.map), який призначався для внутрішнього налагодження, був ненавмисно включений у версію 2.1.88 програмного пакета @anthropic-ai/claude-code, оприлюдненого раніше в публічній реєстрації npm. Стажер Solayer Labs «Chaofan Shou» опублікував у X допис, який містив пряме посилання для прямого завантаження на розміщений архів; за кілька годин репозиторій приблизно з 512 тис. рядків коду на TypeScript був дзеркалений на GitHub, де його проаналізували тисячі розробників.
Згідно з аналізом витоку вихідного коду, Anthropic для вирішення проблеми Context Entropy «контекстної ентропії» та галюцинацій, що виникають під час тривалої роботи AI Agent, використовує складну трирівневу архітектуру пам’яті. Ця система відмовилась від традиційного підходу до пошуку за принципом зберігання повного обсягу даних; ядро складається з легкого індексу під назвою MEMORY.md, де кожен рядок має лише приблизно 150 символів і відповідає за запис позицій інформації, а не за сам її зміст. Конкретні знання проєкту розподілені в «тематичних файлах»: система здійснює пошук за ідентифікаторами через спеціальні команди, а не повністю читає вихідний текст у контекст. Крім того, система суворо застосовує «правила запису»: агент має успішно записати інформацію у файл, перш ніж оновити індекс. Такий дизайн розглядає пам’ять як перевірювані «підказки» й вимагає від моделі перед виконанням звіряти факти з реальним репозиторієм коду, ефективно підтримуючи ясність логіки в складних діалогах.
Цей витік даних розкрив ключову функцію під назвою «KAIROS». Вона підтримує роботу Claude Code у режимі автономної охорони програми (Autonomous Daemon). У цьому режимі агент більше не лише пасивно відповідає на команди, а може під час простою користувача запускати процес під назвою autoDream для виконання «інтеграції пам’яті». Цей процес об’єднує результати спостережень, усуває логічні суперечності та перетворює нечітку інформацію на визначені фактичні орієнтири. Технічно Anthropic виконує ці фонові завдання через дочірні похідні агенти, щоб логіка головного агента не зазнавала впливу від обслуговувальних процесів. Такий механізм гарантує, що під час повторного запуску завдань користувачем агент уже матиме високорелевантну й ретельно опрацьовану контекстну інформацію, що значно підвищує практичність автономних інструментів розробки.
Витік прихованого режиму Claude
Найбільш помітна розкрита технологічна деталь — це «прихований режим», який показує, як Claude Code «делікатно» робить внески у публічні відкриті репозиторії коду. У просочених даних виявлено, що система чітко попереджає модель: «Ви запускаєтеся в прихованому режимі, ваша інформація не повинна містити жодної внутрішньої інформації Anthropic». «Не розкривайте ідентичність; хоча Anthropic може використовувати цей режим для внутрішнього тестування, він надає технічну основу для будь-яких організацій, які хочуть виконувати публічні роботи через AI-агентів, не розкриваючи інформацію».
Ця логіка гарантує, що будь-які назви моделей (наприклад Tengu або Capybara) не потраплять у публічні Git-логи. Конкуренти підприємств можуть розглядати цю функцію як обов’язкову можливість, яку вони прагнуть для корпоративних клієнтів, що цінують анонімність розробки з допомогою AI.
Anthropic заявляє, що не було витоку будь-яких чутливих даних
Представник компанії Anthropic через електронну пошту підтвердив VentureBeat цей інцидент витоку, заявивши, що раніше в версіях Claude Code містилися деякі внутрішні вихідні коди, і не було розкрито або витоку жодних чутливих даних клієнтів чи облікових даних. Це сталося через проблему пакування версій, спричинену людською помилкою, а не через вразливість безпеки; наразі вживаються заходи, щоб запобігти повторенню подібних інцидентів.
Експерти радять розробникам використовувати офіційно рекомендовані нативні інсталятори
Хоча офіційне повідомлення Anthropic запевняє, що хмарні дані захищені й ризиків немає, витік вихідного коду та одночасна атака на ланцюжок постачання npm створили для локального середовища суттєвий ризик. Якщо користувачі в певний період 31 березня 2026 року оновили пакет claude-code, вони могли помилково встановити шкідливу залежність, що містить троян дистанційного доступу. Для зменшення подібних ризиків експерти Venture Beat радять розробникам відмовитися від способу встановлення через npm і замість цього використовувати офіційно визначений нативний інсталятор (Native Installer), щоб отримати ізольовані та перевірені бінарні файли. Водночас користувачам слід застосувати принцип нульової довіри: перевірити локальні конфігурації та ротації ключів API. Зі публікацією логіки базового оркестрування та логіки верифікації, розробницька спільнота нині може відтворювати їхню багаторівневу структуру пам’яті з меншими витратами на дослідження й розробку. Цей інцидент із витоком продукту з щорічним грошовим потоком у 2.5 млрд доларів США прискорить ширше впровадження технологій агентів загалом.
Ця стаття «Вихідний код Anthropic випадково витік, технічна архітектура Claude Code розкрита» вперше з’явилася на Сторінці новин ABMedia.