Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Ark Invest: Текущая ситуация и будущее инфраструктуры ИИ
Источник: Frank Downing, Ark Invest; Перевод: Jinse财经 Claw
Расходы на ИИ-инфраструктуру растут взрывными темпами
За три года, прошедшие с момента выхода ChatGPT, спрос на ускоренные вычисления резко вырос. Годовая выручка Nvidia взлетела почти в 8 раз: с 27 млрд долларов в 2022 году до 216 млрд долларов в 2025 году; рыночный консенсус ожидает, что в 2026 году она вырастет еще на 62% — до 350 млрд долларов. Темпы инвестиций в глобальные инфраструктуры дата-центров (включая вычислительное, сетевое и хранилищное оборудование) ускорились с 5% в среднем за десятилетие по состоянию на 2022 год до 30% за последние три года; ожидается, что в 2026 году рост продолжится более чем на 30% и достигнет 653 млрд долларов.
Исследования ARK показывают, что ускоренные вычисления, которые обеспечивают графические процессоры (GPU) и специализированные интегральные схемы для ИИ (ASIC) (по сравнению с универсальными CPU), сейчас уже доминируют в серверных инвестициях: они составляют 86% от продаж вычислительных серверов.
Падение издержек ускоряет внедрение
Мотивация для дальнейшего увеличения расходов на ускоренные вычислительные инфраструктуры, необходимые для запуска моделей ИИ, продолжает усиливаться благодаря постоянному расширению сценариев использования генеративного ИИ на потребительском и корпоративном уровнях, а также благодаря растущему спросу на более интеллектуальные базовые модели в процессе стремления к «сверхинтеллекту».
Быстрое снижение затрат дополнительно ускоряет рост спроса. По нашим исследованиям, затраты на обучение ИИ ежегодно снижаются на 75%. Затраты на вывод (инференс) падают еще быстрее — в бенчмарках, которые отслеживает Artificial Analysis, у моделей, доля которых превышает 50%, годовая приведенная медианная стоимость снижалась вплоть до 95%.
Две силы вместе привели к резкому снижению затрат: во‑первых, отраслевые лидеры, такие как Nvidia, ежегодно выпускают новые продукты, обеспечивая последовательный рост производительности оборудования от поколения к поколению; во‑вторых, улучшения на уровне ПО — алгоритмические доработки — повышают эффективность обучения и вывода на одинаковом оборудовании.
Сильные сигналы спроса — и у потребителей, и у компаний
Темпы внедрения ИИ у потребителей заметно выше, чем тогда, когда потребители переходили на интернет. Проникновение ИИ за три года расширилось примерно до 20% — это более чем в два раза быстрее темпов, с которыми потребители переходили на интернет.
Корпоративный спрос тоже растет с поразительной скоростью. Например, по данным OpenRouter, с декабря 2024 года спрос на токены вырос в 28 раз.
За последние два года одну из самых больших симпатий со стороны корпоративных клиентов получила ИИ-лаборатория Anthropic: она добилась примерно 100-кратного впечатляющего роста выручки — с 100 млн долларов годовой операционной выручки на конец 2023 года до оценки в 8–10 млрд долларов на конец 2025 года. Рост Anthropic в 2026 году продолжается: в феврале этого года компания объявила о годовой выручке в 14 млрд долларов и завершила раунд финансирования на 30 млрд долларов, оценка составила 380 млрд долларов.
OpenAI, которая ведет конкуренцию на двух фронтах — и с потребителями, и с предприятиями, также демонстрирует сильный рост среди корпоративных пользователей: по состоянию на ноябрь 2025 года у нее уже 1 млн корпоративных клиентов. Как пояснил финансовый директор Sarah Friar, темпы роста корпоративной выручки OpenAI выше, чем у потребительского направления, и в 2026 году, по прогнозу, на корпоративный сегмент придется 50% общей выручки компании. Friar в блоге в январе 2026 года также изложил причины для дополнительных инвестиций в инфраструктуру: за последние три года выручка OpenAI росла в прямой пропорции к ее вычислительным мощностям.
Частный рынок дает финансирование на ИИ-строительство
Чтобы соответствовать сильным сигналам спроса, крупномасштабные инвестиции в инфраструктуру стали необходимостью. Согласно данным Crunchbase, в 2025 году финансирование частных ИИ-лабораторий превысило 200 млрд долларов, из которых около 80 млрд долларов ушло разработчикам базовых моделей, таким как OpenAI, Anthropic и xAI. На публичном рынке сверхкрупные компании облачных вычислений задействуют денежные резервы и ищут иные способы финансирования, чтобы поддержать свой план капитальных затрат на ИИ — в 2026 году масштаб этих расходов может достигать 700 млрд долларов.
Сообщается, что сделка Meta и Blue Owl на 30 млрд долларов является крупнейшей частной сделкой за всю историю. Сделка структурирована в форме совместного предприятия; в основном она финансируется за счет долгового финансирования, а специальное юридическое лицо (SPV) позволит не отражать долг проекта в балансе Meta. Этот шаг вызвал довольно серьезные споры.
AMD и другие производители становятся серьезными конкурентами Nvidia
Помимо физических дата-центров, вычислительные чипы всегда были ядром капитальных затрат на ИИ. Nvidia находится на передовой эпохи ускоренных вычислений, но теперь крупнейший покупатель ИИ-чипов пытается увеличить объем ИИ-вычислений, получаемых за каждый вложенный доллар. С тех пор как в 2006 году AMD приобрела ATI Technologies, компания Super Micro Semiconductor (AMD) продавала GPU параллельно с Nvidia на рынке потребительских устройств и теперь также стала появляющимся конкурентом в корпоративном сегменте. С момента запуска процессоров EPYC в 2017 году доля AMD на рынке серверных CPU выросла: с почти нулевой отметки в 2017 году до 40% в 2025 году.
В части инференса для небольших моделей GPU AMD по соотношению «совокупная стоимость владения (TCO) / производительность» уже практически сравнялся с Nvidia. TCO учитывает как первоначальную стоимость покупки чипа (капитальные затраты), так и операционные расходы (операционные затраты) в течение срока службы чипа. Бенчмарки производительности используют показатель SemiAnalysis InferenceMax: он измеряет количество токенов, обрабатываемых каждым GPU в секунду при оптимизации под пропускную способность; стоимостной бенчмарк основан на оценках SemiAnalysis по капитальным и операционным затратам в расчете на час.
Хотя AMD в производительности для небольших моделей уже «догнала», Nvidia по-прежнему сохраняет заметное преимущество в производительности для больших моделей — см. рисунок ниже.
Rack-level решение Nvidia Grace Blackwell объединяет 72 GPU Grace Blackwell (GB200), связывая их в сеть, чтобы они работали как один сверхкрупный GPU с общей памятью. Эта тесная межчиповая взаимосвязь усиливает возможности вывода больших моделей: большие модели требуют распределять веса модели по нескольким GPU, тогда как небольшие модели нуждаются в меньшей пропускной способности для связи. Чтобы сократить разрыв до выхода Nvidia Vera Rubin, AMD планирует выпустить свое rack-level решение во второй половине 2026 года. На данный момент AMD уже получила заказы у клиентов, включая Microsoft, Meta, OpenAI, xAI и Oracle.
Сверхкрупные облачные провайдеры возглавляют революцию в заказных чипах
Помимо коммерческих поставщиков GPU, сверхкрупные облачные провайдеры и ИИ-лаборатории также хотят контролировать влияние Nvidia за счет собственных чипов, чтобы снизить стоимость ИИ-вычислений. В течение более чем десяти лет Google проектирует собственные специализированные интегральные схемы для ИИ — Tensor Processing Units (TPU) — для запуска рекомендательных моделей для своего поискового бизнеса и в последнем поколении TPU v7 выполнила оптимизацию под генеративный ИИ. SemiAnalysis оценивает, что благодаря собственным TPU для внутренней нагрузки стоимость вычислений на единицу ниже, чем у Nvidia, на 62%. Anthropic и Meta используют расширения TPU от Google, чтобы нарастить вычислительные мощности — возможно, это подтверждает, что оценка 62% не так уж далека от реальности.
Чип Amazon Trainium, похоже, является одним из самых передовых решений. После того как в 2015 году Amazon приобрела Annapurna Labs, компания первой разработала заказные чипы для своего облачного бизнеса, расширив линейку Graviton CPU на основе ARM-архитектуры и Nitro data processing unit (DPU), обеспечив поддержку ключевых вычислительных мощностей Amazon Web Services (AWS). В последнее время Amazon объявила, что Graviton в 2025 году уже третью год подряд обеспечивает более половины нового CPU-вычислительного прироста AWS. Помимо использования TPU, Anthropic рассматривает AWS и Trainium как платформу для предпочтительных тренировок.
Microsoft только в 2023 году вышла на поле заказных чипов, выпустив AI-ускоритель Maia 100, но тогда она не фокусировалась на генеративном ИИ; сейчас, по мере вывода на рынок, идет выпуск ее второго поколения продукта, которое делает упор на сценарии ИИ-инференса.
Broadcom доминирует на рынке сервисов заказных чипов
Google и Amazon сосредоточены на проектировании фронтенд-чипов (архитектура и функции), а партнеры по бэкэнду отвечают за преобразование их логики в кремний, управление передовыми видами упаковки и координацию производства с такими фабриками, как TSMC (台积电). На фоне вызовов, с которыми сталкивается бизнес Intel по контрактному производству, TSMC стала предпочтительным партнером для большинства основных проектов AI-чипов, а Broadcom превратилась в ведущего партнера по бэкэнду в разработке: для Google TPU, Meta MTIA и для заказных чипов, которые OpenAI планирует выпустить в 2026 году. Apple всегда делала все сама и завершала полный цикл проектирования своих чипов для телефонов и ПК, но сообщалось, что она также может сотрудничать с Broadcom для разработки AI-чипов. Citigroup прогнозирует, что AI-выручка Broadcom в ближайшие два года может вырасти в пять раз — с 20 млрд долларов в 2025 году до 100 млрд долларов в 2027 году.
R&D-путь Amazon Trainium среди коллег довольно необычен: по сообщениям, Trainium 2 сотрудничал с Marvell, а затем из-за неудовлетворительного исполнения со стороны Marvell Trainium 3 и Trainium 4 перешли к сотрудничеству с Alchip. Возможность Amazon менять партнеров по бэкэнду показывает, что вертикальная интеграция для компаний вроде Broadcom действительно несет определенные риски. Стоит отметить: Apple и Tesla напрямую работают с контрактными производителями чипов. Возможно, так же будет и у Google — на ее TPU v8: у этого продукта два SKU — один спроектирован совместно с Broadcom, а другой спроектирован и полностью контролируется Google самостоятельно при поддержке MediaTek.
Активность стартапов чипов усиливается
Наши исследования показывают, что «хвостовая» сила стартапов, которые экспериментируют с новыми архитектурными парадигмами, может еще сильнее бросить вызов рыночному положению действующих производителей чипов. Cerebras известна своим «движком уровня кристалла» (гигантский чип, сделанный из одного кремниевого кристалла, размером как коробка для пиццы) и предлагает на рынке самые быстрые по скорости токенов обработки — сообщается, что компания планирует выйти на рынок уже в этом году. Компания недавно объявила о сотрудничестве с OpenAI для выпуска высокоскоростной программирующей модели Codex Spark; ранее в этом году стороны уже заключили соглашение о сотрудничестве. Groq также опирается на выдающуюся производительность по обработке токенов в секунду: в последнее время она подписала с Nvidia неэксклюзивное лицензионное соглашение по интеллектуальной собственности на сумму 20 млрд долларов, которое включает 90% сотрудников Groq и CEO и сооснователя TPU Jonathan Ross. По сути, это похоже на приобретение команды и технологии Groq: такая структура сделок на рынке M&A становится все более популярной, потому что технологические гиганты стремятся избежать задержек, связанных с проверками со стороны регулирующих органов. В других новостях о сделках по приобретению: Intel, как сообщается, после провала переговоров о покупке перешла к партнерству с SambaNova. Intel с 2014 года провела четыре сделки по приобретениям в сфере ИИ, но так и не смогла выпустить широко признанный рынком продукт по ИИ — этот послужной список довольно удручающий.
Взгляд вперед: объем к 2030 году достигнет 1,4 трлн долларов
Согласно нашим исследованиям, устойчивый рост спроса в ближайшие пять лет и постоянное повышение производительности будут стимулировать развитие AI-программного обеспечения и облачных сервисов; расходы на AI-инфраструктуру в ближайшие пять лет вырастут втрое — с 500 млрд долларов в 2025 году до почти 1,5 трлн долларов в 2030 году.
Наши прогнозы основаны на исторических наблюдениях за тем, как инвестиции в системы дата-центров соотносятся с выручкой от ПО. В начале 2010-х, по мере роста облачных вычислений, инвестиции в системы составляли около 50% от мировых расходов на ПО. К 2021 году избыточные инвестиции после пандемии COVID-19 и оптимизация со стороны клиентов снизили долю инвестиций в системы относительно расходов на ПО до уровня чуть более 20%. Наш прогноз на 1,5 трлн долларов предполагает, что в 2030 году объем инвестиций составит 20% от нашего нейтрального сценария по мировым расходам на ПО (то есть 70 трлн долларов в 2030 году) — эту долю мы подробно изложили в прошлогоднем блоге. Мы считаем, что уровень 20% в достаточной мере учитывает риски избыточных инвестиций до 2030 года, а также вероятность того, что рост выручки от ПО будет медленнее, чем в нейтральном сценарии: в последнем случае мы полагаем, что инфраструктурные инвестиции продолжат расти быстрыми темпами — как в начале 2010-х.
По мере того как спрос на вычислительные мощности, обусловленный ИИ, продолжит расти, мы ожидаем, что доля заказных чипов в капитальных расходах будет увеличиваться — потому что время и капитал, необходимые для проектирования чипов под конкретные рабочие нагрузки, при масштабировании проявят все более заметное преимущество по производительности на каждый доллар. Мы считаем, что к 2030 году доля заказных ASIC на рынке вычислений может превысить треть.
В совокупности наши исследования показывают: текущее строительство инфраструктуры — это не лопающийся пузырь, а основа редкостного по масштабу платформенного сдвига. ARK прогнозирует, что годовые расходы на ИИ-инфраструктуру в 2030 году будут приближаться к 1,5 трлн долларов: этот рынок будет обусловлен реальным и непрерывно ускоряющимся спросом со стороны потребителей и компаний, а постоянно падающие затраты при этом продолжают подтверждать и открывать новые сценарии использования. Мы уверены, что среди компаний, которые проявят себя в ближайшие пять лет, окажутся те, кто сможет спроектировать самые эффективные чипы, построить самые мощные модели и масштабно внедрить и развернуть обе составляющие на практике.
Как изложил CEO Nvidia Huang Renxun на телефонной конференции по отчетности за 4-й квартал финансового 2026 года, по-настоящему практичные ИИ-агенты начали массовое внедрение лишь в последние несколько месяцев. Их потребление токенов огромно, но их возможности намного превосходят то, к чему большинство пользователей привыкло в продуктах ИИ ранее. Масштабирование этих агентов до миллионов компаний станет крайне вычислительно затратной задачей, и, по нашему мнению, ожидаемый прирост производительности с лихвой оправдает эти инвестиции.