Meta меняет стратегию своей инфраструктуры искусственного интеллекта через масштабное аппаратное партнерство, сосредоточенное на процессорах Nvidia наряду с следующего поколения GPU.
Meta заключает многолетнюю сделку с Nvidia на поставку GPU и самостоятельных CPU
Материнская компания Facebook Meta подписала многолетнее соглашение с Nvidia о покупке миллионов чипов, охватывающих как GPU, так и, впервые, самостоятельные CPU. В сделке участвуют текущие GPU Blackwell, будущие Rubin GPU, а также новые процессоры Grace и Vera как отдельные продукты. Однако ни одна из сторон не раскрыла общую стоимость контракта.
Бен Баджарин, генеральный директор и главный аналитик в технологической консалтинговой компании Creative Strategies, оценил, что пакет может стоить миллиарды долларов. Более того, технологический портал The Register сообщил, что соглашение, вероятно, добавит десятки миллиардов долларов к прибыли Nvidia за весь срок действия. Это подчеркивает, насколько агрессивно Meta расширяет свою AI-экосистему.
Генеральный директор Meta Марк Цукерберг уже отмечал этот сдвиг в приоритетах расходов. Он объявил, что Meta планирует почти удвоить инвестиции в инфраструктуру AI в 2026 году, с общими затратами, которые могут достичь 135 миллиардов долларов. Однако новое соглашение о чипах дает рынку более ясное представление о том, куда пойдет большая часть этого капитала.
Стратегия CPU Nvidia ориентирована на задачи вывода (inference)
Самым заметным элементом соглашения является не покупка GPU, а решение Meta масштабно использовать CPU Nvidia как самостоятельные продукты. До начала 2026 года процессор Grace предлагался почти исключительно как часть так называемых Superchips, объединяющих CPU и GPU в одном модуле. Однако в январе 2026 года Nvidia официально изменила свою стратегию продаж и начала продавать эти CPU отдельно.
Первым публичным клиентом самостоятельных CPU стал провайдер облачных услуг CoreWeave. Теперь Meta присоединяется к этому списку, что свидетельствует о растущем спросе на гибкие архитектуры на базе CPU. Это соответствует более широкому переходу в AI от обучения огромных моделей к их использованию в производственных средах.
Компания ориентируется на быстрорастущий сегмент inference. В последние годы сектор AI сосредоточился на интенсивном обучении больших моделей с помощью GPU. Однако все больше внимания уделяется inference — процессу запуска и масштабирования обученных систем. Для многих задач inference традиционные GPU избыточны по стоимости и энергопотреблению.
«Мы находились в эпохе «обучения», а теперь переходим в эпоху «вывода», которая требует совершенно другого подхода», — заявил Баджарин в Financial Times. При этом этот сдвиг не исключает спрос на GPU; он лишь меняет баланс между нагрузками GPU и CPU внутри гиперскейл дата-центров.
Процессоры Grace и Vera: технические детали и планы внедрения Meta
Иан Бак, вице-президент и генеральный директор Nvidia по гиперскейлу и HPC, заявил, согласно The Register, что процессор Grace может «удваивать производительность на ватт при выполнении таких задач, как работа с базами данных». Более того, он отметил, что «Meta уже имела возможность протестировать Vera и запустить некоторые из этих задач, и результаты выглядят очень многообещающе». Это подчеркивает усилия Nvidia по оптимизации энергоэффективности для крупномасштабных inference и обработки данных.
Процессор Grace оснащен 72 ядрами Arm Neoverse V2 и использует память LPDDR5x, что дает преимущества в пропускной способности и в условиях ограниченного пространства. В свою очередь, Vera — следующий шаг Nvidia — включает 88 пользовательских ядер Arm с поддержкой многопоточности и встроенными возможностями конфиденциальных вычислений. Эти характеристики подчеркивают амбиции Nvidia конкурировать напрямую с устоявшимися поставщиками серверных CPU.
По данным Nvidia, Meta планирует использовать Vera для приватной обработки и AI-функций в своем зашифрованном мессенджере WhatsApp. Внедрение Vera запланировано на 2027 год, что указывает на многолетний план модернизации инфраструктуры Meta. Однако компания не предоставила подробных сроков внедрения для каждого региона дата-центров или конкретных сервисов, кроме мессенджеров и задач безопасности.
Конкурентный ландшафт: Nvidia выходит на рынок серверных CPU
Переход Nvidia к продаже CPU как самостоятельных продуктов ставит ее в прямую конкуренцию с Intel и AMD на прибыльном рынке серверов. Ранее значительная часть роста Nvidia приходилась на GPU, но добавление CPU позволяет компании иметь более полный портфель для дата-центров. Кроме того, это дает клиентам возможность создавать полноценные стеки на базе одного поставщика, избегая смешения компонентов от разных производителей.
Покупая самостоятельные CPU Nvidia, Meta отклоняется от стратегии других гиперскейлеров. Amazon использует собственные процессоры Graviton, а Google — свои кастомные чипы Axion. В отличие от этого, Meta покупает у Nvidia, несмотря на продолжающееся разработку собственных AI-ускорителей. Однако по данным Financial Times, внутренние разработки чипов Meta столкнулись с «техническими трудностями и задержками в внедрении».
Для Nvidia конкуренция также усиливается. Google, Amazon и Microsoft за последние месяцы анонсировали новые внутренние чипы. Параллельно OpenAI совместно с Broadcom разработала процессор и подписала крупное соглашение с AMD. Несколько стартапов, включая Cerebras, продвигают специализированные inference-чипы, которые могут подорвать доминирование Nvidia при широком распространении.
Рынок, реакция акций и стратегия мультивендорности
В декабре Nvidia приобрела талант из компании Groq, специализирующейся на inference-чипах, в рамках лицензионной сделки, чтобы укрепить свои позиции в новой эпохе inference-вычислений. Однако настроение инвесторов остается чувствительным к любым признакам диверсификации клиентов. В конце прошлого года акции Nvidia снизились на четыре процента после сообщений о том, что Meta ведет переговоры с Google о использовании Tensor Processing Units. С тех пор официальных соглашений по TPU не объявлялось.
Meta также не ограничивается только оборудованием Nvidia. Согласно The Register, компания управляет парком GPU AMD Instinct и участвовала в разработке систем AMD Helios, которые планируется запустить позже в этом году. Такой мультивендорный подход дает Meta рычаги в переговорах по ценам и помогает снизить риски поставок в условиях быстрого роста инфраструктуры Meta AI.
По мере расширения дата-центров Meta вопрос «продает ли Nvidia CPU» реализуется на практике через такие внедрения. Общее соглашение Meta с Nvidia демонстрирует, что CPU Nvidia становятся ключевым элементом крупномасштабных inference-архитектур, даже несмотря на то, что гиперскейлеры экспериментируют со своими собственными кастомными чипами и конкурирующими платформами ускорителей.
В целом, многолетнее аппаратное соглашение Meta подчеркивает структурный сдвиг в AI — от обучения на GPU к inference-оптимизированным архитектурам на базе передовых CPU, таких как Grace и Vera. Однако, учитывая конкуренцию со стороны Intel, AMD, облачных процессоров и специализированных стартапов, Nvidia сталкивается с сложной борьбой за долгосрочное доминирование в дата-центрах.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Meta делает ставку на процессоры Nvidia в многолетней сделке по инфраструктуре ИИ с процессорами Grace и Vera
Meta меняет стратегию своей инфраструктуры искусственного интеллекта через масштабное аппаратное партнерство, сосредоточенное на процессорах Nvidia наряду с следующего поколения GPU.
Meta заключает многолетнюю сделку с Nvidia на поставку GPU и самостоятельных CPU
Материнская компания Facebook Meta подписала многолетнее соглашение с Nvidia о покупке миллионов чипов, охватывающих как GPU, так и, впервые, самостоятельные CPU. В сделке участвуют текущие GPU Blackwell, будущие Rubin GPU, а также новые процессоры Grace и Vera как отдельные продукты. Однако ни одна из сторон не раскрыла общую стоимость контракта.
Бен Баджарин, генеральный директор и главный аналитик в технологической консалтинговой компании Creative Strategies, оценил, что пакет может стоить миллиарды долларов. Более того, технологический портал The Register сообщил, что соглашение, вероятно, добавит десятки миллиардов долларов к прибыли Nvidia за весь срок действия. Это подчеркивает, насколько агрессивно Meta расширяет свою AI-экосистему.
Генеральный директор Meta Марк Цукерберг уже отмечал этот сдвиг в приоритетах расходов. Он объявил, что Meta планирует почти удвоить инвестиции в инфраструктуру AI в 2026 году, с общими затратами, которые могут достичь 135 миллиардов долларов. Однако новое соглашение о чипах дает рынку более ясное представление о том, куда пойдет большая часть этого капитала.
Стратегия CPU Nvidia ориентирована на задачи вывода (inference)
Самым заметным элементом соглашения является не покупка GPU, а решение Meta масштабно использовать CPU Nvidia как самостоятельные продукты. До начала 2026 года процессор Grace предлагался почти исключительно как часть так называемых Superchips, объединяющих CPU и GPU в одном модуле. Однако в январе 2026 года Nvidia официально изменила свою стратегию продаж и начала продавать эти CPU отдельно.
Первым публичным клиентом самостоятельных CPU стал провайдер облачных услуг CoreWeave. Теперь Meta присоединяется к этому списку, что свидетельствует о растущем спросе на гибкие архитектуры на базе CPU. Это соответствует более широкому переходу в AI от обучения огромных моделей к их использованию в производственных средах.
Компания ориентируется на быстрорастущий сегмент inference. В последние годы сектор AI сосредоточился на интенсивном обучении больших моделей с помощью GPU. Однако все больше внимания уделяется inference — процессу запуска и масштабирования обученных систем. Для многих задач inference традиционные GPU избыточны по стоимости и энергопотреблению.
«Мы находились в эпохе «обучения», а теперь переходим в эпоху «вывода», которая требует совершенно другого подхода», — заявил Баджарин в Financial Times. При этом этот сдвиг не исключает спрос на GPU; он лишь меняет баланс между нагрузками GPU и CPU внутри гиперскейл дата-центров.
Процессоры Grace и Vera: технические детали и планы внедрения Meta
Иан Бак, вице-президент и генеральный директор Nvidia по гиперскейлу и HPC, заявил, согласно The Register, что процессор Grace может «удваивать производительность на ватт при выполнении таких задач, как работа с базами данных». Более того, он отметил, что «Meta уже имела возможность протестировать Vera и запустить некоторые из этих задач, и результаты выглядят очень многообещающе». Это подчеркивает усилия Nvidia по оптимизации энергоэффективности для крупномасштабных inference и обработки данных.
Процессор Grace оснащен 72 ядрами Arm Neoverse V2 и использует память LPDDR5x, что дает преимущества в пропускной способности и в условиях ограниченного пространства. В свою очередь, Vera — следующий шаг Nvidia — включает 88 пользовательских ядер Arm с поддержкой многопоточности и встроенными возможностями конфиденциальных вычислений. Эти характеристики подчеркивают амбиции Nvidia конкурировать напрямую с устоявшимися поставщиками серверных CPU.
По данным Nvidia, Meta планирует использовать Vera для приватной обработки и AI-функций в своем зашифрованном мессенджере WhatsApp. Внедрение Vera запланировано на 2027 год, что указывает на многолетний план модернизации инфраструктуры Meta. Однако компания не предоставила подробных сроков внедрения для каждого региона дата-центров или конкретных сервисов, кроме мессенджеров и задач безопасности.
Конкурентный ландшафт: Nvidia выходит на рынок серверных CPU
Переход Nvidia к продаже CPU как самостоятельных продуктов ставит ее в прямую конкуренцию с Intel и AMD на прибыльном рынке серверов. Ранее значительная часть роста Nvidia приходилась на GPU, но добавление CPU позволяет компании иметь более полный портфель для дата-центров. Кроме того, это дает клиентам возможность создавать полноценные стеки на базе одного поставщика, избегая смешения компонентов от разных производителей.
Покупая самостоятельные CPU Nvidia, Meta отклоняется от стратегии других гиперскейлеров. Amazon использует собственные процессоры Graviton, а Google — свои кастомные чипы Axion. В отличие от этого, Meta покупает у Nvidia, несмотря на продолжающееся разработку собственных AI-ускорителей. Однако по данным Financial Times, внутренние разработки чипов Meta столкнулись с «техническими трудностями и задержками в внедрении».
Для Nvidia конкуренция также усиливается. Google, Amazon и Microsoft за последние месяцы анонсировали новые внутренние чипы. Параллельно OpenAI совместно с Broadcom разработала процессор и подписала крупное соглашение с AMD. Несколько стартапов, включая Cerebras, продвигают специализированные inference-чипы, которые могут подорвать доминирование Nvidia при широком распространении.
Рынок, реакция акций и стратегия мультивендорности
В декабре Nvidia приобрела талант из компании Groq, специализирующейся на inference-чипах, в рамках лицензионной сделки, чтобы укрепить свои позиции в новой эпохе inference-вычислений. Однако настроение инвесторов остается чувствительным к любым признакам диверсификации клиентов. В конце прошлого года акции Nvidia снизились на четыре процента после сообщений о том, что Meta ведет переговоры с Google о использовании Tensor Processing Units. С тех пор официальных соглашений по TPU не объявлялось.
Meta также не ограничивается только оборудованием Nvidia. Согласно The Register, компания управляет парком GPU AMD Instinct и участвовала в разработке систем AMD Helios, которые планируется запустить позже в этом году. Такой мультивендорный подход дает Meta рычаги в переговорах по ценам и помогает снизить риски поставок в условиях быстрого роста инфраструктуры Meta AI.
По мере расширения дата-центров Meta вопрос «продает ли Nvidia CPU» реализуется на практике через такие внедрения. Общее соглашение Meta с Nvidia демонстрирует, что CPU Nvidia становятся ключевым элементом крупномасштабных inference-архитектур, даже несмотря на то, что гиперскейлеры экспериментируют со своими собственными кастомными чипами и конкурирующими платформами ускорителей.
В целом, многолетнее аппаратное соглашение Meta подчеркивает структурный сдвиг в AI — от обучения на GPU к inference-оптимизированным архитектурам на базе передовых CPU, таких как Grace и Vera. Однако, учитывая конкуренцию со стороны Intel, AMD, облачных процессоров и специализированных стартапов, Nvidia сталкивается с сложной борьбой за долгосрочное доминирование в дата-центрах.