Передбачення фінансових звітів | Хмарні гіганти ініціюють «революцію витрат на ШІ», настав час ASIC! Технології Майвел(MRVL.US) скоро злетять у показниках
Додаток Zhitong Finance дізнався, що зосереджений на індивідуальних AI-чипах (тобто AI-ASIC) для великих AI-центрів обробки даних, а також на серії AI Trainium від Amazon
Один із найбільших партнерів ASIC — Marvel Technology (MRVL. US) оголосить звіт про прибутки після виходу на фондовий ринок США 5 березня за східним часом. Аналітики з Волл-стріт одностайно очікують, що ШІ буде більш економічно ефективним під хвилею мислення про ШІ та тенденції «мікротренінгу», зосередженого на впровадженні великих моделей ШІ в бізнес-операції
ASIC запустить потужний вплив на монополію Nvidia на чіпи ШІ, яка займає майже 90% ринку, тому аналітики очікують на ШІ
Лідер ASIC Мелвелл і володар ASIC Broadcom (AVGO. US) отримає сильні дані про зростання ефективності, і очікується, що керівництво надасть чіткий діапазон прогнозів ефективності.
У нещодавно опублікованому фінансовому звіті за третій квартал 2026 фінансового року (результати закінчилися 1 листопада 2025 року) Melwell досягла чистого доходу близько $2,075 мільярда, що на 37% більше у річному вимірі та трохи перевищило ринкові очікування, а скоригований прибуток на акцію також перевищив прогнози Wall Street, а сильні показники зростання компанії у третьому фінансовому кварталі відображали індивідуальний ШІ, спричинений бурхливим зростанням нових і розширених AI-центрів дата-центрів від лідерів хмарних обчислень
Попит на ASIC стрімко зростає.
Zacks Investment
Дані аналітиків Wall Street, зібрані дослідженнями, показують, що скоригований прибуток Marvell на акцію за четвертий фінансовий квартал очікується приблизно на $0,79, тобто на 31,7% у річному вимірі; Дохід компанії з виробництва чипів за четвертий фінансовий квартал очікується приблизно на 100%
$2,21 мільярда, що означає, що очікується значне річне зростання на 21% на основі сильної бази попереднього року. За поточним фінансовим роком, аналітики очікують, що прибуток на акцію становитиме 2,84
долар США, що означає, що очікується зростання на 80,9% порівняно з попереднім роком; Аналітики очікують, що дохід Marvell Technology у цьому та наступному фінансовому році становитиме відповідно 8,18 мільярда та 10 мільярдів доларів, що означає, що очікується зростання на 41,8% та 22,3% у річному вимірі відповідно.
Крім того, з завершенням придбання Melwell компаній з оптичних з’єднань компанія ще більше посилить свої технічні можливості у сфері високопропускної здатності та низької затримки AI-центру даних. Очікується, що це придбання поступово сприятиме зростанню доходів у найближчі кілька років і допоможе компанії збільшити свою частку в екосистемі ШІ. У попередньому звіті про ефективність, окрім сильних результатів за третій квартал і потужного розширення поточного квартального прогнозу, компанія з виробництва чипів також повідомила у звіті про прибутки, що придбає Celestial, стартап з виробництва чипів, що зосереджується на оптичному вводі/виведенні з’єднань, за $3,25 мільярда
ШІ для посилення мережевого портфеля.
Метт Мерфі, генеральний директор Marvell Technologies
Мерфі) повідомив під час підрахунку прибутків, що технологія Celestial буде використана у наступному поколінні інфраструктурних апаратних продуктів Marvell Technology, пов’язаних із кремнієвою фотонікою, що сприятиме створенню нового надсинього океанського ринку, який, як очікується, досягне 10 мільярдів доларів для Marvell Technology.
Мерфі та інші керівники компанії також заявили, що очікують перейти з Celestial з другої половини фінансового 2028 року
Бізнес ШІ зробив значний внесок у доходи, досягнувши щорічних операційних очікувань приблизно в 500 мільйонів доларів до четвертого кварталу 2028 фінансового року та подвоївши цей прогноз до 1 мільярда доларів у четвертому кварталі 2029 року.
Занепокоєння ринку щодо перспектив Nvidia є справедливими
Глобальний бум генеративного ШІ прискорив розробку ШІ-чипів гігантами хмарних обчислень і чипів, які конкурують у розробці найшвидших і найенергоефективних кластерів інфраструктури обчислень ШІ для сучасних великих AI-дата-центрів. Metro та її найбільший конкурент, Broadcom, зосереджені на використанні своїх абсолютних переваг у високошвидкісному з’єднанні та IP чипів для співпраці з гігантами хмарних обчислень, такими як Amazon, Google і Microsoft, щоб створювати ШІ, адаптований до конкретних потреб їхніх центрів обробки даних
кластер обчислювальної потужності ASIC, і цей ASIC-бізнес виріс у дуже важливий бізнес обох компаній, таких як кластер обчислювальної потужності TPU, створений Broadcom і Google, який є найпоширенішим AI
Технічний маршрут ASIC.
Пітер, новий керівник інфраструктури штучного інтелекту Amazon
У п’ятницю в інтерв’ю ЗМІ ДеСантіс сказав: «Якщо ми зможемо створювати моделі на власних власних AI-чипах, ми зможемо створити ці моделі за частку вартості чисто AI-великих постачальників моделей.» ”
ДеСантіа додав: «Дійсно існує певна проблема з вартістю у будівництві гіпермасштабних AI-дата-центрів. Якщо ми врешті-решт хочемо, щоб ШІ змінив усе, витрати мають бути іншими. ”
Ринок загалом вважає, що «супер-володар чипа ШІ» Nvidia (NVDA. США) досі контролює переважну більшість ринку ринку чипів штучного інтелекту, який є ключовою галуззю інфраструктури обчислювальної потужності на основі штучного інтелекту. Гігант чипів, очолюваний Дженсеном Хуангом, щойно оголосив результати за четвертий квартал 2026 фінансового року та прогнози на наступний фінансовий квартал, які значно перевищили очікування, але ціна акцій різко впала на 5% у четвер, головним чином через зростаючі занепокоєння гіпермасштабних гіпермасштабних гігантів хмарних обчислень, які нещодавно оголосили про запуск більш економічного ШІ на основі власноруч розроблених моделей
Тенденція на ASIC-чипи дедалі більше дає ознаки загрози довгостроковому абсолютному домінуванню Nvidia у сфері AI-чипів — основі глобальної AI-інфраструктури.
Звісно, Anthropic, відомий як конкурент OpenAI, планує витратити десятки мільярдів доларів на купівлю 1 мільйона TPU-чипів, а материнська компанія Facebook Meta розглядає можливість витратити мільярди доларів на TPU Google пізніше у 2026 або 2027 році
Інфраструктура обчислень на основі ШІ, включно зі будівництвом надзвичайно великого центру даних на основі ШІ для Meta та оголошенням Amazon про спробу використати Trainium і Inferentia для розробки великих моделей ШІ, усе це свідчить про те, що гіганти хмарних обчислень запускають «революцію вартості обчислювальної потужності ШІ» для просування саморозробленого ШІ
Масштаб проникнення ASIC, занепокоєння ринку щодо перспектив Nvidia є правильними.
Наближається велика хвиля мислення щодо ШІ, і «монопольна частка» Nvidia зазнає серйозних наслідків
Без сумніву, серйозні обмеження на економічному та потужному рівні змусили Microsoft, Amazon, Google і материнську компанію Facebook Meta просувати ШІ
Основна мета саморозроблених AI-чипів внутрішньої системи хмарних обчислень ASIC-технології — зробити кластер обчислювальної потужності ШІ більш економічним і енергоефективним.
Вартість будівництва ультрамасштабних AI-дата-центрів, подібних до «Stargate», є високою, тому технологічні гіганти дедалі частіше вимагають, щоб системи обчислювальної потужності на базі ШІ були економічно вигідними, а за обмежень енергії технологічні гіганти прагнуть досягти максимальної «одиничної вартості токена, одиниці ватт», яка належить ШІ
Досягнуло процвітання маршрутів ASIC-технологій.
Крім того, сучасні кластери обчислювальної потужності на основі штучного інтелекту, подібні до архітектури Blackwell від Nvidia, довго дефіцитують, дорогі та схильні до вузьких місць у ланцюгах постачання та ритмах доставки
ASIC без сумніву можуть забезпечити «пропускну здатність другої кривої» та бути активнішими у переговорах щодо закупівель, ціноутворення продукції та валовому прибутку хмарних обчислювальних сервісів, накладаючись на Google, Microsoft та інші гіганти хмарних обчислень можуть інтегрувати та спільно розробляти «компілятор системи з’єднання чипів/планування під час виконання спостережень/надійність» для підвищення використання обчислювальної інфраструктури та зменшення TCO.
NVIDIA AI
Частина навчання ШІ, яка майже монополізована GPU, вимагає потужнішої універсальності кластерів обчислювальної потужності ШІ та швидких ітерацій усієї системи обчислювальної потужності, тоді як інференція AI приділяє більше уваги вартості одиницькому токену, затримці та енергоефективності після масштабного впровадження передових технологій ШІ. Наприклад, Google чітко позиціонує Ironwood як покоління TPU, «народжене для епохи AI-інференції», і наголошує на економічній ефективності та масштабованості кластерів продуктивності/енергоефективності/обчислювальної потужності. Але останні дії Amazon доводять, що існування штучного інтелекту
ASIC можуть мати великий потенціал для навчання великих моделей.
ШІ
Основна причина полягає в тому, що основна конкуренція в епоху виведення — це вже не просто «пік обчислювальної потужності», а вартість одного токену, енергоспоживання, використання пропускної здатності пам’яті, ефективність міжз’єднання та загальна вартість володіння після синергії програмного забезпечення і апаратного забезпечення. У цих метриках потоки даних, компілятори та інтерконектори, адаптовані до конкретних навантажень, природно більш економічно вигідні, ніж універсальні GPU.
Однак для Nvidia та AMD це здебільшого означає, що маргінальне пригнічення реальне, але скоріше це проявляється у вигляді зниження переговорної сили, частки частки та стиснення оціночних премій, а не як крах абсолютного попиту. ШІ
ASIC, без сумніву, й надалі впливатимуть на монополію GPU, яку домінує NVIDIA під суперхвилєю виведення ШІ, але цей вплив більше схожий на переосмислення промислового прибутку та структури закупівель клієнтів, а не на недійсність логіки розширення GPU.
Представники AWS чітко позиціонували Trainium/Inferentia як спеціалізований акселератор для генеративного навчання та висновків з ШІ, при цьому Trainium2 порівнює його зі своїм ШІ
Хмарні інстанси GPU забезпечують приблизно на 30–40% кращу цінову продуктивність; Google також публічно заявила, що Gemini 2.0 з’явилася не так давно
Навчання та висновки виконуються на 100% на TPU. Це показує, що «саморозроблені ASIC для виробників надвеликих хмарних обчислень для проведення навчання/висновку основних моделей» більше не є доказом концепції, а перейшли на етап відтворюваної індустріалізації.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Передбачення фінансових звітів | Хмарні гіганти ініціюють «революцію витрат на ШІ», настав час ASIC! Технології Майвел(MRVL.US) скоро злетять у показниках
Додаток Zhitong Finance дізнався, що зосереджений на індивідуальних AI-чипах (тобто AI-ASIC) для великих AI-центрів обробки даних, а також на серії AI Trainium від Amazon Один із найбільших партнерів ASIC — Marvel Technology (MRVL. US) оголосить звіт про прибутки після виходу на фондовий ринок США 5 березня за східним часом. Аналітики з Волл-стріт одностайно очікують, що ШІ буде більш економічно ефективним під хвилею мислення про ШІ та тенденції «мікротренінгу», зосередженого на впровадженні великих моделей ШІ в бізнес-операції ASIC запустить потужний вплив на монополію Nvidia на чіпи ШІ, яка займає майже 90% ринку, тому аналітики очікують на ШІ Лідер ASIC Мелвелл і володар ASIC Broadcom (AVGO. US) отримає сильні дані про зростання ефективності, і очікується, що керівництво надасть чіткий діапазон прогнозів ефективності.
У нещодавно опублікованому фінансовому звіті за третій квартал 2026 фінансового року (результати закінчилися 1 листопада 2025 року) Melwell досягла чистого доходу близько $2,075 мільярда, що на 37% більше у річному вимірі та трохи перевищило ринкові очікування, а скоригований прибуток на акцію також перевищив прогнози Wall Street, а сильні показники зростання компанії у третьому фінансовому кварталі відображали індивідуальний ШІ, спричинений бурхливим зростанням нових і розширених AI-центрів дата-центрів від лідерів хмарних обчислень Попит на ASIC стрімко зростає.
Zacks Investment Дані аналітиків Wall Street, зібрані дослідженнями, показують, що скоригований прибуток Marvell на акцію за четвертий фінансовий квартал очікується приблизно на $0,79, тобто на 31,7% у річному вимірі; Дохід компанії з виробництва чипів за четвертий фінансовий квартал очікується приблизно на 100% $2,21 мільярда, що означає, що очікується значне річне зростання на 21% на основі сильної бази попереднього року. За поточним фінансовим роком, аналітики очікують, що прибуток на акцію становитиме 2,84 долар США, що означає, що очікується зростання на 80,9% порівняно з попереднім роком; Аналітики очікують, що дохід Marvell Technology у цьому та наступному фінансовому році становитиме відповідно 8,18 мільярда та 10 мільярдів доларів, що означає, що очікується зростання на 41,8% та 22,3% у річному вимірі відповідно.
Крім того, з завершенням придбання Melwell компаній з оптичних з’єднань компанія ще більше посилить свої технічні можливості у сфері високопропускної здатності та низької затримки AI-центру даних. Очікується, що це придбання поступово сприятиме зростанню доходів у найближчі кілька років і допоможе компанії збільшити свою частку в екосистемі ШІ. У попередньому звіті про ефективність, окрім сильних результатів за третій квартал і потужного розширення поточного квартального прогнозу, компанія з виробництва чипів також повідомила у звіті про прибутки, що придбає Celestial, стартап з виробництва чипів, що зосереджується на оптичному вводі/виведенні з’єднань, за $3,25 мільярда ШІ для посилення мережевого портфеля.
Метт Мерфі, генеральний директор Marvell Technologies Мерфі) повідомив під час підрахунку прибутків, що технологія Celestial буде використана у наступному поколінні інфраструктурних апаратних продуктів Marvell Technology, пов’язаних із кремнієвою фотонікою, що сприятиме створенню нового надсинього океанського ринку, який, як очікується, досягне 10 мільярдів доларів для Marvell Technology.
Мерфі та інші керівники компанії також заявили, що очікують перейти з Celestial з другої половини фінансового 2028 року Бізнес ШІ зробив значний внесок у доходи, досягнувши щорічних операційних очікувань приблизно в 500 мільйонів доларів до четвертого кварталу 2028 фінансового року та подвоївши цей прогноз до 1 мільярда доларів у четвертому кварталі 2029 року.
Занепокоєння ринку щодо перспектив Nvidia є справедливими
Глобальний бум генеративного ШІ прискорив розробку ШІ-чипів гігантами хмарних обчислень і чипів, які конкурують у розробці найшвидших і найенергоефективних кластерів інфраструктури обчислень ШІ для сучасних великих AI-дата-центрів. Metro та її найбільший конкурент, Broadcom, зосереджені на використанні своїх абсолютних переваг у високошвидкісному з’єднанні та IP чипів для співпраці з гігантами хмарних обчислень, такими як Amazon, Google і Microsoft, щоб створювати ШІ, адаптований до конкретних потреб їхніх центрів обробки даних кластер обчислювальної потужності ASIC, і цей ASIC-бізнес виріс у дуже важливий бізнес обох компаній, таких як кластер обчислювальної потужності TPU, створений Broadcom і Google, який є найпоширенішим AI Технічний маршрут ASIC.
Пітер, новий керівник інфраструктури штучного інтелекту Amazon У п’ятницю в інтерв’ю ЗМІ ДеСантіс сказав: «Якщо ми зможемо створювати моделі на власних власних AI-чипах, ми зможемо створити ці моделі за частку вартості чисто AI-великих постачальників моделей.» ”
ДеСантіа додав: «Дійсно існує певна проблема з вартістю у будівництві гіпермасштабних AI-дата-центрів. Якщо ми врешті-решт хочемо, щоб ШІ змінив усе, витрати мають бути іншими. ”
Ринок загалом вважає, що «супер-володар чипа ШІ» Nvidia (NVDA. США) досі контролює переважну більшість ринку ринку чипів штучного інтелекту, який є ключовою галуззю інфраструктури обчислювальної потужності на основі штучного інтелекту. Гігант чипів, очолюваний Дженсеном Хуангом, щойно оголосив результати за четвертий квартал 2026 фінансового року та прогнози на наступний фінансовий квартал, які значно перевищили очікування, але ціна акцій різко впала на 5% у четвер, головним чином через зростаючі занепокоєння гіпермасштабних гіпермасштабних гігантів хмарних обчислень, які нещодавно оголосили про запуск більш економічного ШІ на основі власноруч розроблених моделей Тенденція на ASIC-чипи дедалі більше дає ознаки загрози довгостроковому абсолютному домінуванню Nvidia у сфері AI-чипів — основі глобальної AI-інфраструктури.
Звісно, Anthropic, відомий як конкурент OpenAI, планує витратити десятки мільярдів доларів на купівлю 1 мільйона TPU-чипів, а материнська компанія Facebook Meta розглядає можливість витратити мільярди доларів на TPU Google пізніше у 2026 або 2027 році Інфраструктура обчислень на основі ШІ, включно зі будівництвом надзвичайно великого центру даних на основі ШІ для Meta та оголошенням Amazon про спробу використати Trainium і Inferentia для розробки великих моделей ШІ, усе це свідчить про те, що гіганти хмарних обчислень запускають «революцію вартості обчислювальної потужності ШІ» для просування саморозробленого ШІ Масштаб проникнення ASIC, занепокоєння ринку щодо перспектив Nvidia є правильними.
Наближається велика хвиля мислення щодо ШІ, і «монопольна частка» Nvidia зазнає серйозних наслідків
Без сумніву, серйозні обмеження на економічному та потужному рівні змусили Microsoft, Amazon, Google і материнську компанію Facebook Meta просувати ШІ Основна мета саморозроблених AI-чипів внутрішньої системи хмарних обчислень ASIC-технології — зробити кластер обчислювальної потужності ШІ більш економічним і енергоефективним.
Вартість будівництва ультрамасштабних AI-дата-центрів, подібних до «Stargate», є високою, тому технологічні гіганти дедалі частіше вимагають, щоб системи обчислювальної потужності на базі ШІ були економічно вигідними, а за обмежень енергії технологічні гіганти прагнуть досягти максимальної «одиничної вартості токена, одиниці ватт», яка належить ШІ Досягнуло процвітання маршрутів ASIC-технологій.
Крім того, сучасні кластери обчислювальної потужності на основі штучного інтелекту, подібні до архітектури Blackwell від Nvidia, довго дефіцитують, дорогі та схильні до вузьких місць у ланцюгах постачання та ритмах доставки ASIC без сумніву можуть забезпечити «пропускну здатність другої кривої» та бути активнішими у переговорах щодо закупівель, ціноутворення продукції та валовому прибутку хмарних обчислювальних сервісів, накладаючись на Google, Microsoft та інші гіганти хмарних обчислень можуть інтегрувати та спільно розробляти «компілятор системи з’єднання чипів/планування під час виконання спостережень/надійність» для підвищення використання обчислювальної інфраструктури та зменшення TCO.
NVIDIA AI Частина навчання ШІ, яка майже монополізована GPU, вимагає потужнішої універсальності кластерів обчислювальної потужності ШІ та швидких ітерацій усієї системи обчислювальної потужності, тоді як інференція AI приділяє більше уваги вартості одиницькому токену, затримці та енергоефективності після масштабного впровадження передових технологій ШІ. Наприклад, Google чітко позиціонує Ironwood як покоління TPU, «народжене для епохи AI-інференції», і наголошує на економічній ефективності та масштабованості кластерів продуктивності/енергоефективності/обчислювальної потужності. Але останні дії Amazon доводять, що існування штучного інтелекту ASIC можуть мати великий потенціал для навчання великих моделей.
ШІ Основна причина полягає в тому, що основна конкуренція в епоху виведення — це вже не просто «пік обчислювальної потужності», а вартість одного токену, енергоспоживання, використання пропускної здатності пам’яті, ефективність міжз’єднання та загальна вартість володіння після синергії програмного забезпечення і апаратного забезпечення. У цих метриках потоки даних, компілятори та інтерконектори, адаптовані до конкретних навантажень, природно більш економічно вигідні, ніж універсальні GPU.
Однак для Nvidia та AMD це здебільшого означає, що маргінальне пригнічення реальне, але скоріше це проявляється у вигляді зниження переговорної сили, частки частки та стиснення оціночних премій, а не як крах абсолютного попиту. ШІ ASIC, без сумніву, й надалі впливатимуть на монополію GPU, яку домінує NVIDIA під суперхвилєю виведення ШІ, але цей вплив більше схожий на переосмислення промислового прибутку та структури закупівель клієнтів, а не на недійсність логіки розширення GPU.
Представники AWS чітко позиціонували Trainium/Inferentia як спеціалізований акселератор для генеративного навчання та висновків з ШІ, при цьому Trainium2 порівнює його зі своїм ШІ Хмарні інстанси GPU забезпечують приблизно на 30–40% кращу цінову продуктивність; Google також публічно заявила, що Gemini 2.0 з’явилася не так давно Навчання та висновки виконуються на 100% на TPU. Це показує, що «саморозроблені ASIC для виробників надвеликих хмарних обчислень для проведення навчання/висновку основних моделей» більше не є доказом концепції, а перейшли на етап відтворюваної індустріалізації.