Подробное объяснение инфраструктуры AI+Web3

Средний3/29/2024, 7:41:47 PM
Основные проекты на инфраструктурном уровне промышленности AI+Web3 в основном берут децентрализованную вычислительную сеть как основное повествование, низкая стоимость как основное преимущество, токен-стимулы как основной способ расширения сети и обслуживание клиентов AI+Web3 как основная цель.

Перенаправленный оригинальный заголовок: AI+Web3 Future Development Path (2): Глава инфраструктуры

Инфраструктура - это детерминированное направление роста развития искусственного интеллекта

1. Растущий спрос на вычисления ИИ

В последние годы спрос на вычислительную мощность испытал стремительный рост, особенно после появления большой модели LLM. Этот взрывной рост спроса на вычислительную мощность для искусственного интеллекта значительно повлиял на рынок высокопроизводительных вычислений. Данные от OpenAI показывают удивительную тенденцию с 2012 года, с вычислительной мощностью, используемой для обучения крупнейших моделей искусственного интеллекта, растущей экспоненциально, удваиваясь в среднем каждые 3-4 месяца, превышая темп роста, предсказанный законом Мура. Растущий спрос на приложения искусственного интеллекта привел к быстрому увеличению потребности в вычислительном оборудовании. Прогнозы указывают, что к 2025 году спрос на вычислительное оборудование, обусловленный приложениями искусственного интеллекта, ожидается увеличиться примерно на 10% до 15%.

Под влиянием спроса на вычислительную мощность искусственного интеллекта производитель GPU-оборудования NVIDIA заметил продолжительный рост выручки от центров обработки данных. Во втором квартале 2023 года выручка от центров обработки данных достигла 10,32 миллиарда долларов, что означает увеличение на 141% по сравнению с первым кварталом 2023 года и значительный скачок на 171% по сравнению с аналогичным периодом предыдущего года. К четвертому кварталу финансового года 2024 сегмент центров обработки данных составил более 83% от общего дохода, испытав одновременный рост на 409%, причем 40% приходится на сценарии вывода больших моделей, что указывает на сильный спрос на высокопроизводительную вычислительную мощность.

Одновременно необходимость в огромных объемах данных накладывает значительные требования на хранение и аппаратную память. Особенно во время этапа обучения модели необходимы обширные входные параметры и хранение данных. Чипы памяти, используемые в серверах ИИ, включают в себя преимущественно память высокой пропускной способности (HBM), ОЗУ и SSD. Рабочие среды для серверов ИИ должны обеспечивать увеличенную емкость, улучшенную производительность, сниженную задержку и более быстрые времена ответа. Согласно расчетам Micron, количество ОЗУ в серверах ИИ превышает это в традиционных серверах в восемь раз, в то время как количество NAND превосходит стандарты традиционных серверов в три раза.

2. Неравновесие спроса и предложения увеличивает затраты на вычислительную мощность

Традиционно вычислительная мощность в первую очередь используется на этапах обучения, настройки и вывода моделей искусственного интеллекта, особенно во время этапов обучения и настройки. Из-за увеличения входных параметров данных, вычислительных требований и повышенного спроса на взаимосвязь в параллельных вычислениях, требуется более мощное и взаимосвязанное оборудование GPU, чаще всего в виде высокопроизводительных кластеров GPU. По мере развития больших моделей вычислительная сложность увеличивается линейно, что требует более продвинутого аппаратного обеспечения для удовлетворения потребностей в обучении моделей.

На примере GPT-3, при сценарии с участием около 13 миллионов независимых посещений пользователей, соответствующий спрос на чипы превысил бы 30 000 графических процессоров A100. Эта первоначальная инвестиция достигнет поразительной отметки в $800 миллионов, а оценочные ежедневные затраты на вывод модели составят около $700 000.

В то же время отраслевые отчеты указывают на то, что в четвертом квартале 2023 года поставки графических процессоров NVIDIA были сильно ограничены во всем мире, что привело к заметному дисбалансу между спросом и предложением на рынках по всему миру. Производственные мощности NVIDIA были ограничены такими факторами, как TSMC, HBM, упаковка CoWos, и ожидается, что «серьезная проблема дефицита» графического процессора H100 сохранится как минимум до конца 2024 года.

Поэтому всплеск спроса на высокопроизводительные ГПС и ограничения поставок привели к стремительному росту цен на текущие аппаратные компоненты, такие как ГПС. Особенно для компаний, таких как NVIDIA, занимающих ключевое положение в отраслевой цепочке, высокие цены дополнительно увеличиваются их монополистическим доминированием, позволяя им получать дополнительные дивиденды от добавленной стоимости. Например, материальная стоимость ускорителя искусственного интеллекта H100 от NVIDIA составляет примерно 3 000 долларов, однако его цена продажи достигла около 35 000 долларов к середине 2023 года и даже превысила 40 000 долларов на eBay.

3. Искусственный интеллект инфраструктуры стимулирует рост цепочки индустрии

Отчет Grand View Research указывает, что глобальный объем рынка облачного искусственного интеллекта был оценен в $62.63 миллиарда в 2023 году, прогнозируется достижение $647.6 миллиарда к 2030 году, с совокупным годовым темпом роста в 39.6%. Эти цифры подчеркивают значительный потенциал роста облачных сервисов искусственного интеллекта и их существенный вклад в общую цепочку индустрии искусственного интеллекта.

Согласно оценкам a16z, существенная часть средств на рынке AIGC (искусственный интеллект и глобальные вычисления) в конечном итоге направляется к инфраструктурным компаниям. В среднем компании-разработчики приложений выделяют примерно 20-40% своего дохода на выводы и тонкую настройку для каждого клиента. Эти расходы обычно направляются на облачного провайдера вычислительного экземпляра или стороннего поставщика моделей, которые в свою очередь выделяют примерно половину дохода на облачную инфраструктуру. Следовательно, разумно предположить, что 10-20% общего дохода, генерируемого AIGC, направляется облачным провайдерам.

Кроме того, значительная часть спроса на вычислительную мощность сосредоточена вокруг обучения больших моделей искусственного интеллекта, включая различные обширные модели LLM. Особенно для стартапов моделей 80-90% затрат приходится на вычислительную мощность искусственного интеллекта. Коллективно, инфраструктура вычислений искусственного интеллекта, включая облачные вычисления и аппаратное обеспечение, предполагается составит более 50% первоначальной стоимости рынка.

Децентрализованные вычисления искусственного интеллекта

Как уже обсуждалось, текущая стоимость централизованных вычислений искусственного интеллекта остается высокой, в первую очередь из-за растущего спроса на высокопроизводительную инфраструктуру для обучения искусственного интеллекта. Однако на рынке существует значительное количество неиспользуемой вычислительной мощности, что приводит к дисбалансу между спросом и предложением. Ключевые факторы, способствующие этому дисбалансу, включают:

  • Ограниченная памятью, сложность модели не имеет линейного отношения к количеству требуемых графических процессоров.: У современных графических процессоров есть преимущества в области вычислительной мощности, но для обучения модели требуется большое количество параметров, которые должны храниться в памяти. Например, для GPT-3 для обучения модели с 175 миллиардами параметров требуется хранить более 1 терабайта данных в памяти - больше, чем доступно на любом графическом процессоре сегодня, что требует использования большего количества графических процессоров для параллельных вычислений и хранения, что в свою очередь приведет к простою вычислительной мощности графического процессора. Например, от GPT3 к GPT4 размер параметров модели увеличился примерно в 10 раз, но количество требуемых графических процессоров увеличилось в 24 раза (не учитывая увеличение времени обучения модели). Согласно соответствующему анализу, OpenAI использовала при обучении GPT-4 приблизительно 2.15е25 FLOPS и проводила обучение на приблизительно 25 000 графических процессорах A100 в течение 90 до 100 дней, с использованием вычислительной мощности приблизительно 32% до 36%.

В ответ на вышеупомянутые вызовы, стремление к разработке высокопроизводительных микросхем или специализированных ASIC-микросхем, предназначенных для задач искусственного интеллекта, является важным направлением, которое исследуют многочисленные разработчики и крупные предприятия. Другой подход включает в себя комплексное использование существующих вычислительных ресурсов для создания распределенной вычислительной сети с целью снижения затрат на вычислительную мощность путем аренды, обмена и эффективного планирования ресурсов. Кроме того, на рынке сейчас имеется избыток простаивающих графических процессоров и центральных процессоров для потребителей. Хотя отдельные устройства могут не обладать мощностью вычислений, они могут эффективно удовлетворять существующие вычислительные требования в конкретных сценариях или при интеграции с высокопроизводительными микросхемами. Крайне важно обеспечить достаточное предложение, так как затраты могут быть дополнительно снижены благодаря распределенному планированию сети.

Следовательно, переход к распределенной вычислительной мощности стал ключевым направлением в развитии инфраструктуры искусственного интеллекта. Одновременно, учитывая концептуальное сопоставление между Web3 и распределенными системами, децентрализованные сети вычислительной мощности стали первоочередным объектом в ландшафте инфраструктуры Web3+AI. В настоящее время децентрализованные платформы вычислительной мощности на рынке Web3, как правило, предлагают цены, которые на 80%-90% ниже, чем централизованные облачные вычисления.

При этом распределенные вычислительные сети имеют значительный рыночный потенциал и могут получить существенные выгоды от расширения рынка искусственного интеллекта благодаря значительным экономическим эффективностям.

  • Логический вывод модели и обучение малых моделей представляют собой фундаментальные сценарии для современных распределенных вычислительных мощностей. Рассредоточение вычислительных ресурсов в распределенных системах неизбежно создает проблемы связи между графическими процессорами, что потенциально приводит к снижению вычислительной производительности. Следовательно, распределенные вычислительные мощности лучше всего подходят для сценариев, требующих минимального взаимодействия и поддерживающих параллельные задачи. Эти сценарии включают фазу вывода для обширных моделей ИИ и небольших моделей с относительно меньшим количеством параметров, что сводит к минимуму влияние на производительность. Забегая вперед, можно сказать, что по мере развития приложений ИИ рассуждение становится критически важным требованием на прикладном уровне. Учитывая, что большинство компаний не имеют возможности самостоятельно обучать большие модели, распределенные вычислительные мощности сохраняют значительный долгосрочный рыночный потенциал.
  • Наблюдается рост высокопроизводительных распределенных обучающих фреймворков, специально разработанных для параллельных вычислений большого масштаба. Инновационные открытые распределенные вычислительные фреймворки, такие как PyTorch, Ray и DeepSpeed, обеспечивают разработчиков надежной базовой поддержкой для использования распределенной вычислительной мощности в обучении моделей. Это развитие улучшает применимость распределенной вычислительной мощности на будущем рынке искусственного интеллекта, облегчая ее интеграцию в различные приложения искусственного интеллекта.

Логика повествования проектов AI+Web3 инфраструктуры

Сектор распределенной инфраструктуры искусственного интеллекта демонстрирует стабильный спрос и значительные перспективы долгосрочного роста, что делает его привлекательной областью для инвестиционного капитала. В настоящее время основные проекты в инфраструктурном слое отрасли искусственного интеллекта и Web3 в основном сосредотачиваются вокруг децентрализованных вычислительных сетей. Эти проекты подчеркивают низкие затраты как ключевое преимущество, используют токен-стимулы для расширения своих сетей и отдают предпочтение обслуживанию клиентов в сфере искусственного интеллекта и Web3 как своей основной цели. Этот сектор в основном состоит из двух ключевых уровней:

  1. Относительно чистая децентрализованная платформа обмена и аренды ресурсов облачных вычислений: Ранние проекты по искусственному интеллекту, такие как Render Network, Akash Network и другие, относятся к этой категории.
  • Основным конкурентным преимуществом в этом секторе является ресурсы вычислительной мощности, обеспечивающие доступ к разнообразным поставщикам, быстрое создание сети и пользовательские продукты. Ранние участники рынка, такие как компании облачных вычислений и майнеры, хорошо позиционированы для использования этой возможности.
  • С низкими порогами продуктов и быстрыми возможностями запуска установленные платформы, такие как Render Network и Akash Network, продемонстрировали заметный рост и имеют конкурентное преимущество.
  • Однако новым участникам рынка сталкиваются с проблемами гомогенности продукции. Текущий тренд и низкие барьеры для входа привели к волне проектов, сосредотачивающихся на общей вычислительной мощности и аренде. Хотя эти предложения лишены дифференциации, растет потребность в отчетливых конкурентных преимуществах.
  • Поставщики обычно ориентируются на клиентов с базовыми вычислительными потребностями. Например, Render Network специализируется на услугах в области рендеринга, в то время как Akash Network предлагает улучшенные ресурсы ЦП. Хотя простого аренды вычислительных ресурсов достаточно для базовых задач ИИ, это недостаточно для удовлетворения комплексных потребностей сложных процессов ИИ, таких как обучение, точная настройка и вывод.
  1. Предлагая услуги децентрализованных вычислений и рабочего процесса машинного обучения, недавно многие новые проекты, включая Gensyn, io.net, Ritual и другие, получили значительное финансирование.
  • Децентрализованные вычисления поднимают основу оценки в отрасли. Поскольку вычислительная мощность стоит во главе решающего рассказа в развитии ИИ, проекты, основанные на вычислительной мощности, склонны хвалиться более надежными и высокопотенциальными бизнес-моделями, что приводит к более высоким оценкам по сравнению с чисто промежуточными проектами.
  • Сервисы среднего уровня создают уникальные преимущества. Услуги, предлагаемые средним слоем, служат конкурентными преимуществами для этих вычислительных инфраструктур, охватывая функции, такие как оракулы и верификаторы, облегчающие синхронизацию расчетов в сети и вне сети на цепи искусственного интеллекта, инструменты развертывания и управления, поддерживающие общий рабочий процесс искусственного интеллекта, и многое другое. Рабочий процесс искусственного интеллекта характеризуется сотрудничеством, непрерывной обратной связью и высокой сложностью, требуя вычислительной мощности на различных этапах. Поэтому средний слой, который удобен для пользователя, очень совместим и способен удовлетворить сложные потребности разработчиков искусственного интеллекта, выступает в качестве конкурентного актива, особенно в домене Web3, удовлетворяя требования разработчиков Web3 в области искусственного интеллекта. Эти услуги лучше всего подходят для потенциальных рынков приложений искусственного интеллекта, выходя за рамки базовой вычислительной поддержки.
  • Команды проектов с профессиональным опытом в области эксплуатации и обслуживания ML обычно являются неотъемлемыми. Команды, предлагающие сервисы среднего уровня, должны обладать всесторонним пониманием всего рабочего процесса ML для эффективного удовлетворения полного жизненного цикла требований разработчиков. Хотя такие сервисы часто используют существующие фреймворки и инструменты с отсутствием значительной технической инновации, они требуют команду с обширным опытом и крепкими инженерными способностями, что служит конкурентным преимуществом для проекта.

Предоставляя услуги по более конкурентоспособным ценам, чем централизованные облачные вычисления, сохраняя при этом сравнимые средства поддержки и пользовательский опыт, этот проект получил признание от крупных инвесторов. Однако повышенная техническая сложность представляет собой значительное испытание. В настоящее время проект находится в стадии повествования и развития, пока не был запущен полностью продукт.

Представительный проект

1. Сеть Render

Render Network - это глобальная блокчейн-платформа для рендеринга, которая использует распределенные графические процессоры для предоставления создателям экономичных и эффективных услуг по 3D-рендерингу. После подтверждения создателем результатов рендеринга блокчейн-сеть отправляет вознаграждения в виде токенов узлам. Платформа предлагает распределенную сеть планирования и выделения графических процессоров, назначая задачи на основе использования узла, репутации и других факторов для оптимизации вычислительной эффективности, минимизации простоя ресурсов и снижения расходов.

The platform’s native token, RNDR, serves as the payment currency within the ecosystem. Users can utilize RNDR to settle rendering service fees, while service providers earn RNDR rewards by contributing computing power to complete rendering tasks. The pricing of rendering services is dynamically adjusted in response to current network usage and other relevant metrics.

Рендеринг оказывается хорошо подходящим и установленным случаем использования архитектуры распределенной вычислительной мощности. Природа задач рендеринга позволяет разделить их на несколько подзадач, выполняемых параллельно, минимизируя межзадачное общение и взаимодействие. Такой подход смягчает недостатки архитектуры распределенных вычислений, используя обширную сеть узлов GPU для обеспечения экономии затрат.

Спрос на Сеть Render значителен, пользователи отрендерили более 16 миллионов кадров и почти 500 000 сцен на платформе с момента ее создания в 2017 году. Объем рабочих мест по рендерингу и активные узлы продолжают расти. Кроме того, в I квартале 2023 года Render Network представила нативно интегрированный набор инструментов Stability AI, позволяющий пользователям внедрять операции Stable Diffusion. Это расширение за пределы операций по рендерингу свидетельствует о стратегическом движении в область приложений искусственного интеллекта.

2.Gensyn.ai

Gensyn действует как глобальная суперкомпьютерная сеть, специализирующаяся на вычислениях глубокого обучения с использованием протокола L1 Polkadot. В 2023 году платформа привлекла $43 миллиона в рамках серии A инвестиций, возглавляемых a16z. Архитектурная структура Gensyn простирается за пределы кластера вычислительной мощности инфраструктуры, чтобы охватить верификационную систему верхнего уровня. Эта система гарантирует, что обширные вычисления вне цепи соответствуют требованиям on-chain через верификацию блокчейна, устанавливая доверительную сеть машинного обучения.

Что касается распределенной вычислительной мощности, Gensyn предоставляет спектр устройств, от центров обработки данных с избыточной мощностью до персональных ноутбуков с потенциальными графическими процессорами. Он объединяет эти устройства в единый виртуальный кластер, доступный разработчикам для мгновенного взаимодействия в сети. Gensyn стремится создать рынок, где ценообразование определяется рыночными силами, способствуя инклюзивности и обеспечивая достижение справедливых уровней затрат на вычисления ML.

Система верификации является ключевым концептом для Gensyn, нацеленным на подтверждение точности задач машинного обучения в соответствии с указанными критериями. Она представляет инновационный подход к верификации, охватывающий вероятностное доказательство обучения, протокол точного позиционирования на основе графа и Truebit. Эти основные технические особенности инцентивной игры обеспечивают улучшенную эффективность по сравнению с традиционными методами валидации блокчейна. Сетевые участники включают подающих, решающих, верификаторов и информаторов, совместно облегчающих процесс верификации.

На основе обширных тестовых данных, описанных в белой книге протокола Gensyn, заметными преимуществами платформы являются:

  • Снижение затрат на обучение модели искусственного интеллекта: протокол Gensyn предлагает вычисления, эквивалентные NVIDIA V100, по оценочной стоимости около $0.40 в час, что позволяет сэкономить до 80% по сравнению с вычислениями по запросу AWS.
  • Улучшенная эффективность в сети проверки без доверия: Результаты тестов, изложенные в белой книге, указывают на значительное улучшение времени обучения модели при использовании протокола Gensyn. Временная нагрузка была улучшена на 1,350% по сравнению с Truebit воспроизведением и на экстраординарные 2,522,477% по сравнению с Ethereum.

Однако параллельно распределенная вычислительная мощность приводит к неизбежному увеличению времени обучения по сравнению с локальным обучением, вызванному коммуникационными и сетевыми проблемами. На основе тестовых данных протокол Gensyn вызывает приблизительно 46% избыточного времени в обучении модели.

3. Сеть Akash

Сеть Akash функционирует как распределенная облачная вычислительная платформа, интегрирующая различные технические элементы для обеспечения пользователям эффективного развертывания и управления приложениями в децентрализованной облачной среде. По сути, она предоставляет пользователям возможность арендовать распределенные вычислительные ресурсы.

В основе Akash лежит сеть поставщиков инфраструктурных услуг, разбросанных по всему миру, предлагающих ресурсы центрального процессора, графического процессора, памяти и хранилища. Эти поставщики предоставляют ресурсы для аренды пользователей через верхний кластер Kubernetes. Пользователи могут развертывать приложения в виде контейнеров Docker, чтобы использовать экономичные инфраструктурные сервисы. Кроме того, Akash применяет подход «обратного аукциона» для дальнейшего снижения цен на ресурсы. Согласно оценкам на официальном сайте Akash, стоимость обслуживания платформы примерно на 80% ниже, чем у централизованных серверов.

4.io.net

io.net представляет собой децентрализованную вычислительную сеть, которая объединяет глобально распределенные графические процессоры для обеспечения вычислительной поддержки для обучения и рассуждения моделей искусственного интеллекта. Недавно завершив круг финансирования серии A на сумму 30 миллионов долларов, платформа теперь может похвастаться оценкой в 1 миллиард долларов.

Отличаясь от платформ типа Render и Akash, io.net выступает как надежная и масштабируемая децентрализованная вычислительная сеть, сложно связанная с многоуровневыми инструментами разработчика. Ее ключевые особенности включают:

  • Агрегация разнообразных вычислительных ресурсов: доступ к GPU из независимых центров обработки данных, криптодобывающих ферм и проектов, таких как Filecoin и Render.
  • Основная поддержка для требований ИИ: Основные сервисные возможности включают пакетную инференцию и обслуживание моделей, параллельное обучение, настройку гиперпараметров и обучение с подкреплением.
  • Расширенный технологический стек для улучшенных рабочих процессов в облачной среде: охватывая ряд инструментов оркестровки, ML-фреймворки для выделения вычислительных ресурсов, выполнения алгоритмов, обучения моделей, операций вывода, решений для хранения данных, мониторинга GPU и инструментов управления.
  • Возможности параллельных вычислений: Интеграция Ray, фреймворка распределенных вычислений с открытым исходным кодом, используя встроенную параллельность Ray для легкой параллелизации функций Python для динамического выполнения задач. Его хранилище в памяти обеспечивает быстрый обмен данными между задачами, устраняя задержки сериализации. Более того, io.net расширяется за пределы Python путем интеграции других ведущих фреймворков машинного обучения, таких как PyTorch и TensorFlow, улучшая масштабируемость.

Относительно ценообразования, официальный сайт io.net предполагает, что его тарифы будут примерно на 90% ниже, чем у централизованных облачных вычислительных услуг.

Кроме того, собственный токен io.net, IO coin, в основном будет служить в качестве платежного и вознаграждающего механизма в экосистеме. По альтернативе, заказчики могут принять модель, аналогичную Helium, конвертируя IO coin в стабильную валюту «IOSD points» для транзакций.

Отказ от ответственности:

  1. Эта статья перепечатана из [GateБлокчейн Wanxiang], оригинальный заголовок: «AI+Web3 Future Development Road (2): Infrastructure», авторские права принадлежат оригинальному автору [Блокчейн Wanxiang]. Если есть возражения против этого повторного издания, пожалуйста, свяжитесь с Gate Learn Team, и они обработают это незамедлительно.

  2. Ответственность за отказ от ответственности: Взгляды и мнения, высказанные в этой статье, являются исключительно точкой зрения автора и не являются инвестиционными советами.

  3. Переводы статьи на другие языки выполняются командой Gate Learn. Без упоминанияGate.io, переведенная статья не может быть воспроизведена, распространена или скопирована.

Подробное объяснение инфраструктуры AI+Web3

Средний3/29/2024, 7:41:47 PM
Основные проекты на инфраструктурном уровне промышленности AI+Web3 в основном берут децентрализованную вычислительную сеть как основное повествование, низкая стоимость как основное преимущество, токен-стимулы как основной способ расширения сети и обслуживание клиентов AI+Web3 как основная цель.

Перенаправленный оригинальный заголовок: AI+Web3 Future Development Path (2): Глава инфраструктуры

Инфраструктура - это детерминированное направление роста развития искусственного интеллекта

1. Растущий спрос на вычисления ИИ

В последние годы спрос на вычислительную мощность испытал стремительный рост, особенно после появления большой модели LLM. Этот взрывной рост спроса на вычислительную мощность для искусственного интеллекта значительно повлиял на рынок высокопроизводительных вычислений. Данные от OpenAI показывают удивительную тенденцию с 2012 года, с вычислительной мощностью, используемой для обучения крупнейших моделей искусственного интеллекта, растущей экспоненциально, удваиваясь в среднем каждые 3-4 месяца, превышая темп роста, предсказанный законом Мура. Растущий спрос на приложения искусственного интеллекта привел к быстрому увеличению потребности в вычислительном оборудовании. Прогнозы указывают, что к 2025 году спрос на вычислительное оборудование, обусловленный приложениями искусственного интеллекта, ожидается увеличиться примерно на 10% до 15%.

Под влиянием спроса на вычислительную мощность искусственного интеллекта производитель GPU-оборудования NVIDIA заметил продолжительный рост выручки от центров обработки данных. Во втором квартале 2023 года выручка от центров обработки данных достигла 10,32 миллиарда долларов, что означает увеличение на 141% по сравнению с первым кварталом 2023 года и значительный скачок на 171% по сравнению с аналогичным периодом предыдущего года. К четвертому кварталу финансового года 2024 сегмент центров обработки данных составил более 83% от общего дохода, испытав одновременный рост на 409%, причем 40% приходится на сценарии вывода больших моделей, что указывает на сильный спрос на высокопроизводительную вычислительную мощность.

Одновременно необходимость в огромных объемах данных накладывает значительные требования на хранение и аппаратную память. Особенно во время этапа обучения модели необходимы обширные входные параметры и хранение данных. Чипы памяти, используемые в серверах ИИ, включают в себя преимущественно память высокой пропускной способности (HBM), ОЗУ и SSD. Рабочие среды для серверов ИИ должны обеспечивать увеличенную емкость, улучшенную производительность, сниженную задержку и более быстрые времена ответа. Согласно расчетам Micron, количество ОЗУ в серверах ИИ превышает это в традиционных серверах в восемь раз, в то время как количество NAND превосходит стандарты традиционных серверов в три раза.

2. Неравновесие спроса и предложения увеличивает затраты на вычислительную мощность

Традиционно вычислительная мощность в первую очередь используется на этапах обучения, настройки и вывода моделей искусственного интеллекта, особенно во время этапов обучения и настройки. Из-за увеличения входных параметров данных, вычислительных требований и повышенного спроса на взаимосвязь в параллельных вычислениях, требуется более мощное и взаимосвязанное оборудование GPU, чаще всего в виде высокопроизводительных кластеров GPU. По мере развития больших моделей вычислительная сложность увеличивается линейно, что требует более продвинутого аппаратного обеспечения для удовлетворения потребностей в обучении моделей.

На примере GPT-3, при сценарии с участием около 13 миллионов независимых посещений пользователей, соответствующий спрос на чипы превысил бы 30 000 графических процессоров A100. Эта первоначальная инвестиция достигнет поразительной отметки в $800 миллионов, а оценочные ежедневные затраты на вывод модели составят около $700 000.

В то же время отраслевые отчеты указывают на то, что в четвертом квартале 2023 года поставки графических процессоров NVIDIA были сильно ограничены во всем мире, что привело к заметному дисбалансу между спросом и предложением на рынках по всему миру. Производственные мощности NVIDIA были ограничены такими факторами, как TSMC, HBM, упаковка CoWos, и ожидается, что «серьезная проблема дефицита» графического процессора H100 сохранится как минимум до конца 2024 года.

Поэтому всплеск спроса на высокопроизводительные ГПС и ограничения поставок привели к стремительному росту цен на текущие аппаратные компоненты, такие как ГПС. Особенно для компаний, таких как NVIDIA, занимающих ключевое положение в отраслевой цепочке, высокие цены дополнительно увеличиваются их монополистическим доминированием, позволяя им получать дополнительные дивиденды от добавленной стоимости. Например, материальная стоимость ускорителя искусственного интеллекта H100 от NVIDIA составляет примерно 3 000 долларов, однако его цена продажи достигла около 35 000 долларов к середине 2023 года и даже превысила 40 000 долларов на eBay.

3. Искусственный интеллект инфраструктуры стимулирует рост цепочки индустрии

Отчет Grand View Research указывает, что глобальный объем рынка облачного искусственного интеллекта был оценен в $62.63 миллиарда в 2023 году, прогнозируется достижение $647.6 миллиарда к 2030 году, с совокупным годовым темпом роста в 39.6%. Эти цифры подчеркивают значительный потенциал роста облачных сервисов искусственного интеллекта и их существенный вклад в общую цепочку индустрии искусственного интеллекта.

Согласно оценкам a16z, существенная часть средств на рынке AIGC (искусственный интеллект и глобальные вычисления) в конечном итоге направляется к инфраструктурным компаниям. В среднем компании-разработчики приложений выделяют примерно 20-40% своего дохода на выводы и тонкую настройку для каждого клиента. Эти расходы обычно направляются на облачного провайдера вычислительного экземпляра или стороннего поставщика моделей, которые в свою очередь выделяют примерно половину дохода на облачную инфраструктуру. Следовательно, разумно предположить, что 10-20% общего дохода, генерируемого AIGC, направляется облачным провайдерам.

Кроме того, значительная часть спроса на вычислительную мощность сосредоточена вокруг обучения больших моделей искусственного интеллекта, включая различные обширные модели LLM. Особенно для стартапов моделей 80-90% затрат приходится на вычислительную мощность искусственного интеллекта. Коллективно, инфраструктура вычислений искусственного интеллекта, включая облачные вычисления и аппаратное обеспечение, предполагается составит более 50% первоначальной стоимости рынка.

Децентрализованные вычисления искусственного интеллекта

Как уже обсуждалось, текущая стоимость централизованных вычислений искусственного интеллекта остается высокой, в первую очередь из-за растущего спроса на высокопроизводительную инфраструктуру для обучения искусственного интеллекта. Однако на рынке существует значительное количество неиспользуемой вычислительной мощности, что приводит к дисбалансу между спросом и предложением. Ключевые факторы, способствующие этому дисбалансу, включают:

  • Ограниченная памятью, сложность модели не имеет линейного отношения к количеству требуемых графических процессоров.: У современных графических процессоров есть преимущества в области вычислительной мощности, но для обучения модели требуется большое количество параметров, которые должны храниться в памяти. Например, для GPT-3 для обучения модели с 175 миллиардами параметров требуется хранить более 1 терабайта данных в памяти - больше, чем доступно на любом графическом процессоре сегодня, что требует использования большего количества графических процессоров для параллельных вычислений и хранения, что в свою очередь приведет к простою вычислительной мощности графического процессора. Например, от GPT3 к GPT4 размер параметров модели увеличился примерно в 10 раз, но количество требуемых графических процессоров увеличилось в 24 раза (не учитывая увеличение времени обучения модели). Согласно соответствующему анализу, OpenAI использовала при обучении GPT-4 приблизительно 2.15е25 FLOPS и проводила обучение на приблизительно 25 000 графических процессорах A100 в течение 90 до 100 дней, с использованием вычислительной мощности приблизительно 32% до 36%.

В ответ на вышеупомянутые вызовы, стремление к разработке высокопроизводительных микросхем или специализированных ASIC-микросхем, предназначенных для задач искусственного интеллекта, является важным направлением, которое исследуют многочисленные разработчики и крупные предприятия. Другой подход включает в себя комплексное использование существующих вычислительных ресурсов для создания распределенной вычислительной сети с целью снижения затрат на вычислительную мощность путем аренды, обмена и эффективного планирования ресурсов. Кроме того, на рынке сейчас имеется избыток простаивающих графических процессоров и центральных процессоров для потребителей. Хотя отдельные устройства могут не обладать мощностью вычислений, они могут эффективно удовлетворять существующие вычислительные требования в конкретных сценариях или при интеграции с высокопроизводительными микросхемами. Крайне важно обеспечить достаточное предложение, так как затраты могут быть дополнительно снижены благодаря распределенному планированию сети.

Следовательно, переход к распределенной вычислительной мощности стал ключевым направлением в развитии инфраструктуры искусственного интеллекта. Одновременно, учитывая концептуальное сопоставление между Web3 и распределенными системами, децентрализованные сети вычислительной мощности стали первоочередным объектом в ландшафте инфраструктуры Web3+AI. В настоящее время децентрализованные платформы вычислительной мощности на рынке Web3, как правило, предлагают цены, которые на 80%-90% ниже, чем централизованные облачные вычисления.

При этом распределенные вычислительные сети имеют значительный рыночный потенциал и могут получить существенные выгоды от расширения рынка искусственного интеллекта благодаря значительным экономическим эффективностям.

  • Логический вывод модели и обучение малых моделей представляют собой фундаментальные сценарии для современных распределенных вычислительных мощностей. Рассредоточение вычислительных ресурсов в распределенных системах неизбежно создает проблемы связи между графическими процессорами, что потенциально приводит к снижению вычислительной производительности. Следовательно, распределенные вычислительные мощности лучше всего подходят для сценариев, требующих минимального взаимодействия и поддерживающих параллельные задачи. Эти сценарии включают фазу вывода для обширных моделей ИИ и небольших моделей с относительно меньшим количеством параметров, что сводит к минимуму влияние на производительность. Забегая вперед, можно сказать, что по мере развития приложений ИИ рассуждение становится критически важным требованием на прикладном уровне. Учитывая, что большинство компаний не имеют возможности самостоятельно обучать большие модели, распределенные вычислительные мощности сохраняют значительный долгосрочный рыночный потенциал.
  • Наблюдается рост высокопроизводительных распределенных обучающих фреймворков, специально разработанных для параллельных вычислений большого масштаба. Инновационные открытые распределенные вычислительные фреймворки, такие как PyTorch, Ray и DeepSpeed, обеспечивают разработчиков надежной базовой поддержкой для использования распределенной вычислительной мощности в обучении моделей. Это развитие улучшает применимость распределенной вычислительной мощности на будущем рынке искусственного интеллекта, облегчая ее интеграцию в различные приложения искусственного интеллекта.

Логика повествования проектов AI+Web3 инфраструктуры

Сектор распределенной инфраструктуры искусственного интеллекта демонстрирует стабильный спрос и значительные перспективы долгосрочного роста, что делает его привлекательной областью для инвестиционного капитала. В настоящее время основные проекты в инфраструктурном слое отрасли искусственного интеллекта и Web3 в основном сосредотачиваются вокруг децентрализованных вычислительных сетей. Эти проекты подчеркивают низкие затраты как ключевое преимущество, используют токен-стимулы для расширения своих сетей и отдают предпочтение обслуживанию клиентов в сфере искусственного интеллекта и Web3 как своей основной цели. Этот сектор в основном состоит из двух ключевых уровней:

  1. Относительно чистая децентрализованная платформа обмена и аренды ресурсов облачных вычислений: Ранние проекты по искусственному интеллекту, такие как Render Network, Akash Network и другие, относятся к этой категории.
  • Основным конкурентным преимуществом в этом секторе является ресурсы вычислительной мощности, обеспечивающие доступ к разнообразным поставщикам, быстрое создание сети и пользовательские продукты. Ранние участники рынка, такие как компании облачных вычислений и майнеры, хорошо позиционированы для использования этой возможности.
  • С низкими порогами продуктов и быстрыми возможностями запуска установленные платформы, такие как Render Network и Akash Network, продемонстрировали заметный рост и имеют конкурентное преимущество.
  • Однако новым участникам рынка сталкиваются с проблемами гомогенности продукции. Текущий тренд и низкие барьеры для входа привели к волне проектов, сосредотачивающихся на общей вычислительной мощности и аренде. Хотя эти предложения лишены дифференциации, растет потребность в отчетливых конкурентных преимуществах.
  • Поставщики обычно ориентируются на клиентов с базовыми вычислительными потребностями. Например, Render Network специализируется на услугах в области рендеринга, в то время как Akash Network предлагает улучшенные ресурсы ЦП. Хотя простого аренды вычислительных ресурсов достаточно для базовых задач ИИ, это недостаточно для удовлетворения комплексных потребностей сложных процессов ИИ, таких как обучение, точная настройка и вывод.
  1. Предлагая услуги децентрализованных вычислений и рабочего процесса машинного обучения, недавно многие новые проекты, включая Gensyn, io.net, Ritual и другие, получили значительное финансирование.
  • Децентрализованные вычисления поднимают основу оценки в отрасли. Поскольку вычислительная мощность стоит во главе решающего рассказа в развитии ИИ, проекты, основанные на вычислительной мощности, склонны хвалиться более надежными и высокопотенциальными бизнес-моделями, что приводит к более высоким оценкам по сравнению с чисто промежуточными проектами.
  • Сервисы среднего уровня создают уникальные преимущества. Услуги, предлагаемые средним слоем, служат конкурентными преимуществами для этих вычислительных инфраструктур, охватывая функции, такие как оракулы и верификаторы, облегчающие синхронизацию расчетов в сети и вне сети на цепи искусственного интеллекта, инструменты развертывания и управления, поддерживающие общий рабочий процесс искусственного интеллекта, и многое другое. Рабочий процесс искусственного интеллекта характеризуется сотрудничеством, непрерывной обратной связью и высокой сложностью, требуя вычислительной мощности на различных этапах. Поэтому средний слой, который удобен для пользователя, очень совместим и способен удовлетворить сложные потребности разработчиков искусственного интеллекта, выступает в качестве конкурентного актива, особенно в домене Web3, удовлетворяя требования разработчиков Web3 в области искусственного интеллекта. Эти услуги лучше всего подходят для потенциальных рынков приложений искусственного интеллекта, выходя за рамки базовой вычислительной поддержки.
  • Команды проектов с профессиональным опытом в области эксплуатации и обслуживания ML обычно являются неотъемлемыми. Команды, предлагающие сервисы среднего уровня, должны обладать всесторонним пониманием всего рабочего процесса ML для эффективного удовлетворения полного жизненного цикла требований разработчиков. Хотя такие сервисы часто используют существующие фреймворки и инструменты с отсутствием значительной технической инновации, они требуют команду с обширным опытом и крепкими инженерными способностями, что служит конкурентным преимуществом для проекта.

Предоставляя услуги по более конкурентоспособным ценам, чем централизованные облачные вычисления, сохраняя при этом сравнимые средства поддержки и пользовательский опыт, этот проект получил признание от крупных инвесторов. Однако повышенная техническая сложность представляет собой значительное испытание. В настоящее время проект находится в стадии повествования и развития, пока не был запущен полностью продукт.

Представительный проект

1. Сеть Render

Render Network - это глобальная блокчейн-платформа для рендеринга, которая использует распределенные графические процессоры для предоставления создателям экономичных и эффективных услуг по 3D-рендерингу. После подтверждения создателем результатов рендеринга блокчейн-сеть отправляет вознаграждения в виде токенов узлам. Платформа предлагает распределенную сеть планирования и выделения графических процессоров, назначая задачи на основе использования узла, репутации и других факторов для оптимизации вычислительной эффективности, минимизации простоя ресурсов и снижения расходов.

The platform’s native token, RNDR, serves as the payment currency within the ecosystem. Users can utilize RNDR to settle rendering service fees, while service providers earn RNDR rewards by contributing computing power to complete rendering tasks. The pricing of rendering services is dynamically adjusted in response to current network usage and other relevant metrics.

Рендеринг оказывается хорошо подходящим и установленным случаем использования архитектуры распределенной вычислительной мощности. Природа задач рендеринга позволяет разделить их на несколько подзадач, выполняемых параллельно, минимизируя межзадачное общение и взаимодействие. Такой подход смягчает недостатки архитектуры распределенных вычислений, используя обширную сеть узлов GPU для обеспечения экономии затрат.

Спрос на Сеть Render значителен, пользователи отрендерили более 16 миллионов кадров и почти 500 000 сцен на платформе с момента ее создания в 2017 году. Объем рабочих мест по рендерингу и активные узлы продолжают расти. Кроме того, в I квартале 2023 года Render Network представила нативно интегрированный набор инструментов Stability AI, позволяющий пользователям внедрять операции Stable Diffusion. Это расширение за пределы операций по рендерингу свидетельствует о стратегическом движении в область приложений искусственного интеллекта.

2.Gensyn.ai

Gensyn действует как глобальная суперкомпьютерная сеть, специализирующаяся на вычислениях глубокого обучения с использованием протокола L1 Polkadot. В 2023 году платформа привлекла $43 миллиона в рамках серии A инвестиций, возглавляемых a16z. Архитектурная структура Gensyn простирается за пределы кластера вычислительной мощности инфраструктуры, чтобы охватить верификационную систему верхнего уровня. Эта система гарантирует, что обширные вычисления вне цепи соответствуют требованиям on-chain через верификацию блокчейна, устанавливая доверительную сеть машинного обучения.

Что касается распределенной вычислительной мощности, Gensyn предоставляет спектр устройств, от центров обработки данных с избыточной мощностью до персональных ноутбуков с потенциальными графическими процессорами. Он объединяет эти устройства в единый виртуальный кластер, доступный разработчикам для мгновенного взаимодействия в сети. Gensyn стремится создать рынок, где ценообразование определяется рыночными силами, способствуя инклюзивности и обеспечивая достижение справедливых уровней затрат на вычисления ML.

Система верификации является ключевым концептом для Gensyn, нацеленным на подтверждение точности задач машинного обучения в соответствии с указанными критериями. Она представляет инновационный подход к верификации, охватывающий вероятностное доказательство обучения, протокол точного позиционирования на основе графа и Truebit. Эти основные технические особенности инцентивной игры обеспечивают улучшенную эффективность по сравнению с традиционными методами валидации блокчейна. Сетевые участники включают подающих, решающих, верификаторов и информаторов, совместно облегчающих процесс верификации.

На основе обширных тестовых данных, описанных в белой книге протокола Gensyn, заметными преимуществами платформы являются:

  • Снижение затрат на обучение модели искусственного интеллекта: протокол Gensyn предлагает вычисления, эквивалентные NVIDIA V100, по оценочной стоимости около $0.40 в час, что позволяет сэкономить до 80% по сравнению с вычислениями по запросу AWS.
  • Улучшенная эффективность в сети проверки без доверия: Результаты тестов, изложенные в белой книге, указывают на значительное улучшение времени обучения модели при использовании протокола Gensyn. Временная нагрузка была улучшена на 1,350% по сравнению с Truebit воспроизведением и на экстраординарные 2,522,477% по сравнению с Ethereum.

Однако параллельно распределенная вычислительная мощность приводит к неизбежному увеличению времени обучения по сравнению с локальным обучением, вызванному коммуникационными и сетевыми проблемами. На основе тестовых данных протокол Gensyn вызывает приблизительно 46% избыточного времени в обучении модели.

3. Сеть Akash

Сеть Akash функционирует как распределенная облачная вычислительная платформа, интегрирующая различные технические элементы для обеспечения пользователям эффективного развертывания и управления приложениями в децентрализованной облачной среде. По сути, она предоставляет пользователям возможность арендовать распределенные вычислительные ресурсы.

В основе Akash лежит сеть поставщиков инфраструктурных услуг, разбросанных по всему миру, предлагающих ресурсы центрального процессора, графического процессора, памяти и хранилища. Эти поставщики предоставляют ресурсы для аренды пользователей через верхний кластер Kubernetes. Пользователи могут развертывать приложения в виде контейнеров Docker, чтобы использовать экономичные инфраструктурные сервисы. Кроме того, Akash применяет подход «обратного аукциона» для дальнейшего снижения цен на ресурсы. Согласно оценкам на официальном сайте Akash, стоимость обслуживания платформы примерно на 80% ниже, чем у централизованных серверов.

4.io.net

io.net представляет собой децентрализованную вычислительную сеть, которая объединяет глобально распределенные графические процессоры для обеспечения вычислительной поддержки для обучения и рассуждения моделей искусственного интеллекта. Недавно завершив круг финансирования серии A на сумму 30 миллионов долларов, платформа теперь может похвастаться оценкой в 1 миллиард долларов.

Отличаясь от платформ типа Render и Akash, io.net выступает как надежная и масштабируемая децентрализованная вычислительная сеть, сложно связанная с многоуровневыми инструментами разработчика. Ее ключевые особенности включают:

  • Агрегация разнообразных вычислительных ресурсов: доступ к GPU из независимых центров обработки данных, криптодобывающих ферм и проектов, таких как Filecoin и Render.
  • Основная поддержка для требований ИИ: Основные сервисные возможности включают пакетную инференцию и обслуживание моделей, параллельное обучение, настройку гиперпараметров и обучение с подкреплением.
  • Расширенный технологический стек для улучшенных рабочих процессов в облачной среде: охватывая ряд инструментов оркестровки, ML-фреймворки для выделения вычислительных ресурсов, выполнения алгоритмов, обучения моделей, операций вывода, решений для хранения данных, мониторинга GPU и инструментов управления.
  • Возможности параллельных вычислений: Интеграция Ray, фреймворка распределенных вычислений с открытым исходным кодом, используя встроенную параллельность Ray для легкой параллелизации функций Python для динамического выполнения задач. Его хранилище в памяти обеспечивает быстрый обмен данными между задачами, устраняя задержки сериализации. Более того, io.net расширяется за пределы Python путем интеграции других ведущих фреймворков машинного обучения, таких как PyTorch и TensorFlow, улучшая масштабируемость.

Относительно ценообразования, официальный сайт io.net предполагает, что его тарифы будут примерно на 90% ниже, чем у централизованных облачных вычислительных услуг.

Кроме того, собственный токен io.net, IO coin, в основном будет служить в качестве платежного и вознаграждающего механизма в экосистеме. По альтернативе, заказчики могут принять модель, аналогичную Helium, конвертируя IO coin в стабильную валюту «IOSD points» для транзакций.

Отказ от ответственности:

  1. Эта статья перепечатана из [GateБлокчейн Wanxiang], оригинальный заголовок: «AI+Web3 Future Development Road (2): Infrastructure», авторские права принадлежат оригинальному автору [Блокчейн Wanxiang]. Если есть возражения против этого повторного издания, пожалуйста, свяжитесь с Gate Learn Team, и они обработают это незамедлительно.

  2. Ответственность за отказ от ответственности: Взгляды и мнения, высказанные в этой статье, являются исключительно точкой зрения автора и не являются инвестиционными советами.

  3. Переводы статьи на другие языки выполняются командой Gate Learn. Без упоминанияGate.io, переведенная статья не может быть воспроизведена, распространена или скопирована.

今すぐ始める
登録して、
$100
のボーナスを獲得しよう!