Перенаправленный оригинальный заголовок: AI+Web3 Future Development Path (2): Глава инфраструктуры
В последние годы спрос на вычислительную мощность испытал стремительный рост, особенно после появления большой модели LLM. Этот взрывной рост спроса на вычислительную мощность для искусственного интеллекта значительно повлиял на рынок высокопроизводительных вычислений. Данные от OpenAI показывают удивительную тенденцию с 2012 года, с вычислительной мощностью, используемой для обучения крупнейших моделей искусственного интеллекта, растущей экспоненциально, удваиваясь в среднем каждые 3-4 месяца, превышая темп роста, предсказанный законом Мура. Растущий спрос на приложения искусственного интеллекта привел к быстрому увеличению потребности в вычислительном оборудовании. Прогнозы указывают, что к 2025 году спрос на вычислительное оборудование, обусловленный приложениями искусственного интеллекта, ожидается увеличиться примерно на 10% до 15%.
Под влиянием спроса на вычислительную мощность искусственного интеллекта производитель GPU-оборудования NVIDIA заметил продолжительный рост выручки от центров обработки данных. Во втором квартале 2023 года выручка от центров обработки данных достигла 10,32 миллиарда долларов, что означает увеличение на 141% по сравнению с первым кварталом 2023 года и значительный скачок на 171% по сравнению с аналогичным периодом предыдущего года. К четвертому кварталу финансового года 2024 сегмент центров обработки данных составил более 83% от общего дохода, испытав одновременный рост на 409%, причем 40% приходится на сценарии вывода больших моделей, что указывает на сильный спрос на высокопроизводительную вычислительную мощность.
Одновременно необходимость в огромных объемах данных накладывает значительные требования на хранение и аппаратную память. Особенно во время этапа обучения модели необходимы обширные входные параметры и хранение данных. Чипы памяти, используемые в серверах ИИ, включают в себя преимущественно память высокой пропускной способности (HBM), ОЗУ и SSD. Рабочие среды для серверов ИИ должны обеспечивать увеличенную емкость, улучшенную производительность, сниженную задержку и более быстрые времена ответа. Согласно расчетам Micron, количество ОЗУ в серверах ИИ превышает это в традиционных серверах в восемь раз, в то время как количество NAND превосходит стандарты традиционных серверов в три раза.
Традиционно вычислительная мощность в первую очередь используется на этапах обучения, настройки и вывода моделей искусственного интеллекта, особенно во время этапов обучения и настройки. Из-за увеличения входных параметров данных, вычислительных требований и повышенного спроса на взаимосвязь в параллельных вычислениях, требуется более мощное и взаимосвязанное оборудование GPU, чаще всего в виде высокопроизводительных кластеров GPU. По мере развития больших моделей вычислительная сложность увеличивается линейно, что требует более продвинутого аппаратного обеспечения для удовлетворения потребностей в обучении моделей.
На примере GPT-3, при сценарии с участием около 13 миллионов независимых посещений пользователей, соответствующий спрос на чипы превысил бы 30 000 графических процессоров A100. Эта первоначальная инвестиция достигнет поразительной отметки в $800 миллионов, а оценочные ежедневные затраты на вывод модели составят около $700 000.
В то же время отраслевые отчеты указывают на то, что в четвертом квартале 2023 года поставки графических процессоров NVIDIA были сильно ограничены во всем мире, что привело к заметному дисбалансу между спросом и предложением на рынках по всему миру. Производственные мощности NVIDIA были ограничены такими факторами, как TSMC, HBM, упаковка CoWos, и ожидается, что «серьезная проблема дефицита» графического процессора H100 сохранится как минимум до конца 2024 года.
Поэтому всплеск спроса на высокопроизводительные ГПС и ограничения поставок привели к стремительному росту цен на текущие аппаратные компоненты, такие как ГПС. Особенно для компаний, таких как NVIDIA, занимающих ключевое положение в отраслевой цепочке, высокие цены дополнительно увеличиваются их монополистическим доминированием, позволяя им получать дополнительные дивиденды от добавленной стоимости. Например, материальная стоимость ускорителя искусственного интеллекта H100 от NVIDIA составляет примерно 3 000 долларов, однако его цена продажи достигла около 35 000 долларов к середине 2023 года и даже превысила 40 000 долларов на eBay.
Отчет Grand View Research указывает, что глобальный объем рынка облачного искусственного интеллекта был оценен в $62.63 миллиарда в 2023 году, прогнозируется достижение $647.6 миллиарда к 2030 году, с совокупным годовым темпом роста в 39.6%. Эти цифры подчеркивают значительный потенциал роста облачных сервисов искусственного интеллекта и их существенный вклад в общую цепочку индустрии искусственного интеллекта.
Согласно оценкам a16z, существенная часть средств на рынке AIGC (искусственный интеллект и глобальные вычисления) в конечном итоге направляется к инфраструктурным компаниям. В среднем компании-разработчики приложений выделяют примерно 20-40% своего дохода на выводы и тонкую настройку для каждого клиента. Эти расходы обычно направляются на облачного провайдера вычислительного экземпляра или стороннего поставщика моделей, которые в свою очередь выделяют примерно половину дохода на облачную инфраструктуру. Следовательно, разумно предположить, что 10-20% общего дохода, генерируемого AIGC, направляется облачным провайдерам.
Кроме того, значительная часть спроса на вычислительную мощность сосредоточена вокруг обучения больших моделей искусственного интеллекта, включая различные обширные модели LLM. Особенно для стартапов моделей 80-90% затрат приходится на вычислительную мощность искусственного интеллекта. Коллективно, инфраструктура вычислений искусственного интеллекта, включая облачные вычисления и аппаратное обеспечение, предполагается составит более 50% первоначальной стоимости рынка.
Как уже обсуждалось, текущая стоимость централизованных вычислений искусственного интеллекта остается высокой, в первую очередь из-за растущего спроса на высокопроизводительную инфраструктуру для обучения искусственного интеллекта. Однако на рынке существует значительное количество неиспользуемой вычислительной мощности, что приводит к дисбалансу между спросом и предложением. Ключевые факторы, способствующие этому дисбалансу, включают:
В ответ на вышеупомянутые вызовы, стремление к разработке высокопроизводительных микросхем или специализированных ASIC-микросхем, предназначенных для задач искусственного интеллекта, является важным направлением, которое исследуют многочисленные разработчики и крупные предприятия. Другой подход включает в себя комплексное использование существующих вычислительных ресурсов для создания распределенной вычислительной сети с целью снижения затрат на вычислительную мощность путем аренды, обмена и эффективного планирования ресурсов. Кроме того, на рынке сейчас имеется избыток простаивающих графических процессоров и центральных процессоров для потребителей. Хотя отдельные устройства могут не обладать мощностью вычислений, они могут эффективно удовлетворять существующие вычислительные требования в конкретных сценариях или при интеграции с высокопроизводительными микросхемами. Крайне важно обеспечить достаточное предложение, так как затраты могут быть дополнительно снижены благодаря распределенному планированию сети.
Следовательно, переход к распределенной вычислительной мощности стал ключевым направлением в развитии инфраструктуры искусственного интеллекта. Одновременно, учитывая концептуальное сопоставление между Web3 и распределенными системами, децентрализованные сети вычислительной мощности стали первоочередным объектом в ландшафте инфраструктуры Web3+AI. В настоящее время децентрализованные платформы вычислительной мощности на рынке Web3, как правило, предлагают цены, которые на 80%-90% ниже, чем централизованные облачные вычисления.
При этом распределенные вычислительные сети имеют значительный рыночный потенциал и могут получить существенные выгоды от расширения рынка искусственного интеллекта благодаря значительным экономическим эффективностям.
Сектор распределенной инфраструктуры искусственного интеллекта демонстрирует стабильный спрос и значительные перспективы долгосрочного роста, что делает его привлекательной областью для инвестиционного капитала. В настоящее время основные проекты в инфраструктурном слое отрасли искусственного интеллекта и Web3 в основном сосредотачиваются вокруг децентрализованных вычислительных сетей. Эти проекты подчеркивают низкие затраты как ключевое преимущество, используют токен-стимулы для расширения своих сетей и отдают предпочтение обслуживанию клиентов в сфере искусственного интеллекта и Web3 как своей основной цели. Этот сектор в основном состоит из двух ключевых уровней:
Предоставляя услуги по более конкурентоспособным ценам, чем централизованные облачные вычисления, сохраняя при этом сравнимые средства поддержки и пользовательский опыт, этот проект получил признание от крупных инвесторов. Однако повышенная техническая сложность представляет собой значительное испытание. В настоящее время проект находится в стадии повествования и развития, пока не был запущен полностью продукт.
Render Network - это глобальная блокчейн-платформа для рендеринга, которая использует распределенные графические процессоры для предоставления создателям экономичных и эффективных услуг по 3D-рендерингу. После подтверждения создателем результатов рендеринга блокчейн-сеть отправляет вознаграждения в виде токенов узлам. Платформа предлагает распределенную сеть планирования и выделения графических процессоров, назначая задачи на основе использования узла, репутации и других факторов для оптимизации вычислительной эффективности, минимизации простоя ресурсов и снижения расходов.
The platform’s native token, RNDR, serves as the payment currency within the ecosystem. Users can utilize RNDR to settle rendering service fees, while service providers earn RNDR rewards by contributing computing power to complete rendering tasks. The pricing of rendering services is dynamically adjusted in response to current network usage and other relevant metrics.
Рендеринг оказывается хорошо подходящим и установленным случаем использования архитектуры распределенной вычислительной мощности. Природа задач рендеринга позволяет разделить их на несколько подзадач, выполняемых параллельно, минимизируя межзадачное общение и взаимодействие. Такой подход смягчает недостатки архитектуры распределенных вычислений, используя обширную сеть узлов GPU для обеспечения экономии затрат.
Спрос на Сеть Render значителен, пользователи отрендерили более 16 миллионов кадров и почти 500 000 сцен на платформе с момента ее создания в 2017 году. Объем рабочих мест по рендерингу и активные узлы продолжают расти. Кроме того, в I квартале 2023 года Render Network представила нативно интегрированный набор инструментов Stability AI, позволяющий пользователям внедрять операции Stable Diffusion. Это расширение за пределы операций по рендерингу свидетельствует о стратегическом движении в область приложений искусственного интеллекта.
Gensyn действует как глобальная суперкомпьютерная сеть, специализирующаяся на вычислениях глубокого обучения с использованием протокола L1 Polkadot. В 2023 году платформа привлекла $43 миллиона в рамках серии A инвестиций, возглавляемых a16z. Архитектурная структура Gensyn простирается за пределы кластера вычислительной мощности инфраструктуры, чтобы охватить верификационную систему верхнего уровня. Эта система гарантирует, что обширные вычисления вне цепи соответствуют требованиям on-chain через верификацию блокчейна, устанавливая доверительную сеть машинного обучения.
Что касается распределенной вычислительной мощности, Gensyn предоставляет спектр устройств, от центров обработки данных с избыточной мощностью до персональных ноутбуков с потенциальными графическими процессорами. Он объединяет эти устройства в единый виртуальный кластер, доступный разработчикам для мгновенного взаимодействия в сети. Gensyn стремится создать рынок, где ценообразование определяется рыночными силами, способствуя инклюзивности и обеспечивая достижение справедливых уровней затрат на вычисления ML.
Система верификации является ключевым концептом для Gensyn, нацеленным на подтверждение точности задач машинного обучения в соответствии с указанными критериями. Она представляет инновационный подход к верификации, охватывающий вероятностное доказательство обучения, протокол точного позиционирования на основе графа и Truebit. Эти основные технические особенности инцентивной игры обеспечивают улучшенную эффективность по сравнению с традиционными методами валидации блокчейна. Сетевые участники включают подающих, решающих, верификаторов и информаторов, совместно облегчающих процесс верификации.
На основе обширных тестовых данных, описанных в белой книге протокола Gensyn, заметными преимуществами платформы являются:
Однако параллельно распределенная вычислительная мощность приводит к неизбежному увеличению времени обучения по сравнению с локальным обучением, вызванному коммуникационными и сетевыми проблемами. На основе тестовых данных протокол Gensyn вызывает приблизительно 46% избыточного времени в обучении модели.
Сеть Akash функционирует как распределенная облачная вычислительная платформа, интегрирующая различные технические элементы для обеспечения пользователям эффективного развертывания и управления приложениями в децентрализованной облачной среде. По сути, она предоставляет пользователям возможность арендовать распределенные вычислительные ресурсы.
В основе Akash лежит сеть поставщиков инфраструктурных услуг, разбросанных по всему миру, предлагающих ресурсы центрального процессора, графического процессора, памяти и хранилища. Эти поставщики предоставляют ресурсы для аренды пользователей через верхний кластер Kubernetes. Пользователи могут развертывать приложения в виде контейнеров Docker, чтобы использовать экономичные инфраструктурные сервисы. Кроме того, Akash применяет подход «обратного аукциона» для дальнейшего снижения цен на ресурсы. Согласно оценкам на официальном сайте Akash, стоимость обслуживания платформы примерно на 80% ниже, чем у централизованных серверов.
io.net представляет собой децентрализованную вычислительную сеть, которая объединяет глобально распределенные графические процессоры для обеспечения вычислительной поддержки для обучения и рассуждения моделей искусственного интеллекта. Недавно завершив круг финансирования серии A на сумму 30 миллионов долларов, платформа теперь может похвастаться оценкой в 1 миллиард долларов.
Отличаясь от платформ типа Render и Akash, io.net выступает как надежная и масштабируемая децентрализованная вычислительная сеть, сложно связанная с многоуровневыми инструментами разработчика. Ее ключевые особенности включают:
Относительно ценообразования, официальный сайт io.net предполагает, что его тарифы будут примерно на 90% ниже, чем у централизованных облачных вычислительных услуг.
Кроме того, собственный токен io.net, IO coin, в основном будет служить в качестве платежного и вознаграждающего механизма в экосистеме. По альтернативе, заказчики могут принять модель, аналогичную Helium, конвертируя IO coin в стабильную валюту «IOSD points» для транзакций.
Эта статья перепечатана из [GateБлокчейн Wanxiang], оригинальный заголовок: «AI+Web3 Future Development Road (2): Infrastructure», авторские права принадлежат оригинальному автору [Блокчейн Wanxiang]. Если есть возражения против этого повторного издания, пожалуйста, свяжитесь с Gate Learn Team, и они обработают это незамедлительно.
Ответственность за отказ от ответственности: Взгляды и мнения, высказанные в этой статье, являются исключительно точкой зрения автора и не являются инвестиционными советами.
Переводы статьи на другие языки выполняются командой Gate Learn. Без упоминанияGate.io, переведенная статья не может быть воспроизведена, распространена или скопирована.
Перенаправленный оригинальный заголовок: AI+Web3 Future Development Path (2): Глава инфраструктуры
В последние годы спрос на вычислительную мощность испытал стремительный рост, особенно после появления большой модели LLM. Этот взрывной рост спроса на вычислительную мощность для искусственного интеллекта значительно повлиял на рынок высокопроизводительных вычислений. Данные от OpenAI показывают удивительную тенденцию с 2012 года, с вычислительной мощностью, используемой для обучения крупнейших моделей искусственного интеллекта, растущей экспоненциально, удваиваясь в среднем каждые 3-4 месяца, превышая темп роста, предсказанный законом Мура. Растущий спрос на приложения искусственного интеллекта привел к быстрому увеличению потребности в вычислительном оборудовании. Прогнозы указывают, что к 2025 году спрос на вычислительное оборудование, обусловленный приложениями искусственного интеллекта, ожидается увеличиться примерно на 10% до 15%.
Под влиянием спроса на вычислительную мощность искусственного интеллекта производитель GPU-оборудования NVIDIA заметил продолжительный рост выручки от центров обработки данных. Во втором квартале 2023 года выручка от центров обработки данных достигла 10,32 миллиарда долларов, что означает увеличение на 141% по сравнению с первым кварталом 2023 года и значительный скачок на 171% по сравнению с аналогичным периодом предыдущего года. К четвертому кварталу финансового года 2024 сегмент центров обработки данных составил более 83% от общего дохода, испытав одновременный рост на 409%, причем 40% приходится на сценарии вывода больших моделей, что указывает на сильный спрос на высокопроизводительную вычислительную мощность.
Одновременно необходимость в огромных объемах данных накладывает значительные требования на хранение и аппаратную память. Особенно во время этапа обучения модели необходимы обширные входные параметры и хранение данных. Чипы памяти, используемые в серверах ИИ, включают в себя преимущественно память высокой пропускной способности (HBM), ОЗУ и SSD. Рабочие среды для серверов ИИ должны обеспечивать увеличенную емкость, улучшенную производительность, сниженную задержку и более быстрые времена ответа. Согласно расчетам Micron, количество ОЗУ в серверах ИИ превышает это в традиционных серверах в восемь раз, в то время как количество NAND превосходит стандарты традиционных серверов в три раза.
Традиционно вычислительная мощность в первую очередь используется на этапах обучения, настройки и вывода моделей искусственного интеллекта, особенно во время этапов обучения и настройки. Из-за увеличения входных параметров данных, вычислительных требований и повышенного спроса на взаимосвязь в параллельных вычислениях, требуется более мощное и взаимосвязанное оборудование GPU, чаще всего в виде высокопроизводительных кластеров GPU. По мере развития больших моделей вычислительная сложность увеличивается линейно, что требует более продвинутого аппаратного обеспечения для удовлетворения потребностей в обучении моделей.
На примере GPT-3, при сценарии с участием около 13 миллионов независимых посещений пользователей, соответствующий спрос на чипы превысил бы 30 000 графических процессоров A100. Эта первоначальная инвестиция достигнет поразительной отметки в $800 миллионов, а оценочные ежедневные затраты на вывод модели составят около $700 000.
В то же время отраслевые отчеты указывают на то, что в четвертом квартале 2023 года поставки графических процессоров NVIDIA были сильно ограничены во всем мире, что привело к заметному дисбалансу между спросом и предложением на рынках по всему миру. Производственные мощности NVIDIA были ограничены такими факторами, как TSMC, HBM, упаковка CoWos, и ожидается, что «серьезная проблема дефицита» графического процессора H100 сохранится как минимум до конца 2024 года.
Поэтому всплеск спроса на высокопроизводительные ГПС и ограничения поставок привели к стремительному росту цен на текущие аппаратные компоненты, такие как ГПС. Особенно для компаний, таких как NVIDIA, занимающих ключевое положение в отраслевой цепочке, высокие цены дополнительно увеличиваются их монополистическим доминированием, позволяя им получать дополнительные дивиденды от добавленной стоимости. Например, материальная стоимость ускорителя искусственного интеллекта H100 от NVIDIA составляет примерно 3 000 долларов, однако его цена продажи достигла около 35 000 долларов к середине 2023 года и даже превысила 40 000 долларов на eBay.
Отчет Grand View Research указывает, что глобальный объем рынка облачного искусственного интеллекта был оценен в $62.63 миллиарда в 2023 году, прогнозируется достижение $647.6 миллиарда к 2030 году, с совокупным годовым темпом роста в 39.6%. Эти цифры подчеркивают значительный потенциал роста облачных сервисов искусственного интеллекта и их существенный вклад в общую цепочку индустрии искусственного интеллекта.
Согласно оценкам a16z, существенная часть средств на рынке AIGC (искусственный интеллект и глобальные вычисления) в конечном итоге направляется к инфраструктурным компаниям. В среднем компании-разработчики приложений выделяют примерно 20-40% своего дохода на выводы и тонкую настройку для каждого клиента. Эти расходы обычно направляются на облачного провайдера вычислительного экземпляра или стороннего поставщика моделей, которые в свою очередь выделяют примерно половину дохода на облачную инфраструктуру. Следовательно, разумно предположить, что 10-20% общего дохода, генерируемого AIGC, направляется облачным провайдерам.
Кроме того, значительная часть спроса на вычислительную мощность сосредоточена вокруг обучения больших моделей искусственного интеллекта, включая различные обширные модели LLM. Особенно для стартапов моделей 80-90% затрат приходится на вычислительную мощность искусственного интеллекта. Коллективно, инфраструктура вычислений искусственного интеллекта, включая облачные вычисления и аппаратное обеспечение, предполагается составит более 50% первоначальной стоимости рынка.
Как уже обсуждалось, текущая стоимость централизованных вычислений искусственного интеллекта остается высокой, в первую очередь из-за растущего спроса на высокопроизводительную инфраструктуру для обучения искусственного интеллекта. Однако на рынке существует значительное количество неиспользуемой вычислительной мощности, что приводит к дисбалансу между спросом и предложением. Ключевые факторы, способствующие этому дисбалансу, включают:
В ответ на вышеупомянутые вызовы, стремление к разработке высокопроизводительных микросхем или специализированных ASIC-микросхем, предназначенных для задач искусственного интеллекта, является важным направлением, которое исследуют многочисленные разработчики и крупные предприятия. Другой подход включает в себя комплексное использование существующих вычислительных ресурсов для создания распределенной вычислительной сети с целью снижения затрат на вычислительную мощность путем аренды, обмена и эффективного планирования ресурсов. Кроме того, на рынке сейчас имеется избыток простаивающих графических процессоров и центральных процессоров для потребителей. Хотя отдельные устройства могут не обладать мощностью вычислений, они могут эффективно удовлетворять существующие вычислительные требования в конкретных сценариях или при интеграции с высокопроизводительными микросхемами. Крайне важно обеспечить достаточное предложение, так как затраты могут быть дополнительно снижены благодаря распределенному планированию сети.
Следовательно, переход к распределенной вычислительной мощности стал ключевым направлением в развитии инфраструктуры искусственного интеллекта. Одновременно, учитывая концептуальное сопоставление между Web3 и распределенными системами, децентрализованные сети вычислительной мощности стали первоочередным объектом в ландшафте инфраструктуры Web3+AI. В настоящее время децентрализованные платформы вычислительной мощности на рынке Web3, как правило, предлагают цены, которые на 80%-90% ниже, чем централизованные облачные вычисления.
При этом распределенные вычислительные сети имеют значительный рыночный потенциал и могут получить существенные выгоды от расширения рынка искусственного интеллекта благодаря значительным экономическим эффективностям.
Сектор распределенной инфраструктуры искусственного интеллекта демонстрирует стабильный спрос и значительные перспективы долгосрочного роста, что делает его привлекательной областью для инвестиционного капитала. В настоящее время основные проекты в инфраструктурном слое отрасли искусственного интеллекта и Web3 в основном сосредотачиваются вокруг децентрализованных вычислительных сетей. Эти проекты подчеркивают низкие затраты как ключевое преимущество, используют токен-стимулы для расширения своих сетей и отдают предпочтение обслуживанию клиентов в сфере искусственного интеллекта и Web3 как своей основной цели. Этот сектор в основном состоит из двух ключевых уровней:
Предоставляя услуги по более конкурентоспособным ценам, чем централизованные облачные вычисления, сохраняя при этом сравнимые средства поддержки и пользовательский опыт, этот проект получил признание от крупных инвесторов. Однако повышенная техническая сложность представляет собой значительное испытание. В настоящее время проект находится в стадии повествования и развития, пока не был запущен полностью продукт.
Render Network - это глобальная блокчейн-платформа для рендеринга, которая использует распределенные графические процессоры для предоставления создателям экономичных и эффективных услуг по 3D-рендерингу. После подтверждения создателем результатов рендеринга блокчейн-сеть отправляет вознаграждения в виде токенов узлам. Платформа предлагает распределенную сеть планирования и выделения графических процессоров, назначая задачи на основе использования узла, репутации и других факторов для оптимизации вычислительной эффективности, минимизации простоя ресурсов и снижения расходов.
The platform’s native token, RNDR, serves as the payment currency within the ecosystem. Users can utilize RNDR to settle rendering service fees, while service providers earn RNDR rewards by contributing computing power to complete rendering tasks. The pricing of rendering services is dynamically adjusted in response to current network usage and other relevant metrics.
Рендеринг оказывается хорошо подходящим и установленным случаем использования архитектуры распределенной вычислительной мощности. Природа задач рендеринга позволяет разделить их на несколько подзадач, выполняемых параллельно, минимизируя межзадачное общение и взаимодействие. Такой подход смягчает недостатки архитектуры распределенных вычислений, используя обширную сеть узлов GPU для обеспечения экономии затрат.
Спрос на Сеть Render значителен, пользователи отрендерили более 16 миллионов кадров и почти 500 000 сцен на платформе с момента ее создания в 2017 году. Объем рабочих мест по рендерингу и активные узлы продолжают расти. Кроме того, в I квартале 2023 года Render Network представила нативно интегрированный набор инструментов Stability AI, позволяющий пользователям внедрять операции Stable Diffusion. Это расширение за пределы операций по рендерингу свидетельствует о стратегическом движении в область приложений искусственного интеллекта.
Gensyn действует как глобальная суперкомпьютерная сеть, специализирующаяся на вычислениях глубокого обучения с использованием протокола L1 Polkadot. В 2023 году платформа привлекла $43 миллиона в рамках серии A инвестиций, возглавляемых a16z. Архитектурная структура Gensyn простирается за пределы кластера вычислительной мощности инфраструктуры, чтобы охватить верификационную систему верхнего уровня. Эта система гарантирует, что обширные вычисления вне цепи соответствуют требованиям on-chain через верификацию блокчейна, устанавливая доверительную сеть машинного обучения.
Что касается распределенной вычислительной мощности, Gensyn предоставляет спектр устройств, от центров обработки данных с избыточной мощностью до персональных ноутбуков с потенциальными графическими процессорами. Он объединяет эти устройства в единый виртуальный кластер, доступный разработчикам для мгновенного взаимодействия в сети. Gensyn стремится создать рынок, где ценообразование определяется рыночными силами, способствуя инклюзивности и обеспечивая достижение справедливых уровней затрат на вычисления ML.
Система верификации является ключевым концептом для Gensyn, нацеленным на подтверждение точности задач машинного обучения в соответствии с указанными критериями. Она представляет инновационный подход к верификации, охватывающий вероятностное доказательство обучения, протокол точного позиционирования на основе графа и Truebit. Эти основные технические особенности инцентивной игры обеспечивают улучшенную эффективность по сравнению с традиционными методами валидации блокчейна. Сетевые участники включают подающих, решающих, верификаторов и информаторов, совместно облегчающих процесс верификации.
На основе обширных тестовых данных, описанных в белой книге протокола Gensyn, заметными преимуществами платформы являются:
Однако параллельно распределенная вычислительная мощность приводит к неизбежному увеличению времени обучения по сравнению с локальным обучением, вызванному коммуникационными и сетевыми проблемами. На основе тестовых данных протокол Gensyn вызывает приблизительно 46% избыточного времени в обучении модели.
Сеть Akash функционирует как распределенная облачная вычислительная платформа, интегрирующая различные технические элементы для обеспечения пользователям эффективного развертывания и управления приложениями в децентрализованной облачной среде. По сути, она предоставляет пользователям возможность арендовать распределенные вычислительные ресурсы.
В основе Akash лежит сеть поставщиков инфраструктурных услуг, разбросанных по всему миру, предлагающих ресурсы центрального процессора, графического процессора, памяти и хранилища. Эти поставщики предоставляют ресурсы для аренды пользователей через верхний кластер Kubernetes. Пользователи могут развертывать приложения в виде контейнеров Docker, чтобы использовать экономичные инфраструктурные сервисы. Кроме того, Akash применяет подход «обратного аукциона» для дальнейшего снижения цен на ресурсы. Согласно оценкам на официальном сайте Akash, стоимость обслуживания платформы примерно на 80% ниже, чем у централизованных серверов.
io.net представляет собой децентрализованную вычислительную сеть, которая объединяет глобально распределенные графические процессоры для обеспечения вычислительной поддержки для обучения и рассуждения моделей искусственного интеллекта. Недавно завершив круг финансирования серии A на сумму 30 миллионов долларов, платформа теперь может похвастаться оценкой в 1 миллиард долларов.
Отличаясь от платформ типа Render и Akash, io.net выступает как надежная и масштабируемая децентрализованная вычислительная сеть, сложно связанная с многоуровневыми инструментами разработчика. Ее ключевые особенности включают:
Относительно ценообразования, официальный сайт io.net предполагает, что его тарифы будут примерно на 90% ниже, чем у централизованных облачных вычислительных услуг.
Кроме того, собственный токен io.net, IO coin, в основном будет служить в качестве платежного и вознаграждающего механизма в экосистеме. По альтернативе, заказчики могут принять модель, аналогичную Helium, конвертируя IO coin в стабильную валюту «IOSD points» для транзакций.
Эта статья перепечатана из [GateБлокчейн Wanxiang], оригинальный заголовок: «AI+Web3 Future Development Road (2): Infrastructure», авторские права принадлежат оригинальному автору [Блокчейн Wanxiang]. Если есть возражения против этого повторного издания, пожалуйста, свяжитесь с Gate Learn Team, и они обработают это незамедлительно.
Ответственность за отказ от ответственности: Взгляды и мнения, высказанные в этой статье, являются исключительно точкой зрения автора и не являются инвестиционными советами.
Переводы статьи на другие языки выполняются командой Gate Learn. Без упоминанияGate.io, переведенная статья не может быть воспроизведена, распространена или скопирована.