Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

Akash Network запускає AkashML — першу повністю керовану AI-службу інференсу на децентралізованих GPU

Коротко

Akash Network запустила AkashML, пропонуючи OpenAI‑сумісні API, глобальний доступ із низькою затримкою та економію витрат до 85% для розгортання LLM.

Akash Network випускає AkashML — першу повністю керовану сервісу AI-інференсу на децентралізованих GPU

Akash Network, маркетплейс хмарних обчислень, представила першу повністю керовану службу AI-інференсу, що працює виключно на децентралізованих GPU. Ця нова послуга усуває операційні труднощі, з якими раніше стикалися розробники при керуванні продукційним інференсом на Akash, надаючи переваги децентралізованих хмарних обчислень без необхідності ручного управління інфраструктурою.

На старті AkashML пропонує керований інференс для моделей, включаючи Llama 3.3-70B, DeepSeek V3 і Qwen3-30B-A3B, які доступні для негайного розгортання та масштабуються у більш ніж 65 дата-центрах по всьому світу. Така конфігурація забезпечує миттєвий глобальний інференс, передбачуване ціноутворення pay-per-token і підвищує продуктивність розробників.

Akash підтримує ранніх AI-розробників і стартапи з моменту зростання AI-додатків після перших досягнень OpenAI. За останні кілька років команда Akash Core співпрацювала з клієнтами, такими як brev.dev (придбаний Nvidia), VeniceAI та Prime Intellect для запуску продуктів, якими користуються десятки тисяч користувачів. Хоча ці ранні користувачі були технічно підковані й могли самостійно керувати інфраструктурою, відгуки показали перевагу API-доступу без керування базовими системами. Це стало поштовхом для розробки непублічної версії AkashML для обраних користувачів, а також створення AkashChat і AkashChat API, що проклало шлях до публічного запуску AkashML.

AkashML дозволить скоротити витрати на розгортання LLM до 85%

Нове рішення вирішує кілька ключових проблем, з якими стикаються розробники та бізнес при розгортанні великих мовних моделей. Традиційні хмарні рішення часто передбачають високі витрати: для зарезервованих інстансів моделі 70B ціна перевищує $0.13 за вхід та $0.40 за вихід за мільйон токенів, тоді як AkashML використовує конкуренцію на маркетплейсі для зниження витрат на 70-85%. Операційні витрати — ще одна перешкода, адже пакування моделей, налаштування vLLM чи TGI серверів, управління шардами та резервування на випадок відмов може займати тижні інженерної роботи; AkashML спрощує це за допомогою OpenAI-сумісних API, які дозволяють мігрувати за лічені хвилини без змін у коді.

Затримка — також проблема для централізованих платформ, які змушують запити долати великі відстані. AkashML спрямовує трафік до найближчого з понад 80 глобальних дата-центрів, забезпечуючи час відгуку менше 200 мс, що підходить для роботи у реальному часі. Vendor lock-in обмежує гнучкість і контроль над моделями та даними; AkashML використовує лише відкриті моделі, такі як Llama, DeepSeek і Qwen, даючи користувачам повний контроль над версіями, оновленнями та управлінням. Проблеми масштабованості вирішуються автоматичним масштабуванням на децентралізованих GPU-ресурсах, підтримуючи 99% аптайму й усуваючи обмеження по потужності без раптових стрибків цін.

AkashML створено для швидкого старту та миттєвої окупності. Нові користувачі отримують $100 AI токен-кредитів для тестування всіх підтримуваних моделей через Playground або API. Один API-ендпоінт підтримує всі моделі й інтегрується з такими фреймворками, як LangChain, Haystack або кастомними агентами. Ціноутворення прозоре і залежить від моделі, що запобігає неочікуваним витратам. Високоефективні розгортання можуть отримати додаткову видимість через Akash Star, а майбутні оновлення мережі, включаючи BME, віртуальні машини та конфіденційні обчислення, мають ще більше знизити витрати. Перші користувачі повідомляють про зниження витрат у 3-5 разів і стабільну глобальну затримку менше 200 мс, створюючи позитивний цикл зниження витрат, зростання використання і розширення участі провайдерів.

Почати дуже просто: користувачі можуть створити безкоштовний акаунт на playground.akashml.com менш ніж за дві хвилини, переглянути бібліотеку моделей, включаючи Llama 3.3-70B, DeepSeek V3 і Qwen3-30B-A3B, і побачити ціни заздалегідь. Додаткові моделі можна замовити безпосередньо з платформи. Користувачі можуть миттєво тестувати моделі у Playground або через API, відстежувати використання, затримку та витрати через дашборд, а також масштабувати до продукційного рівня з фіксацією регіону і автоскейлінгом.

Централізований інференс залишається дорогим, повільним і обмежуючим, тоді як AkashML пропонує повністю керований, API-перший, децентралізований доступ до провідних відкритих моделей за ринковими цінами. Розробники та бізнеси, які прагнуть знизити витрати на інференс до 80%, можуть почати користуватись платформою вже зараз.

AKT3%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити