Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
MiniMax M2.7 представляет AI-модель с 230 миллиардами параметров для инфраструктуры NVIDIA
Тед Хисокава
12 апреля 2026 г., 01:37
MiniMax выпускает M2.7, модель с 230 миллиардами параметров, основанную на смеси экспертов, оптимизированную для GPU NVIDIA с увеличением пропускной способности до 2,7 раз на оборудовании Blackwell.
MiniMax выпустила M2.7, модель ИИ с 230 миллиардами открытых весов, разработанную специально для рабочих процессов автономных агентов, теперь доступную в экосистеме вывода NVIDIA, включая последние графические процессоры Blackwell Ultra.
Модель представляет собой значительный шаг в повышении эффективности корпоративного ИИ. Несмотря на свои огромные 230 миллиардов параметров, M2.7 активирует только 10 миллиардов параметров на токен — при этом достигается коэффициент активации 4,3% благодаря архитектуре смеси экспертов (MoE) с 256 локальными экспертами. Это позволяет держать затраты на вывод в пределах разумного, сохраняя при этом вычислительные возможности гораздо более крупной модели.
Производительность на Blackwell
NVIDIA сотрудничала с сообществами с открытым исходным кодом для оптимизации M2.7 под производственные нагрузки. Два ключевых улучшения — объединённый ядро QK RMS Norm и интеграция FP8 MoE из TensorRT-LLM — обеспечили значительные повышения пропускной способности на графических процессорах Blackwell Ultra.
Тестирование на наборе данных с длиной последовательности 1K/1K показало, что vLLM достигла увеличения пропускной способности до 2,5 раза, а SGLang — до 2,7 раза. Обе оптимизации были реализованы за один месяц, что говорит о наличии дальнейших резервов для повышения производительности.
Техническая архитектура
M2.7 поддерживает длину входного контекста до 200 тысяч с 62 слоями, используя мультихедовую причинную самовнимательность с вращающимися позиционными встраиваниями (RoPE). Механизм маршрутизации экспертов top-k активирует только 8 из 256 экспертов для каждого входа, что позволяет модели сохранять низкие затраты на вывод несмотря на масштаб.
Архитектура ориентирована на решение задач кодирования и сложных агентных сценариев — рабочих процессов, где системы ИИ должны планировать, выполнять и итеративно совершенствоваться самостоятельно, а не реагировать на отдельные подсказки.
Варианты развертывания
Разработчики могут получить доступ к M2.7 через несколько каналов. Стек NVIDIA NemoClaw предоставляет однокнопочное развертывание для запуска автономных агентов с использованием среды OpenShell. Модель также доступна через контейнеры NVIDIA NIM для локальных, облачных или гибридных развертываний.
Для команд, желающих настроить модель под свои нужды, библиотека NeMo AutoModel поддерживает донастройку с помощью опубликованных рецептов. Рабочие процессы обучения с подкреплением доступны через NeMo RL с примерными конфигурациями для последовательностей длиной 8K и 16K.
Бесплатные GPU-ускоренные конечные точки на build.nvidia.com позволяют протестировать модель перед развертыванием. Открытые веса также доступны на Hugging Face для самостоятельного размещения.
Данный релиз позиционирует MiniMax как достойную альтернативу закрытым моделям от OpenAI и Anthropic для предприятий, создающих автономные системы ИИ, особенно те, что уже инвестировали в инфраструктуру NVIDIA.
Источник изображения: Shutterstock