Gate News повідомлення, 10 квітня, нещодавно в дописі-відповіді на платформі X Ілон Маск викликав жваве обговорення серед зовнішніх спостерігачів щодо того, як оцінити масштаб параметрів флагманської моделі Anthropic. У відповіді на запит користувача про кількість параметрів Grok 4.2 Маск підтвердив: «0.5 трлн загальних параметрів. Наразі Grok — це половина Sonnet, і десята частина Opus. За своїм обсягом це дуже потужна модель». Якщо ж із твердження Маска «Grok 4.2 — це десята частина Opus» зробити зворотне обчислення, то параметричний обсяг Claude Opus становить близько 5 трлн, а Claude Sonnet — близько 1 трлн. Варто зазначити, що Anthropic ніколи не публікувала інформацію про масштаб параметрів жодної зі своїх моделей; наведені цифри — це лише оцінки, виведені з висловлювань Маска, а не офіційні дані. Паралельно Маск розкрив, що суперкомп’ютерний кластер Colossus 2 від SpaceX AI синхронно навчає 7 моделей, а максимальний масштаб сягає 10 трлн параметрів, і додав: «Є ще дещо, що потрібно наздогнати». Якщо припущення вірні, то Claude Opus із 5 трлн параметрів посідатиме верхівку серед наразі відомих розгорнутих моделей; а модель із 10 трлн параметрів, яку синхронно навчає xAI, стане важливою змінною в наступному раунді конкуренції.