Слухи ходят: Google в течение нескольких следующих недель представит свой седьмое поколение TPU-чипа, кодовое название Ironwood. Прирост производительности? Говорим о 4-кратном увеличении по сравнению с предыдущим поколением.
Что делает это особенно интересным, так это не только ускорение — а возможность обрабатывать и масштабировать те монструозные модели ИИ, которые все строят. Такие, что проходят через огромные наборы данных, как будто завтра не наступит.
Для контекста, эти TPU специально созданы для самых тяжелых вычислительных задач. Когда вы обучаете модели, требующие невероятных объемов параллельных вычислений, такой аппаратный прогресс имеет значение.
Также важно отметить, что это происходит в условиях активной гонки за инфраструктуру ИИ среди крупных технологических компаний.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
9 Лайков
Награда
9
4
Репост
Поделиться
комментарий
0/400
wrekt_but_learning
· 14ч назад
бык啊 Четырёхкратная производительность просто раздавит amd
Посмотреть ОригиналОтветить0
ForkPrince
· 14ч назад
Снова повышение производительности в четыре раза? Дополнение хвастает~
Посмотреть ОригиналОтветить0
MetaverseLandlord
· 15ч назад
Аппаратное обеспечение — это настоящая крепость ИИ.
Посмотреть ОригиналОтветить0
IronHeadMiner
· 15ч назад
Чипы компании 狗家 так выросли — ты только скажи, волнуешься ли ты?
Слухи ходят: Google в течение нескольких следующих недель представит свой седьмое поколение TPU-чипа, кодовое название Ironwood. Прирост производительности? Говорим о 4-кратном увеличении по сравнению с предыдущим поколением.
Что делает это особенно интересным, так это не только ускорение — а возможность обрабатывать и масштабировать те монструозные модели ИИ, которые все строят. Такие, что проходят через огромные наборы данных, как будто завтра не наступит.
Для контекста, эти TPU специально созданы для самых тяжелых вычислительных задач. Когда вы обучаете модели, требующие невероятных объемов параллельных вычислений, такой аппаратный прогресс имеет значение.
Также важно отметить, что это происходит в условиях активной гонки за инфраструктуру ИИ среди крупных технологических компаний.