Gate 广场 “内容挖矿” 焕新季公测正式开启!🚀
立即报名:https://www.gate.com/questionnaire/7358
主要亮点:
🔹 发布合格内容并引导用户完成交易,即可解锁最高 60% 交易手续费返佣
🔹 10% 基础返佣保障,达成互动或发帖指标可额外获得 10% 返佣加成
🔹 每周互动排行榜 — 前 100 名创作者可额外获得返佣
🔹 新入驻或回归创作者,公测期间可享返佣双倍福利
为进一步激活内容生态,让优质创作真正转化为收益,Gate 广场持续将内容创作、用户互动与交易行为紧密结合,打造更清晰、更可持续的价值循环,为创作者与社区创造更多价值。
了解更多:https://www.gate.com/announcements/article/49480
活动详情:https://www.gate.com/announcements/article/49475
在人工智能领域的静默胜利不会关乎芯片的主导地位——而是关于能源效率。以下是为什么Alphabet占据优势的原因。
真正的竞争不在大家想象的地方
虽然市场沉迷于芯片制造商,但人工智能(AI)的真正战场在别处决定。英伟达(NASDAQ: NVDA)掌控着GPU领域,而超威半导体(NASDAQ: AMD)则持续反击。博通(NASDAQ: AVGO)使企业能够为AI任务定制ASIC(application-specific integrated circuits)。然而,最有能力主导下一阶段AI计算的公司根本不是纯粹的芯片制造商——而是谷歌母公司(NASDAQ: GOOGL)。
关键的区别在于:能效。正是在这里,谷歌的整合式方法改变了游戏规则。
为什么能耗成为新的制约因素
能源稀缺,而非芯片短缺,才是真正制约当今AI基础设施的瓶颈。GPU在快速处理海量数据方面表现出色,但它们是耗电大户。在AI训练过程中,这一成本大多是一次性的。而推理——即运行大型语言模型(LLMs)所需的持续计算工作——则是成本快速积累的地方。
从训练到推理的转变,是谷歌领先的关键。在过去十多年里,该公司自主研发了专为其TensorFlow框架定制的AI芯片。如今,进入第七代的谷歌的张量处理单元(TPUs),专为Google Cloud的基础设施和特定工作负载打造。结果是:性能优越,能耗更低。
竞争对手使用博通协助的ASIC根本无法复制这种效率。谷歌并不向外部客户销售TPUs——而是要求企业在Google Cloud上运行其工作负载以使用它们。这为谷歌带来了多重收入,形成了AI生态系统中的收入倍增效应。
此外,谷歌还在内部使用TPUs进行自己的AI项目。这种在开发和部署Gemini基础模型上的成本优势,为谷歌在结构上优于依赖成本更高、耗能更大的GPU的OpenAI和Perplexity AI等竞争对手提供了优势。
作为竞争护城河的集成堆栈
随着AI的发展,谷歌的端到端整合变得日益强大。没有任何竞争对手能组建如此全面的AI技术套件。最近发布的Gemini 3,凭借在多个领域超越常规前沿模型的能力,赢得了分析师的认可。
值得一提的是,当英伟达得知OpenAI正在测试谷歌的TPUs时,芯片巨头迅速行动,争取达成合作并在这家创业公司进行战略投资。这一反应本身就充分说明了英伟达对谷歌硅优势的重视。
谷歌还通过Vertex AI平台巩固其地位,使客户能够在Gemini基础上开发定制模型和应用程序。再加上其庞大的光纤网络基础设施——旨在最小化延迟——以及即将收购云安全公司Wiz,你会看到一个垂直一体化、无可匹敌的行业巨头。
赢者通吃
如果必须选择一个长期AI投资的唯一目标,谷歌无疑是最合理的选择。其在硬件、软件、云基础设施以及企业安全方面的掌控,形成了一个随时间递增的防御性优势。
随着推理工作负载占据主导,能效决定盈利能力,谷歌的定制生态系统将变得越来越难以超越。AI的真正胜负,不仅仅靠芯片的优越——而是靠整个技术堆栈的协同运作。而在这一点上,谷歌已经处于不同的层次。
图表数据和回报率指的是截至2025年11月的历史表现