第09版:科教观潮

人民日报海外版 2026年04月09日 Thu

返回目录    放大 缩小 全文复制     上一篇    下一篇

词元调用量激增,算力还够用吗?(有事说事·词元三问②)

刘发为 《人民日报海外版》(2026年04月09日 第 09 版)

  AI时代,你提的每一个问题,“龙虾”为你做的每一件事情,都是词元在背后“跑腿”。

  AI工具每生成一个词元,都需要调用数据中心的算力,并伴随着电力消耗。

  越来越多人用上AI工具,首先迎来的是词元调用量的激增,同步增长的,还有对算力的消耗。

  设想一下:如果你正在使用AI工具,但半天没有收到AI的回复,你会作何感受?

  当我们看到新闻中不断传出消息,词元调用量又增加了多少,相信不少人跟笔者有一样的担忧:照这个速度发展下去,我们的算力还够用吗?

  就像高速公路上的车流量——车多了,道路会拥堵。词元调用量大了,算力也会面临压力。

  最近,云厂商密集提价,纷纷调高AI算力租赁价格。背后的原因很明显——需求激增,供给偏紧,价格跟着上涨。

  市场对GPU算力的需求持续强劲。市面上,有GPU芯片的租赁价格自2025年10月的每小时1.7美元上涨至今年3月的每小时2.35美元,涨幅近40%。

  算力的需求曲线突然陡峭起来,算力供给还没来得及完全跟上。更聪明的AI智能体模型能执行更复杂的任务,但对算力的消耗量明显增大,如果算力不够,一个问题丢进去半天没有响应,一切体验都是空谈。

  既然这样,如何破解?

  其实,市场也已经在给出回应了。

  先说开源。

  以前,我们用的GPU芯片,许多依赖进口,也就是说,我们算力的“命门”掌握在别人手中。而现在,华为昇腾910B等国产AI芯片逐步量产,且产能不断提升,算力硬件供给走向多元化,避免了对单一外资芯片的过度依赖。

  从这一点上看,因为硬件导致算力短缺的可能性正在慢慢降低。

  不仅是硬件在不断突破,数据中心REITs等金融创新正在将算力资产证券化,吸引更多资本进入算力建设领域,也就是说,未来将有越来越多的算力设施能为大家服务。

  说完开源,再看节流。

  提升词元的转化效率,其实也是提高算力的使用效率,也是从另一个角度扩容算力“池子”。

  最近,就有人提出,要构建更高效、标准化的“词元工厂”,提供持续稳定、规模化的词元服务,让顶尖模型能力高效赋能海量下游场景,尽可能提升每一个词元的转化效率,让算力“花得值”。

  近期,也有不少企业加快了高性能算力的创新布局,其中以超节点为代表的架构创新,成为提升算力效率的重要路径。

  如果再往远一点看,未来,算力设施的智能化水平也会不断提升,算法和算力系统之间的协同配合也会更默契,算力使用将更加高效。

  算力紧张的确存在,但在笔者看来,这是阶段性的。就像刚开始普及3G的时候,大家感觉手机的流量总是不够用,而现在,大家可以随便刷视频。相信随着技术迭代、产能扩张和商业模式创新,算力的供需关系会逐步走向平衡。

  而当下,除了关注算力的规模本身,我们也要更多关注如何更高效、更公平地调度和使用算力。