你用AI完成一个任务,消耗的Token可能是以前的10倍:SaaS公司的定价模型,要推倒重来了

DeepSeek V4发布后,海外开发者社区里出现了一批令人不安的讨论。不是关于幻觉率,也不是关于排名——而是关于账单。
有开发者在社区反映:「用V4跑了一个Agent任务,Token消耗是V3的8倍。」这个方向上,多位开发者有类似反馈:AI从「问答」进入「自主行动」阶段,Token消耗量的量级在发生变化。
量级变了,意味着什么?意味着很多公司原本的商业模式,可能需要重算一遍。
Agent时代的Token消耗,和你想象的不一样
在传统「问答式」AI场景里,一次对话的Token消耗大概在数百到数千个。用户提问,模型回答,结束。这个量级对应的API成本是每次几分钱到几毛钱,相当可控。
热门文章

