
ListenHub
3
8-5晓曼: 我最近看到一个特别有意思的说法,说很多AI公司和投资人啊,都做着一个“游艇梦”。
原野: 怎么个“游艇梦”法?
晓曼: 就是他们觉得,AI模型的成本不是每年都在成倍下降嘛。所以他们的算盘是这么打的:第一年,我先亏点钱,用20美元一个月的订阅价把用户圈进来;第二年,模型成本降了10倍,我这利润率不就一下子飙到90%了?第三年,就可以开开心心去挑游艇了。但现实好像很骨感,很多公司不仅没赚到钱,反而亏得更厉害了。
原野: 嗯,这个“游艇购物”的剧本,在现实里是彻底翻车了。这个设想里有个致命的逻辑漏洞,它建立在一个错误的假设上。
晓曼: 哦?什么假设?
原野: 它假设,模型便宜了,大家就会用便宜的。但现实是,用户永远只想要“最好的那个”。当一个更新、更强的模型,我们行话叫SOTA,也就是“State-of-the-Art”模型发布时,几乎百分之九十九的用户需求会立刻涌向它。
晓曼: 这么绝对吗?哪怕旧的模型便宜很多?
原野: 对,就是这么绝对。给你个例子,当初GPT-4刚出来的时候,价格是60美元,而上一代的GPT-3.5,价格只有它的二十六分之一,便宜得跟白送一样。但结果呢?大家还是挤破头去用GPT-4。
晓曼: 哇,便宜26倍都没人要,这有点反直觉啊。这背后是什么心理?
原野: 这其实是一种“认知贪婪”。你想想,当你在用AI帮你写代码、做研究、或者构思文案的时候,你是在用自己的时间换取一个结果。这个时候,你肯定想要一个最聪明、最强大的“大脑”来帮你,谁会为了给公司省几毛钱,故意用一个反应慢、还可能出错的“笨蛋版本”来浪费自己的生命呢?
晓曼: 有道理。时间成本才是最贵的。所以你的意思是,所谓的成本下降,其实是个伪命题?
原野: 不能说完全是伪命题,但它具有很强的迷惑性。这就好比有人跟你说,“你看,这车现在可便宜多了!”,然后他指着一辆1995年的本田思域。是,这辆具体的旧车是便宜了,但市场真正想要的是价值3万美元的2025年新款丰田凯美瑞。AI也是一样,成本下降的永远是那些过时的、没人想用的旧模型,而那个大家都在追逐的“最好的模型”,它的价格始终稳定在一个高位。
晓曼: 我明白了。所以指望靠旧模型降价来盈利,就像是拿着二手车市场的报价单去规划新车发布会的利润,完全搞错了对象。但这似乎也只是解释了为什么没能“坐享暴利”,还不至于让公司越亏越多吧?
原野: 问到点子上了。如果说“最强模型溢价”只是打破了公司的“游艇梦”,那接下来的这个因素,简直就是把船底都给凿穿了。它更隐蔽,也更致命。
晓曼: 愿闻其详。
原野: 就是用户对AI的使用方式,发生了根本性的变化,导致代币,也就是Token的消耗量,出现了爆炸式的增长。
晓曼: 怎么个爆炸式增长法?以前不也是聊天问答吗?
原野: 以前我们用AI,可能就是问一句话,它回一句话,消耗几百个Token。但现在呢?AI的能力强了,用户也变聪明了。他们会让AI执行一个“深度研究”任务,AI可能需要花3分钟做规划,再花20分钟去阅读各种资料,最后再花5分钟给你生成一份报告。这整个过程下来,消耗的Token可能是以前的几百倍,从1000个飙升到10万个。
晓曼: 哇,这个量级确实不一样了。
原野: 这还只是开始。未来,AI代理甚至可以连续工作24小时不出错。你想想,一个20分钟的研究任务成本可能就要1美元,那一个跑满24小时的AI代理,一天就能烧掉72美元。你那个20美元一个月的订阅费,连用户一天的重度使用都覆盖不了。
晓曼: 天哪,这账算不过来了。
原野: 这里最经典的案例就是Claude Code。他们曾经尝试过一个200美元一个月的“无限使用”套餐,而且设计得极其聪明。
晓曼: 他们怎么做的?
原野: 他们用了好几招。首先,定价就是别人的10倍,给自己留足缓冲。其次,他们会根据你任务的负载,自动切换模型。干重活的时候用最强的Opus,任务轻一点就换成便宜的Sonnet,读取文件这种简单工作就用最便宜的Haiku。甚至,他们还想办法把一部分计算任务转移到用户自己的电脑上运行。可以说是把能想到的优化都用上了。
晓曼: 听起来这套组合拳已经很极限了,应该能扛住吧?
原野: 结果是,用户的Token消耗还是像超新星爆发一样,彻底失控了。有一个月,他们消耗了惊人的一百亿个Token。
晓曼: 一百亿?这是什么概念?
原野: 相当于一个月内“读写”了一万两千五百本战争与和平。原因就是,用户一旦发现AI可以自动化执行任务,比如写个循环脚本让AI不停地去优化代码、检查工作、重构,再优化……AI就从一个聊天机器人,变成了一个24小时不间断工作的代码引擎。Token的消耗就和人类坐在电脑前的时间彻底脱钩了,物理定律接管了一切。
晓曼: 这就引出了一个很有趣的比喻,就像你发明了一台燃油效率更高的发动机,结果却用它造了一辆巨无霸卡车。虽然每升油能跑的里程是变多了,但你现在开的是一辆油耗高50倍的怪物。
原野: 没错,就是这个意思。AI的能力越强,它能消耗的、有意义的计算资源就越多。最终,Claude Code只能被迫取消了这个“无限套餐”。这证明了,在AI能力如此强大的今天,任何固定价格的“无限量”订阅模式,在经济上都是不可持续的。
晓曼: 这听起来简直就是个悖论啊:模型明明越来越便宜,提供服务的公司反而越来越亏钱。那面对这种算力黑洞,这些AI公司该怎么办呢?总不能坐着等死吧?
原野: 这就让他们陷入了一个经典的“囚徒困境”。
晓曼: 囚徒困境?怎么说?
原野: 每家公司心里都清楚,按实际使用量来计费,才能保证公司活下去。但问题是,用户讨厌按量计费,他们喜欢“无限畅享”的感觉。这时候,只要你的竞争对手推出一个20美元包月的“无限套餐”,为了抢占市场,你就不得不跟进。
晓曼: 我明白了。如果大家都按量付费,整个行业是健康的。但只要有一个人破坏规矩,选择用亏损换增长,其他人为了不被淘汰,就只能跟进。
原野: 对。最终结果就是,所有人都开始补贴那些重度用户,大家都在烧钱,都在发布看似漂亮的增长曲线图,然后,在某个时间点,一起走向财务崩溃,或者发布一则“重要的定价更新”公告。
晓曼: 真是绝望的循环。难道就真的没有出路了吗?
原野: 也不是完全没有。行业里已经开始探索一些新的生存之道了。目前看主要有两个方向。
晓曼: 快说说看。
原野: 第一个,是放弃消费者市场,转向企业级服务,建立“高转换成本”的护城河。
晓曼: 转换成本?这个怎么理解?
原野: 简单说,就是让客户换掉你的成本变得极高。比如一家叫Cognition的公司,他们直接跟花旗、高盛这种大型金融机构合作,把他们的AI工具部署给几万名工程师。这种单子虽然难拿,需要经历漫长的合规审查、安全审计、采购流程,但一旦拿下来,客户就几乎不可能流失了。
晓曼: 哦,因为企业想换一个供应商,就得把这一整套痛苦的流程再走一遍,内部的决策者和执行者都受不了。
原野: 完全正确。这就好比企业用的那些CRM或者ERP系统,一旦用上了,就很难再换。这时候,客户对价格的敏感度就会大大降低,公司也能获得80%到90%的超高利润率。这就算成功躲开了消费者市场的价格战。
晓曼: 这确实是一条路。那另一个方向呢?
原野: 另一个方向是“垂直整合”。就是不指望AI本身赚钱,而是把AI当成一个引流工具,来卖其他更赚钱的服务。
晓曼: 这个概念听起来有点复杂,能举个例子吗?
原野: 最典型的就是Replit。他们提供一个AI编程助手,但同时,他们还提供代码托管、数据库管理、应用部署和监控等一整套服务。AI帮你生成了代码,你总得有地方运行它吧?你的应用需要数据库吧?部署之后需要监控吧?
晓曼: 我懂了!AI本身可能是在亏钱的,但它源源不断地为你其他的收费服务创造了需求。这就像亚马逊用Kindle阅读器本身不赚钱,但靠卖电子书赚钱一样。
原野: 对,就是这个逻辑。他们把AI的成本看作是市场营销费用,然后在整个技术栈的每一个环节去捕获价值。让OpenAI和Anthropic去卷模型价格吧,我拥有的是整个生态。
晓曼: 所以,无论是建立企业级护城河,还是进行垂直整合,核心思想都是跳出“靠AI本身赚钱”这个死胡同。
原野: 完全正确。那些还在玩“固定订阅,不惜一切代价增长”游戏的公司,说白了,只是在排队等着一场非常昂贵的葬礼而已。
晓曼: 这么说来,我们今天其实理清了一个非常关键的脉络。首先,所谓的AI成本下降是个美丽的陷阱,因为用户永远追逐最贵、最强的那个模型,这导致前沿AI的价格始终居高不下。
原野: 是的,这是第一个现实。
晓曼: 其次,就算价格不变,AI能力的增强也打开了潘多拉魔盒,用户的使用方式从简单问答变成了驱动AI进行超长时间、超大消耗的任务,让任何固定订阅模式都难以为继。
原野: 对,这是第二个,也是更致命的现实。
晓曼: 在这种双重压力下,AI公司陷入了定价的“囚徒困境”,被迫在市场份额和财务健康之间玩火。而真正的出路,要么是像服务高盛那样,用高转换成本锁定高利润的企业客户;要么就是像Replit那样,进行垂直整合,把AI当成生态的入口,在别处赚钱。
原野: 总结得非常到位。
晓曼: AI领域的这个“成本悖论”和“代币短缺”危机,其实揭示了一个很深刻的道理:技术的进步,并不总是能带来线性的商业回报。当一个产品的核心能力越强,用户的“认知贪婪”和对极致体验的追求就越无止境,反而会把成本推向一个新的高度。这迫使AI公司必须跳出单一产品的思维,重新思考自己在整个价值链里的位置。它们可能不再是单纯的“模型提供商”,而必须成为“生态构建者”或者“企业级解决方案专家”。这不仅仅是一场商业模式的转型,更是一次对AI技术到底该如何在现实世界里创造并捕获价值的深刻反思。也许我们最该问的是:当AI本身变得无比强大和廉价时,真正稀缺和有价值的,又会是什么呢?