这段时间, 无论是在使用各种AI大模型的实际过程中发现不同模型之间的区别越来越小, 还是在网上看到各种关于各种模型的商业模式之间变得越来越接近, 种种分析都推向一个比较类似的结论, 也就是目前各种模型走到了一个分界点上, 那就是到底是追求规模效应以低成本来获客, 还是继续追求定件能力以定价权。
越小分析这个问题其实有几种思路, 一个思路是看实际是否这些AI企业真的有能力来追求定价权, 另外一个则是从商业角度, 是否走规模效应才是这些企业唯一的出路。
Neo张宁说的一段话其实挺有意思, 他说, 从需求出发, AI承诺的歧视个性化真的是人类的刚需吗? 他认为AI最终会回归成本、规模和用户体验的基本面, 追求定价权不论是从可行性上还是利益上可能都不是一条最终会被选择的道路。
之所以说很多AI的模型公司是很难拥有定价权的, 那是在于它们随时有可能会被新的模型来冲击, 它们想要掌握定价权唯有两条出路, 一条是通过成本优势, 另外一条是通过性能优势。
而这种或者说是如果是要想另外一条思路是通过时间差来夺回定价主导权, 这里可以用在FE比赛里常用出现的两种战术, Undercut和Overcut来做一个不那么合适的类比。
对于有些模型公司而言要想获取定价权, 那么是通过Undercut也就是先手抢占位置率先进入市场快速降本锁定客户的方式, 而另外一种Overcut则是等技术成熟再出手, 依据推出性能比较领先的模型来绑定高价值的场景。
但是两种方式其实各有它的缺陷, 很多时候先手抢占位置并不能保证用户会继续相信你, 或不能保证用户有足够多的粘性。
目前可以说仅仅只有GPT它的这些模型通过前期的锁定用户获得利益优势, 而对其他的公司而言它们被替代的可能性特别大, 尤其是它们会面临很多开源模型的冲击。
而性能模式则相对而言也面临很大的风险, 现在现实中我们就能看到, 越来越难有某个公司推出性能远超于其他公司的产品了, 而且不同软件不同产品模型之间可替代性很高。
这种在模型层面的竞争, 越来越接近那种寡头的竞争。价格会随着边际成本而迅速下跌, 最后终将倒向一种平成本的商业模式。
那么AI行业必定会走上这条道路吗? 其实也不简单, 更多的议价空间, 更多的定价权可能反而会是在应用公司身上。
一些应用它的专用性越高, 锁定效应越强, 它与客户的关系就更接近准垂直整合。
并且它们通过长期的数据积累, 能够每一次迭代都加厚互衬合。
相比之下, 模型公司需要始终通过持续的资本循环来训练上市迭代, 来保证它们技术牵延性。
否则就没法拥有互衬合。
同时模型公司也非常难获得一定的替换性与网络效应, 而这些都是可以通过应用层来实现的。
只要一些产品的架构是那种允许热插拔各种不同模型能力, 那么AI应用便能够把一些底层的模型算力来当作商品进行采购, 而把定价的话语权系在谁为客户能够创造可量化价值这一个更难被替代的层面上。