大模型内卷之后:AI 行业的冷思考
作者:Mr丶点心
一、内卷的现状

2023-2025 年,大模型行业经历了一场前所未有的"军备竞赛":
- 参数越来越大:从 7B 到 70B,再到 700B
- 公司越来越多:大厂、创业公司、科研机构纷纷入局
- 融资越来越高:动辄数亿美金的融资轮次
- 发布越来越频繁:几乎每周都有新模型发布
但热闹背后,有几个问题值得冷思考。
二、技术同质化严重
表面上看,各家模型各有特色。但深入使用后会发现,核心能力差异并不大。
为什么?因为:
- 架构趋同 - 都是 Transformer 及其变体
- 数据趋同 - 训练数据来源高度重叠
- 评估趋同 - 都用相似的基准测试
- 应用趋同 - 都集中在聊天、写作、编程等场景
这种情况下,参数量的领先只能带来边际改进,无法形成真正的护城河。
三、商业模式的困惑
大模型公司的商业模式,目前主要有三种:
3.1 API 调用
按 token 收费。问题是价格战激烈,利润越来越薄。
3.2 企业定制
为大客户定制模型。问题是项目制,难以规模化。
3.3 订阅服务
面向个人用户的月度订阅。问题是付费率低,获客成本高。
三种模式都有天花板,还没有出现真正可持续的盈利模式。
四、算力瓶颈
大模型的训练和推理,都需要海量算力。这带来了两个问题:
4.1 成本压力
训练一个千亿参数模型,成本高达数千万美元。推理成本也不低,每次对话都要消耗大量 GPU 资源。
4.2 供应限制
高端 GPU 供不应求,交货周期长达数月。这限制了模型的训练速度和推理规模。
五、应用落地的挑战
技术上很强大,但落地并不容易。
5.1 准确率问题
95% 的准确率听起来很高,但在医疗、法律等高风险场景,5% 的错误率是不可接受的。
5.2 幻觉问题
大模型会"一本正经地胡说八道"。这在某些场景是致命的。
5.3 集成难度
企业现有系统复杂,AI 集成需要大量定制开发。
六、破局之道
内卷之后,路在何方?我认为有几个方向值得探索:
6.1 垂直化
不做通用模型,专注特定领域。比如医疗、法律、金融等,做深做透。
6.2 小型化
不是所有场景都需要大模型。7B、13B 的小模型,在特定任务上可以媲美大模型,但成本低得多。
6.3 边缘化
把模型部署到终端设备,减少云端依赖。既保护隐私,又降低延迟。
6.4 生态化
不做模型,做生态。提供工具、平台、服务,让开发者基于你的生态构建应用。
6.5 数据化
模型可以复制,但高质量数据难以复制。建立独家数据壁垒,是长期竞争的关键。
七、理性看待 AI
最后,我想说几点个人看法:
- AI 不是万能药 - 它能解决很多问题,但不是所有问题
- 技术不等于产品 - 好技术不等于好产品,中间需要大量工程化工作
- 落地比发布重要 - 发一百篇论文,不如落地一个真实场景
- 长期比短期重要 - AI 是长跑,不是短跑,活下来最重要
结语
大模型内卷是行业发展必经阶段。泡沫会破灭,但技术会留下。
经历过内卷之后,行业会更加理性,资源会更加集中,应用会更加深入。
冷思考,是为了更好地前行。
本文作者 Mr丶点心,AI 行业观察者。观点仅供参考,欢迎理性讨论。






