被梁文锋靠着DeepSeek抢走风头近180天后,杨植麟正借助Kimi更新试图卷土重来。
近期,Kimi K2新模型发布后,引来外部试用高潮。Perplexity CEO阿拉温德发文称,内部将很快用K2进行后训练,以对外提供服务。此前DeepSeek R1上市后,也被第一时间引入Perplexity。
试图通过模型更新从DeepSeek手中抢回注意力的不止Kimi一家。据字母榜(ID:wujicaijing)获悉,7月底,“AI六小龙”中的阶跃星辰、智谱AI,都将发布自研的新一代基础大模型,科大讯飞也将赶在月底推出自家全新模型。
当一众大模型玩家都在比拼模型更新和产品体验之际,迟迟没有大动作的DeepSeek,不出意外迎来了自身流量和产品使用率的下滑。
DeepSeek自1月以来的爆发式增长,仅持续了2个月时间。从4月份开始,DeepSeek月活跃用户数便掉头向下。QuestMobile数据显示,截至5月份,DeepSeek月活跃用户规模为1.69亿,环比下滑5.1%。
随着月活用户规模下降,DeepSeek的下载量排名也急速下坠。曾经一度在中美两地的苹果App Store 免费应用下载榜上夺冠的DeepSeek,如今已经被挤到了30名开外。
来自SemiAnalysis半导体研究机构的一份报告,更是直观展现了DeepSeek在用户使用率方面的下降态势——从年初7.5%的峰值,回落至5月底的3%,官网访问量也同期下降了29%。
梁文锋并非没有准备。早在2月份,路透社就曾爆料,DeepSeek内部正在加速推出R2模型,该模型原计划在5月初发布,但现在官方希望能尽早发布。
但直到7月中旬,R2模型仍迟迟未见。The Information曾爆料称,阻挡R2模型上线的一大原因是,英伟达H20芯片的意外禁售,使得DeepSeek在算力储备上出现紧缺状况。梁文锋担心新模型一旦上线,会因为短时间内调用量过高而造成体验不佳。
年初R1模型爆火后,梁文锋的低成本大模型训练方法,还意外带火了H20芯片在国内的需求。
自2023年以来,H20芯片是英伟达可合法出口至中国的最强AI芯片。但在DeepSeek影响之下,4月份,美国对其实施新的出口管制许可,其被禁止卖入中国市场。
如今,上述禁令终于迎来转机。7月15日,在黄仁勋年内第三次访华之际,英伟达官方公告,公司正在提交重新销售H20芯片的申请,且美国政府已向英伟达保证将授予许可证,接下来,公司将尽快启动交付程序。
面对被同行抢跑的竞争格局,高端算力遇阻的梁文锋,意外等来了黄仁勋送来的一场及时雨。
A
R1发布近半年来,动作寥寥的DeepSeek,不可避免陷入不进则退的现实困境之中。
在国内其他大模型玩家卯足劲头追平乃至超过DeepSeek模型性能之际,梁文锋只是带领团队出着一些小招式,如DeepSeek V3模型完成小版本升级,上线新版本DeepSeek-V3-0324,随后又更新了以DeepSeek-V3为基础模型微调而来的DeepSeek-Prover-V2——一款数学定理证明模型。
最近的一次动作还要数5月底完成的DeepSeek R1小版本升级。但值得注意的是,DeepSeek-R1-0528仍然使用的是2024年12月所发布的DeepSeek V3 base模型微调而来,并非基于新一代的V4模型。
官方介绍中,DeepSeek-R1-0528更多是在后训练过程中投入了更多算力,以此来提升模型的思维深度与推理能力,其在数学、编程等方面的整体表现,逼近OpenAI o3与谷歌 Gemini-2.5-Pro等国际顶尖模型。
但缺乏大版本升级,只是在小版本上修修补补的DeepSeek,遭遇的直观后果之一便是,外界给其贴上的性价比标签,正在一点点被重新撕下。
一贯以性价比开道的DeepSeek,在过去近半年内,正在被阿里、字节、百度等科技大厂夺走自身的性价比标签,科技大厂纷纷推出了API价格更低的同类模型。
百度创始人李彦宏更是贴脸开大,吐槽DeepSeek除了没有多模态之外,使用起来还慢且贵,“中国市场上绝大多数的大模型API调用价格都比DeepSeek满血版要低,而且速度也更快。”
现在,蓄足实力的“AI六小龙”们,通过新的模型更新,也开始在性能和价格上纷纷挑战起DeepSeek的性价比。
7月份新上线的Kimi K2模型,同样选择了开源,并成为国内开源领域首个总参数量达到1万亿的MoE架构基础模型。
官方介绍,在SWE Bench Verified、Tau2、AceBench等一系列基准性能测试中,Kimi K2 均取得开源模型中的SOTA成绩,在DeepSeek擅长的代码、数学推理任务上实现了反超。
价格上,Kimi K2每百万输入tokens收费4元,每百万输出tokens收费16元,对齐了DeepSeek在标准时段(8点半到夜间12点半)的API价格体系。
Kimi之外,6月中旬更新的MiniMax-M1模型,号称世界上第一个开源的大规模混合架构推理模型,其号称整个强化学习阶段只用到512块H800三周的时间,租赁成本只有53.47万美金。对比DeepSeek,其V3模型训练是在2048块H800上实现的,总花费约为557万美元。
B
摸着DeepSeek过河的一众国产大模型玩家,纷纷在模型性价比上完成了抢跑。对比国外的OpenAI,尽管各家也都在推出各类平替模型,但OpenAI的总调用量依然保持稳定的秘诀,主要在于其在基础模型能力上依然保持着行业头部的水平,始终领先着竞争对手将近一代的差距。
相比之下,DeepSeek爆火出圈的R1,也只是做到了比肩o1的水平,而非彻底超越OpenAI的存在。所以,这也能部分解释为什么短短半年内,DeepSeek官方应用和管网流量就相继迎来了下跌,而ChatGPT却依然维持稳定增长。
不过,需要注意的是,尽管DeepSeek自身流量在下滑,但在第三方平台,R1和V3模型的总使用量仍在持续快速增长。SemiAnalysis给出的数据显示,第三方平台托管的 R1 与 V3 使用量,自R1发布以来已增长近 20 倍。
之所以会造成上述反差局面,SemiAnalysis认为DeepSeek更多是败在了Token经济学上。
虽然外界一般都以每百万 tokens的价格来衡量各个模型的性价比,但这一方法并不总是有效或合理,“因为这忽略了具体工作负载和用户需求。”SemiAnalysis分析师指出。
包括延迟(模型生成首个 token 所需时间)、吞吐率(每个token的生成速度)、上下文窗口等因素的差异,都会对最终的token消耗成本产生直接影响。
典型如 DeepSeek 为了在推理资源有限的情况下提供便宜模型,其上下文窗口严格控制在了64K,是一众主要模型提供商中最小的之一。
与之对比,近期更新的Kimi K2,支持最长128K上下文。更早之前更新的MiniMax-M1,更是支持业内最高的100万上下文输入,是DeepSeek R1的8倍。
当然,这更多是 DeepSeek主动选择的结果。在一众大模型玩家中,梁文锋不仅主动选择了开源,且还直接表现出了对C端应用毫不在意的商业考量。追求并实现AGI,才是梁文锋视野中的头等大事。
C
但DeepSeek终究不是一家慈善机构,梁文锋尽管追求模型开源,他最终想要的也是借助开源生态实现预期的商业化。
基于此,维持开发者群体的活跃,和自家产品的用户使用率,不仅必要,而且对大模型玩家来说更是多多益善。
如何重新激活外界对DeepSeek的兴趣,最直接的解决办法,无疑便是尽快推出新模型V4和R2。
这方面,奥特曼已经为梁文锋做了最佳现身说法。在DeepSeek抢走行业热度后,奥特曼几乎以每周都有新产品的更新频率,让OpenAI牢牢定在了AI热搜榜上:在模型侧推出了GPT 4.5、o3-mini/o4、GPT 4.1;在产品侧上线了Operator、Deep Research、Codex;在体验侧,学习DeepSeek开放思维链,并主导了吉卜力风格图片的流行。
上述动作背后,都藏着奥特曼对OpenAI模型调用度规模的追求。全球最大的大模型整合应用平台Poe,在此前发布的《2025年春季人工智能模型使用趋势》报告中指出,OpenAI的GPT-4.1系列发布后几周内,份额迅速增加到了约10%,位列第一。对比DeepSeek,其R1模型使用率,已从2月中旬的峰值7%下降到了4月底的3%,整体使用率下降超过50%。
在通用Agent大爆发的当下,除了推出新模型之外,梁文锋或许还该考虑如何补上模型调用工具的能力短板,以满足更多AI开发者的新需求。
晚点LatePost 就曾爆料称,字节扣子团队开发扣子空间时,他们曾考虑优先使用DeepSeek-R1,但测试后发现其调用工具的能力不太理想,最终还是用了自家的豆包模型。
环比市面上主流的AI助手类应用,DeepSeek是唯一暂不支持多模态功能的产品。1月15日应用上线至今,6个月过去,如语音对话、图片生成、音乐生成、视频生成等,DeepSeek仍未提供支持服务。
作为通向AGI重要途径的多模态,其重要性正随着Agent生态的发展日益凸显。如果梁文锋再不向外界亮大招,其还将迎接更加现实的竞争挑战,即可能会将更多模型调用需求推向对手。
毕竟,现实环境中,从MiniMax到Kimi,其在最新更新的模型中,无一例外都强调了调用工具来构建Agent的特性。
借助R1开启深度思考浪潮后,梁文锋还能为Agent时代创造出新的惊喜吗?
相关文章
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读
2025-07-166阅读