“DeepSeek-V3基于我们的架构打造”,Mistral CEO Arthur Mensch逆天发言被喷

资讯 » 新科技 2026-01-26

“DeepSeek-V3 是在 Mistral 提出的架构上构建的。”

欧洲版 OpenAI CEO 此言一出,炸了锅了。网友们的反应 be like:

这还是温和派,还有更直接的吐槽:Mistral 在胡说八道些什么……

还没吃上瓜的家人们别着急,咱们从头捋一捋这事儿:

在最近一次访谈中,当被问到如何看待中国开源 AI 的强势发展时,Mistral 联合创始人、CEO Arthur Mensch 这样回应:

中国在 AI 领域实力强劲。我们是最早发布开源模型的公司之一,而他们发现这是一个很好的策略。

开源不是真正的竞争,大家在彼此的基础上不断进步。

比如我们在 2024 年初发布了首个稀疏混合专家模型(MoE),DeepSeek-V3 以及之后的版本都是在此基础上构建的。它们采用的是相同的架构,而我们把重建这种架构所需的一切都公开了。

Arthur Mensch 很自信,但网友们听完表示:桥豆麻袋,这不对劲。

且不说 DeepSeek MoE 论文的发布时间和 Arthur Mensch 提到的 Mixtral 论文相差仅 3 天:

认真细扒起来,两种架构实际上思路也并不相同。

并且此前,Mistral 3 Large 还曾被扒出基本上照搬了 DeepSeek-V3 采用的架构……

▲ 图源



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。由用户投稿,经过编辑审核收录,不代表头部财经观点和立场。
证券投资市场有风险,投资需谨慎!请勿添加文章的手机号码、公众号等信息,谨防上当受骗!如若本网有任何内容侵犯您的权益,请及时联系我们。