环球网
2月28日,神州鲲泰发布KunTai A989 I3超节点服务器与KunTai W916 AI推理工作站两款新品,以云、边、端全域算力资源一体协同,迭代升级神州鲲泰“人工智能+”产品矩阵,全面赋能人工智能场景化价值落地。
![]()
当前,全球AI算力需求呈爆发式增长,中国AI基础设施市场进入快速扩张阶段。随着生成式AI应用普及,中心侧推理需求加速攀升,成为市场增长的关键动力;边端算力下沉亦成为产业发展的重要趋势。
神州鲲泰精准锚定行业中心算力夯实与边端推理落地的双重核心需求,推出两款新品:一方面以高性能产品筑牢中心推理场景的算力底座,另一方面以轻量化方案打通边端侧推理的落地链路,推动大模型推理从算力比拼,转向务实高效的场景化价值创造。
据悉,此次发布进一步完成了神州鲲泰“从中心推理到边端推理,从算力摸高到场景落地”的全链条产品布局与迭代,为AI产业规模化落地提供更完整的支撑能力。
![]()
据介绍,KunTai A989 I3超节点服务器基于鲲鹏+昇腾技术架构与灵衢总线构建,面向互联网、运营商、金融等行业大模型推理场景,是集高性能、高可靠、易部署于一体的AI算力基础设施。产品适配标准风冷机房环境,以极致算力、高互联带宽与高可靠性为核心优势,为AI大模型集群推理提供超低通信时延保障;支持灵衢直连双机架构,可灵活适配多样化推理算力需求。
在核心性能上,产品实现超大带宽与超低时延双重突破:超节点内AI处理器双向带宽超500GB/s,NPU访问时延达纳秒级,可高效支撑大模型TP/EP切分、多模态交互等高并发数据场景。依托全局统一内存编址技术,实现CPU内存与AI处理器片上内存统一地址分配及池化管理,支持更大参数量模型与更长文本序列推理,算力调度更灵活、资源利用率显著提升。实测数据显示,针对Qwen、DeepSeek等多模态及MoE架构模型,推理性能较传统架构提升3倍以上。
另外,KunTai W916 AI推理工作站采用塔式机箱设计,搭配静音工艺,可灵活放置于各类场景,广泛适用于交通、政务、医疗、办公等多个应用领域,是面向本地大模型推理的高性能边端算力平台。其聚焦全行业对高效边端推理能力的迫切需求,以性能强大、运行稳定的紧凑型算力一体机为硬件基础,围绕DeepSeek/Qwen等大模型打造多样化、矩阵化的应用软件,可广泛应用于交通、政务、医疗等应用领域,显著提升各行业工作流程的效率。
资料显示,当前,神州鲲泰已构建云、边、端全域算力一体协同的“人工智能+”产品矩阵,通过全场景算力覆盖,为千行百业提供可落地、可扩展、高安全、高可靠的AI基础设施解决方案,推动人工智能从技术创新走向深度场景落地。(青云)
相关文章
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读
2026-02-2824阅读