官宣|FlagOS 镜像登陆腾讯云 HAI社区,快速部署OpenClaw 实现“养虾”自由

资讯 » 新科技 2026-03-03


以往大家习惯将 AI 能力依赖于公有云服务,而随着 OpenClaw 等智能体工具的快速普及,不管是个人开发者还是企业更需要一个 7×24 小时运行在本地、可直接响应指令的 “数字员工”。但云端方案存在的数据隐私风险与持续高昂的 API、Token 成本,让工业级智能体在规模化落地时面临瓶颈,独立部署大模型服务已成为企业构建自主可控 AI 能力的必然选择。

众智FlagOS 是一款完全开源的 AI 系统软件栈,支持多款异构 AI 芯片,可让 AI 模型与智能体轻松实现快速部署。本次 FlagOS 联合腾讯云 HAI(面向AI和科学计算的容器镜像中心),将 Qwen3-4B-hygon-flagos 模型镜像正式上线腾讯云 HAI 社区,开发者可直接拉取使用。基于该镜像,可快速在加速卡上运行FlagOS + OpenClaw,实现小模型驱动智能体执行,为企业和开发者从公有云 API 转向自建本地 AI 服务提供了可落地的实践方案。

安装及测试过程

基于 FlagOS 系统软件栈的跨芯能力,众智 FlagOS 社区把 Qwen3-4B 适配至多款GPU硬件。以下内容重点介绍如何部署与配置 FlagOS 版 Qwen3-4B的过程,仅用于复现实验结果,不影响对 Agent 能力的判断。

1.安装Qwen3-4B-hygon-flagos首先,从 HAI 社区平台找到 Qwen3-4B-hygon-FlagOS,根据md拉取模型并启动服务。

以 ModelScope为例,下载模型权重

Plain Text pip install modelscope modelscope download –model Qwen/Qwen3-4B –local_dir /share/Qwen3-4BPlain Text docker pull haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0通过下面的代码,启动容器。

这段代码可直接复制使用,也可以根据需要修改容器名,即在第4行–name=flagos对 name 进行修改。

SQL auto-installs UI deps on first run pnpm build pnpm openclaw onboard –install-daemon key不可为空,如果原来模型没有配置key,任意填写即可 “api”: “openai-completions”, “models”: [ { “id”: “Qwen3-4B-hygon-flagos”, “name”: “远程模型” } ] }’

执行之后出现如下信息提示:

启用并设置为默认模型

Plain Text 合并配置模型 pnpm openclaw config set models.mode mergePlain Text 切换为当前模式 pnpm openclaw models set vllm_local/Qwen3-4B-hygon-flagos


可以看到当前默认模型已经切换为 Qwen3-4B-hygon-flagos。

执行下面代码,可以看到模型已经切换完成。Plain Text pnpm openclaw configure


可以看到模型已经切换完成。

3、配置 channel 为QQ

参考文档: https://cloud.tencent.com/developer/article/2626045,这部分需要替换为自己的ID和secret。配置完成后,进行以下操作:

启动openclaw网关, 命令如下:Plain Text
pnpm openclaw gateway启动成功后,您可以在QQ软件中尝试和已经打通OpenClaw的QQ机器人进行单独聊天,或者在群里与QQ机器人进行对话。如果QQ机器人能够以AI的方式对话,则说明您已经成功完成OpenClaw应用接入QQ机器人。

接下来您就可以开始进一步探索OpenClaw接入QQ机器人之后的更多使用场景。

趋势展望

这次在 OpenClaw 连接QQ的场景中对 Qwen3-4B-hygon-flagos 进行了测试,发现Agent的能力边界正在发生转移

关键信号:

小模型开始进入Agent执行层
Qwen3-4B-hygon-flagos 已经可以在 OpenClaw 中稳定承担指令理解、工具调用、本地文件操作和协作入口控制等任务。这意味着,小模型第一次从“对话组件”走进了Agent的执行中枢

真正的瓶颈不在模型,而在系统
无论 4B 还是更大的模型,在文档写入等能力上同样受限,说明 Agent 的上限越来越多地由平台权限、接口设计和工程抽象决定,而不是模型本身。

如果你要的是一个能在本地跑、能调工具、能接企业系统的 Agent 内核,
4B级模型,已经开始成为一个现实且合理的默认选项。

Less is More, FlagOS is the Key

关于众智FlagOS社区

众智FlagOS是一款专为异构AI芯片打造的开源、统一系统软件栈,支持 AI 模型一次开发即可无缝移植至各类硬件平台,大幅降低迁移与适配成本。它包括大型算子库、统一AI编译器、并行训推框架、统一通信库等核心开源项目,致力于构建「模型-系统-芯片」三层贯通的开放技术生态,通过“一次开发跨芯迁移”释放硬件计算潜力,打破不同芯片软件栈之间生态隔离。

社区官网:https://flagos.io

GitHub地址:https://github.com/flagos-ai

GitCode地址:https://gitcode.com/flagos-ai

关于HAI

高性能应用服务(Hyper Application Inventor,HAI)是一款面向 AI 、科学计算的 GPU 应用服务产品,提供即插即用的澎湃算力与常见环境,助力中小企业及开发者快速部署 LLM。

而HAI社区是一款面向AI和科学计算等GPU环境的容器镜像中心,提供丰富的官方与社区维护的开发资源。助力企业和开发者快速部署AIGC大模型、计算机视觉、自然语言处理、数据科学等容器,原生集成开发工具与组件。




免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。由用户投稿,经过编辑审核收录,不代表头部财经观点和立场。
证券投资市场有风险,投资需谨慎!请勿添加文章的手机号码、公众号等信息,谨防上当受骗!如若本网有任何内容侵犯您的权益,请及时联系我们。