出品 |
作者 | 梁昌均
“我个人的状态相当充实,发际线依然还在。”谈及攻关大模型以来的状态,科大讯飞副总裁、研究院院长刘聪最近与等媒体交流时说道。
他也自封了两个新“身份”。第一个是首席演示官,每次大模型发布会,他都会在台前演示;第二个是工具人,要带领各个不同团队在技术、工程、产品、业务方面保持对齐。
今年6月底,科大讯飞发布星火大模型V4.0,宣称全面对标GPT-4 Turbo。此次沟通会上,刘聪全面复盘了讯飞做大模型的核心逻辑,并分享了对大模型技术和应用趋势的看法。
讯飞不会专门去做文生视频,差异化要坚持刚需+代差
从2022年底组建大模型攻关团队,到去年6月首发讯飞星火大模型,再用一年升级到4.0,冲在第一线的刘聪感觉比以前的产品发布快很多,但节奏感控制得挺好。
“去年我们更多是对标和追赶,但今年导向已不太一样。”刘聪表示,去年讯飞更多是在摸索训练过程如何处理各种经验数据,Scaling law是否符合预期,以及做国产化工作。
虽然沿用底座大模型+多场景应用的1+N路径,讯飞今年在底座能力方面,除文本生成、语言理解等通用能力,开始更加关注与业务紧密相关的能力,如长文本溯源、数学能力等。
“不可能每一项都做到第一。”刘聪表示,讯飞在多模态方面将更加关注语音和OCR等,文生图优先级较低,文生视频不会专门去做,但会去做虚拟人。
他提到,讯飞做大模型的目标和逻辑是做到第一梯队的头部,同时要把最重要和有优势的点,从技术到场景做透,结合客户和用户的需求,形成各种工具链、平台、智能体,在凸显大模型的能力的同时,形成产品甚至商业上的造血。
他还强调,讯飞对国产化的投入不可避免。“我觉得任何一家国内公司在这一块都没有我们经验丰富,去年是文本模型的国产化的工作,今年要做语音和视觉,国产化还要继续。”
目前,国内大厂和创业公司都推出了大模型APP产品,普遍定位于个人助手,且多是免费。
刘聪认为,目前许多底座大模型和应用同质化,但是不是真正让用户觉得深入满足自己的需求,产生黏性,甚至不愿意再切换,是考验能否达到应用预期的一个非常重要的标准。
对于是否应该收费,刘聪表示,收费的前提是有没有给用户带来用户愿意为之买单的价值,而不应该企业认为要收费就收费,要站在用户角度去考虑,不是基于技术发展程度的逻辑。
同时,他强调,要想形成产品差异化,就必须关注个性化。“我们的核心理念就是刚需+代差,不是仅仅玩一玩,在刚需基础之上,结合技术打造成领先的产品。”
“讯飞研究院也不是闭门造车做技术,所有技术绝大部分都要对应到业务的需求,内部的算法研发、工程引擎、服务平台以及产品研发部门,整个过程需要一起对齐。”刘聪表示。
应用要聚焦有积累的场景,不用纠结是不是原生
目前,大模型已从技术竞争走向应用创新阶段,但至今外界还很难感受到大模型的落地风暴,业内鼓吹的超级应用也少之又少。
“我觉得今年也不能说没爆发,只是不是大家想象的那种爆发,它一定是个曲线,这就要比耐心,比耐力。”刘聪表示,不管是技术发展还是实际应用,都会有一个理解和接受的过程。
他认为,产品要跨越鸿沟,最初是尝鲜者先使用,之后可能是跟风者使用,然后是实用主义者等技术成熟后使用,最后是保守主义者使用,这时就会成为标配。
“因此要通过产品培养用户和客户的耐心,仅仅依赖技术去推广产品使用,这不现实。”刘聪说。
他认为,大模型应用核心要深入场景,要围绕刚需场景,看要用什么样技术去支撑,以及技术支撑度到底怎么样,并且通过场景在推动技术的发展。
具体要怎么做?刘聪强调,做大模型应用还是要优先把在行业有优势、有积累的场景做好,除非是创业公司要抢地盘,否则优势的地方都没有做好,再去做新的领域,风险非常大。
对于产品打造路径,除了原有产品通过大模型去升级,业内还提出要打造AI原生应用,这两种方式谁能更快跑通?
刘聪表示,不用纠结是不是原生,或者做原生越多越好,核心还是它能否更好满足用户需求,而且能给用户和市场带来增量价值,要找到大模型在哪些场合适合或不适合用。
他提到,最近引发热议的9.11跟9.9哪个大的问题,只要对技术有理解,这就不是大模型上下文预测适合做的事。“大模型不是无所不在,也不是无所不能。”
刘聪认为,从原生角度看,要优先找到大模型能发挥效益的场景,这需要考虑三个因素。首先是技术可达性,哪些需求因大模型从不可达变成可达,就能产生价值。
第二是经济实用性,规模化推广要考虑成本等因素,不是说模型越大越好。最后是应用边界性,要考虑它带来的增量价值和潜在风险之间到底哪一个可能影响更大。
大模型今年引发热议的一个应用就是人形机器人,讯飞则提出2030年要让机器人走进家庭的目标,实现陪伴老人等功能。
刘聪认为,大模型使得这件事的可能性高很多,它对人形机器人将带来质的提升。比如可以解决机器人长时序任务的问题,提高完成复杂任务规划的能力,并能提升泛化性和交互性。
“现在很多还是偏展示为主。”刘聪表示,人形机器人真正全面规模落地也会有个周期,成本太高,马斯克讲要做到几万美元,这需要一个过程。
具体来看,除硬件本身外,算力成本也会增长,因为任务更复杂,而且在有些场景之下,人形不是最合适的形态。他认为,国内做机器人压力可能会更大,还涉及到国产化。
刘聪表示,讯飞不会因人形机器人大火就立即研发去卖,而是定位于依托大模型底座的机器人超脑平台,去赋能行业伙伴,不会全都自己做。
大模型进入拼耐心耐力的阶段,GPT-5提升更多在局部
从去年开始追赶GPT-3.5,再到追赶GPT-4,刘聪也越发感觉到中美大模型的差距正在缩小。
“无论是正式的榜单,还是实际任务表现,无论是语言模型、多模态,还是语音、视频、搜索,国内都做得很好,差距已经没有那么大。”他提到,Demo可能跟最后实际应用在不同的任务相差甚远,这也是OpenAI还不敢发布sora的原因。
刘聪认为,目前大模型技术和应用,已经进入需要比拼耐力和耐心的过程。
“GPT-5投入巨大,周期会比原来更长,能力肯定会继续上升,但最后与我们目前的差距不会太大,提升可能体现在局部,但很难有GPT-3.5到4那么大的提升。”刘聪还劝行业不要继续太卷。
对于如何继续实现追赶,甚至超越,刘聪认为,大模型时代,站在企业的角度,要关注两个层面的创新,一方面要推动大模型叠加原有算法基础的创新,同时要结合场景推动系统性创新,带来在技术层面和产品层面的综合性优势。
他还强调,应该关注性价比,即投入和产出的逻辑。首先必须关注业界最新动态,但并非所有事情,如训练万亿模型,都要follow国外。此外,还要有效结合实践,从而做出对未来技术的判断,而应用层则要聚焦以我为主的赛道。
“如何从外部别人投入大量资金的信息中获取帮助,我认为这需要关注,这并非羞耻之处,因为不可能所有人都走一遍。”刘聪说。
随着OpenAI发布GPT-4omini,业内对小模型的关注也越来越高。刘聪认为,大模型和小模型并行发展,这是产业发展的必然趋势。
“有的任务可能使用小模型完成,有的任务需要大模型处理,这取决于任务的泛化性和效率要求。”刘聪认为,不能一概而论是大模型好还是小模型好,小模型的不断进步其实也依赖于大模型的发展。
他提到,讯飞并不急于研发规模更大的模型,希望通过深入理解数据和scaling law,以及自身实践经验、创新性逻辑,将更小的模型做到比更大的模型效果更好。
相关文章
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读
2024-08-030阅读