聚热点 juredian

大模型竞争升维,文心千帆开路

模型混战之下,百度智能云颇有越战越勇之势。

6月6日,百度智能云文心模型技术交流会在成都举行。会上聚焦三点:宣布文心模型的迭代进度,开放代码助手Comate邀测,以及解析企业级大模型平台文心千帆的业务布局思路。

不断向外界更新其模型研发的最新动态,也侧面反映出百度对其技术实力与战略思路都充满信心。

正如百度智能云AI平台副总经理施恩在会后的媒体采访中所提到,模型时代的竞争,重点在于模型本身的能力,与长期投入研发所积累的经验。

已经在这两方面保有优势的百度,更重视如何再进一步,为云智一体勾勒出更清晰的发展图景。

进化,作为主题

风口赛道总是入局者众,破局者少,且难免陷入同质化竞争。在此语境下,保持技术先进性可视为竞争的底气。

国内的大模型混战一开场就直接进入焦灼阶段,头部如阿里、华为相继发布自研大模型,腰部也有知乎、360、美团各自探索更适配自家产品业态的模型开发。

同场竞争,模型能力成为决胜关键,先行一步的百度不断强调模型迭代的重要性,意在推动领先优势进一步扩大。

百度Q1财报显示,智能云在本季度首次实现盈利,收入同比增长8%至42亿元。财报提到,计划逐步将文心一言融入旗下业务,以实现长期、可持续的增长。

自3月16日开启内测以来,文心一言就一直在“进化”的路程中。公开资料显示,截止4月24日,一个月内文心一言完成4次迭代,推理性能提升10倍,推理成本降为原来十分之一。截止5月23日,内测两个月之后,文心一言在高频场景中的推理性能已经提升50倍。

值得注意的是,企业应用场景的性能优化需要考虑更多,除了模型本身的效果、性能之外,还要兼顾工具链相关的能力,故而是芯片、框架、模型、应用四个层面全栈的问题。

基于此,面向企业服务的文心千帆大模型平台,在一些高频、核心场景中通过技术优化和模型迭代实现了端到端效能提升。也就是说在相同客户需求场景下,推理服务的整体性能总共提升了50倍,效率提升肉眼可见。

迭代至今,6月6日技术交流会上分享的「文心一言- Turbo」是文心一言的高性能模式。相应的,文心千帆平台也在数据导入/任务标注、Prompt管理器、强化学习机制、大模型插件产线/评估/压缩等能力上持续升级,同时支持更多第三方大模型

只有足量的数据反馈与实际应用经验才能训练出最符合市场需求的大模型,这是彼时百度抢先发布文心一言的初衷。

本次交流会上,百度宣布客户可以在文心千帆大模型平台上申请测试「文心一言-Turbo/ErnieBot- Turbo」 高性能模式,收集反馈/及时更新这一流程基本定型,保持模型迭代的速率,持续提升模型性能将会是百度智能云未来的发展主题。

Comate,看见生产力工具的具体形态

模型层面的发展将带来具体生产范式的改变,Comate就是一款帮助实现生产范式变革的落地产品。

技术交流会上,百度宣布代码助手Comate正式开放邀测。产品是用户体验技术的窗口,模型的迭代或许对用户而言相对抽象,产品的功能表现能让用户更直观的体会到技术力。Comate意在改变程序开发模式,提升企业开发效率、开发质量、降低成本,To B思路清晰。

据百度介绍,Comate的产品功能分为三阶段表现。第一阶段为辅助代码撰写,当前Comate已经可以部分实现通过自然语言的方式写代码。第二阶段将实现在特定领域、场景的自然语言代码生成。第三阶段将实现全领域的自然语言开发,成为开发者的金牌搭档。

与提前布局文心模型一样,百度早在2021年就开始研发代码助手相关工具,并在内部进行了测试。基于文心模型不断升级的语言理解能力和推理能力,当前版本的Comate在需求理解、代码生成与推理速度上都已实现全面升级。

目前Comate支持主流开发语言30余种,尤其在C/C++、Java、Python等常用语言上效果更加。场景覆盖上,Comate主打被集成,支持前后端、软硬件不同场景嵌入、包括程序员最喜爱的IDE。

现场展示中,百度智能云AI平台副总经理施恩演示了利用Comate快速生成“贪吃蛇”小游戏。开发者输入“canvas”(背景),“弹性布局,水平居中,垂直居中”等中文备注,Comate自动识别语义,联系上下文补全代码,并提供多条推荐代码供开发者择优。

从输入到生成的整个环节非常清晰、迅速,现场反响热烈。在简化了手敲代码、改格式等繁琐流程后,工作流更加高效,只需专心思考代码结构和核心逻辑。施恩也谈到,Comate在内测阶段的表现就十分出色,目前已广泛应用到百度内部各类产品开发中。

整体而言,Comate的革命意义体现在两点。一是自身性能层面,推理速度可完全匹配编码速度,单请求可实现300ms左右。基于多行代码推荐能力,可确保推荐代码内容逻辑完整,使用体验流畅。

二是对于中文市场有独特的适应性。Comate的产品定位与微软Copilot类似,都是基于大模型能力,辅助代码撰写,提高开发效率。而Comate的优势在于其中文注释语义触发的能力。

媒体访谈会上施恩提到,国内开发者会偏爱写一些中文注释,通过中文注释推荐代码这方面,Comate可以做到能力补足,使其更适应国内开发者的编码习惯。

这与百度文心模型与中文理解能力的重视是一致的,技术开发逻辑兼顾目标市场特性,方可实现技术力到竞争力的转化。

To B 多面手

虽然各家都在积极推进模型训练与技术研发,但大模型商业落地仍然缺乏一个框架思路。

百度智能云将文心千帆定义为全球首个一站式企业级大模型平台,意在成为一个大模型生产和分发集散地。

百度沈抖曾公开表示,企业选择大模型主要是三个考量指标:一是模型的通用性能,这决定大模型能否满足当前需要,是否有较强的泛化能力;二是迭代速度,这将决定大模型在未来的长久价值;三是大模型开发需要用到的工具链,这将决定企业能不能很容易地把大模型的产品应用到业务和产品中。

文心千帆强调“一站式”服务,意指旗下工具链完善,且具备全局统筹系统,这与百度一直主打的全栈式AI布局相对应。

除了文心一言所代表的大模型服务,文心千帆还提供开发AI应用的整套环境。其工具链从数据处理, 模型训练, 到部署服务, 应用集成,操作简洁且覆盖人工智能研发的全生命周期。此外,文心千帆还支持各类第三方大模型,以便内外协调。

抛开复杂的技术逻辑,企业客户在模型性能上关注两个重点,“安全性”和“需求适配度”。

技术安全是一个永恒议题,尤其是新技术狂飙的当下,普遍认为越是高维的技术,安全性就越难评估。在数据安全和应用可控等方面,企业比以往更加谨慎,安全性得不到保证,应用很难推广落地。

交流会上,百度以搜索引擎为例分析了对于安全问题的考量。为保证搜索与信息流内容符合安全要求,百度在安全机制的设计上已有超过20年的技术积累。同样的思路被移植到大模型的安全设计上,平台自带安全策略可以有效过滤异常输入并给出安全响应。

此外,百度还强调了安全设置的可定制性。企业对于安全的要求并不完全一致,通用场景的安全设置需要根据具体情况进行调整。施恩告诉银杏科技,文心千帆支持企业基于安全语料库,定义外加的安全增强,来满足差异化要求。

延续行业结合这个议题,模型泛用性和灵活性的冲突让不少企业在需求适配度上多有顾虑。一方面担心标准化应用限制自定义空间,另一方面担心重新基于行业数据训练之后,损伤其通用性。

对此,文心一言-Turbo也有相应的解决方案。比如通过SFT的方式,用少量的精标数据,使它在特定的场景效果有进一步提升,同时避免本身模型的通用性受到过多影响。

或者有针对性的调整训练方式,比如用改变少量参数的prompt-turning或者lora,甚至更进一步,基于海量的行业数据去做行业大模型的post-pretraining。

施恩表示,生成式AI大模型本身就是一个概率模型,输出不稳定无法避免,但可以结合具体需求,去平衡使用方法。Bloomberg GPT可以作为一个范例,在灌入了大量金融领域数据的同时,加入了很多通用数据,实际表现非常出色。

如今,云智一体的概念已经成为业界共识。百度从早期唯一的“布道者”,到现在已成为无可争议的“智能化先锋”,前瞻思路最终得到了时代验证。

当下,百度再一次领先于众人的思考体现在抓住了“进化”与“速率”这两个关键词。新技术迭代的速度正在重塑我们的商业社会,技术不会等待企业缓慢的更新认知、调整经营,只有保持相同的步调,才能真正站在通向未来的道路。

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:大模型竞争升维,文心千帆开路  文心  文心词条  开路  开路词条  模型  模型词条  竞争  竞争词条  
热文

 【歌词】普通の事 / 歌手:Ro...

ある一つの生きるという事ガガガSP作詞:コザック前田作曲:コザック前田ドラマ「現代の妖怪」主題歌みんな自分の力を過信して生きているよ人はそんな凄いものではないの...(展开)