图片系AI生成
6月6日消息,在2025智能经济论坛上,百度集团执行副总裁、百度智能云事业群总裁沈抖宣布,目前已有65%的央企选择与百度智能云开展深度合作,同时百度智能云发布千帆慧金金融大模型,并推出了覆盖能源、交通、汽车、医疗、环境等领域的精选行业场景智能体家族。
百度摸索行业大模型,金融领域做试点
行业大模型是指基于通用大模型技术底座,在落地到特定行业时,针对特定行业需求和应用场景融入大量行业特定的数据和知识,从而在专业领域内表现出更高的准确性和实用性。
一个关键的问题是,行业大模型由谁来构建?
如果是垂直行业头部厂商,领域内其他厂商可能心存顾虑,担心自己的核心数据安全,以及是否会越来越落后于头部厂商;如果是通用大模型厂商,核心数据从哪来,行业知识是否足够,行业厂商能否认可,同样是问题。
百度智能云以自己积累较多的金融领域为试点,探索行业大模型的可行性。沈抖表示,基础模型能力再强,直接放到具体的行业场景中,效果往往不达预期。
拿金融行业来说,金融对大模型的要求非常高,知识面广、时效性强,而且对大模型的准确性和幻觉率要求更严格。通用模型因为缺乏专门金融语料的训练,很难精准回答,容易出现幻觉。
更重要的是,真正有价值的金融数据,大多掌握在机构内部。企业想基于这些数据做精调,面临两个难题:一是效果好的基座模型,往往参数规模都是千亿级,训练一轮成本高、周期长;二是部署大参数模型需要大量算力,成本也很高。
他认为,大模型厂商基于金融专业语料打造“懂业务、够专业”的行业大模型,在同等参数规模下,直接调用,效果远超通用模型。企业还可以基于行业模型,进一步定制专有模型和企业应用,提高效果、降低成本。
因此百度智能云以金融行业为试点,推出千帆金融行业大模型“千帆慧金”。在通用模型的基础上,对研报、财报、专业书籍等海量金融数据做了深度清洗和挖掘,整理出数百亿tokens的高质量金融领域语料,同时做了包括指令对齐、知识增强、训练、推理策略等一系列优化。
在它的基础上,针对行业复杂计算任务,百度智能云系统优化了模型思维链,进一步研发了千帆慧金金融推理增强大模型。每个模型都提供大、小两个版本,8B版本小参数模型,响应快、易部署,适用于意图识别、指标抽取等对速度要求高、任务相对明确的场景;70B大参数版本更适合处理投研辅助、策略分析等复杂推理和多轮任务规划问题。
这两个模型都支持最长32K的上下文输入,可以覆盖金融行业绝大多数场景。在金融领域的多个数据集评测中,以百亿参数规模实现了超过千亿参数通用模型的效果。
智能体,大模型下一个战场
沈抖表示,AI产品体验不断优化,正在从“能用”走向“好用”。越来越多的领先企业坚定攻关大模型,并且重点已经从最初的提示词优化,走向了更系统化的智能体应用构建。
从行业视角观察,2025年被认为是Agent元年,可能并不是真正意义上智能体大爆发的元年,而是更多企业的投入重心转为智能体领域。
这也与行业对大模型的认知加深有关,当面对复杂任务和多样化的应用场景时,单纯依靠提示词已难以充分发挥大模型的潜力,例如一些需要模型自主决策、持续交互以及调用外部工具的场景中,提示词优化难以实现任务,促使行业开始寻求更具自主性和智能性的解决方案。
咨询机构IDC预计,2025年生成式AI在企业的落地仍将优先聚集在办公助手等提升生产力的场景,其次是行业垂直业务场景。金融、能源、零售、制造是最值得关注的传统行业。从另一个角度,智能体将是大模型应用的重要方向,流程自动化,RPA,CRM,数字员工将优先受益于智能体升级。
以能源电力领域为例,百度智能云联合国家电网打造了“营销供电方案智能体”,用户通过国网App提交需求后,智能体可自动识别意图、拆解任务,调用专家模型和多种工具核验信息、填报工单,并生成多套供电方案,支持动态优化与智能推荐。
在交通领域,百度发布了“公路应急指挥智能体”,已在河北京雄高速落地使用,能高效识别如异常停车等突发事件,并快速生成处置预案,显著缩短应急响应时间。该智能体通过大小模型协作,有效弥补了传统小模型在连续状态识别方面的短板,预警准确率提升至95%以上,体现了AI在复杂应急场景中的实战价值。
沈抖表示,百度智能体已经针对行业场景做了深度优化,内置了特定的大、小模型、行业知识、行业标准流程和常用工具,对于同行业的客户具备一定的通用性,百度智能云精选“行业场景智能体家族”已在千帆平台全面上线。
“客户、伙伴只需要对它们做一些轻量定制,就可以把这些能力快速嵌入到自己的业务系统。在我们和很多客户的实践中,‘轻量定制行业智能体’,正在成为大模型产业落地的最快路径。”沈抖说。
此外他提到,也有不少客户希望进一步打造更贴合自身业务的智能体,从轻量定制走向系统化构建,此时需要考虑的三个关键问题是:怎么开发、选什么模型、用什么算力。
在开发层面,百度智能云千帆平台可提供企业级智能体工厂,客户在千帆上课直接使用百度提供的成熟智能体,未来百度智能云计划通过A2A等协议,供客户调用更多来自百度集团内部、上下游合作伙伴的第三方智能体;企业也可开发自己的智能体,通过MCP协议连接企业内外部的服务。
沈抖说,千帆不仅可以跑在公有云上,也支持私有化部署。即使是私有化部署,也不会“锁死”在某个版本。千帆的“私有化”本质是“私有化订阅”吗,每当模型或平台有重大升级,百度将新的更新推送到客户业务系统。
模型层面,4月份百度发布了两款旗舰模型:文心4.5 Turbo和对应的推理模型X1 Turbo。文心 4.5 Turbo的多模态理解效果提升超过30%,在多个测试集上追平甚至部分超越了OpenAI的最新模型GPT 4.1,而价格只是GPT 4.1的6%,DS V3调用价格的40%。
算力层面,沈抖着重介绍了昆仑芯P800,采用了完全由昆仑芯自研的XPU-P架构,显存远超同类芯片,CUDA上能跑的大模型,P800都可以跑,而且迁移成本非常低。
沈抖透露,2月百度点亮了P800的万卡集群,4月点亮了3万卡集群,在这么大的规模上采用昆仑芯P800和海光CPU的全国产方案,属于国内首个。目前国家电网、中国钢研、招商银行,以及北大、同济等高校和互联网企业,已经开始规模部署P800。
在昆仑芯之外,百舸还适配多款主流芯片,向下兼容各种芯片、屏蔽底层差异,向上也适配了各种主流的大模型框架,支持包括DeepSeek在内的国产开源模型的训练和推理。
使用百舸+昆仑芯的方案,单卡吞吐性能相比国内主流芯片方案可以高出90%;大规模高并发模型推理速度可以提升40%以上。以百度和长安汽车共建的长安汽车智算中心为例,依托百舸平台和客户自研的“星环平台”,集群平均算力使用率可以达到90%以上,综合资源利用率提升50%。(本文首发于钛媒体APP,作者 | 张帅,编辑 | 盖虹达)