本白皮书版权属于北京金融信息化研究所有限责任公司,并受法律保护。转载、编摘或利用其他方式使用本白皮书文字或观点的,应注明来源。违反上述声明者,将被追究相关法律责任。 主任: 潘润红 副主任: 黄程林、庄文君 编委会成员(排名不分先后,按姓氏拼音排序): 陈志明、代铁、董佳艺、方科、胡利明、黄炜、李锋、李金龙、李一昂、林冠峰、刘承岩、刘殿兴、刘汉西、刘训艳、陆鑫、潘华、沈剑平、孙莉、汪航、王建军、王玲、王麒、王彦博、吴永飞、肖京、杨波、俞枫、张海燕、张洁、赵海、赵焕芳 编写组成员(排名不分先后,按姓氏拼音排序): 曹伯翰、陈超、陈广浩、陈鸿、陈明、陈志豪、迟倩倩、崔雨萍、刁翔宇、段旭欢、范容、苟志龙、何平、何巧媚、何幸杰、胡国强、胡师阳、胡应明、黄彪、黄韦、金睿、金昕、李大伟、李冬妮、李峰、李娟、李梦霄、刘畅、刘威、罗安扬、罗方华、毛奕凯、彭晋、戚翯、邱晓慧、谈健、唐登龙、王莹、王煜惠、王振、温昱晖、文俊杰、吴青松、徐崚峰、鄢胜利、杨洋、于飞、曾培基、占可非、张彬、张绅、张笑冬、赵辉、周思霁、宗宇 主要执笔人(排名不分先后,按姓氏拼音排序):鲍思佳、卢金环、屈洋、孙曦、王帅强 主编单位: 北京金融信息化研究所 中国农业银行股份有限公司 中国邮政储蓄银行有限责任公司上海银行股份有限公司 腾讯云计算(北京)有限责任公司蚂蚁科技集团股份有限公司 参编单位: 中国工商银行股份有限公司中国银行股份有限公司 交通银行股份有限公司中信银行股份有限公司 中国光大银行股份有限公司平安银行股份有限公司 招商银行股份有限公司 上海浦东发展银行股份有限公司华夏银行股份有限公司 中国民生银行股份有限公司兴业银行股份有限公司 浙商银行股份有限公司北京银行股份有限公司中信证券股份有限公司 国泰君安证券股份有限公司华泰证券股份有限公司 国信证券股份有限公司 中国平安保险股份有限公司中国银联股份有限公司 北京国家金融科技认证中心北京银联金卡科技有限公司海光信息技术股份有限公司北京火山引擎科技有限公司北京瑞莱智慧科技有限公司 当前,大模型正掀起新一轮智能化发展热潮,赋能千行百业。大模型具备优秀的理解、学习、生成和推理能力,其工程化应用包含数据构建、模型算法、模型训练、模型压缩与加速、模型评测、模型运营和安全可信多个环节。金融机构和科技企业正积极探索大模型在金融业的合理应用,已试点应用于智能客服、智能办公、智能研发、智能投研等多个业务场景,进一步推动金融服务的智慧再造,加速AI技术赋能金融业务提质增效。 大模型在金融业应用还处于初期探索和应用试点阶段,仍面临金融应用规范与指南不完善、金融应用场景缺少范式、高质量金融训练数据欠缺、训练算力支撑不充分、算法可信度和安全性不足等诸多挑战。本课题系统梳理了大模型工程化应用的各个技术环节,总结金融机构在大模型技术路线、使用方式和应用场景等方面的实践经验,重点研究金融机构应用大模型时在场景、数据、算力、算法等方面面临的突出问题,并提出相关意见建议,旨在为全行业提供参考和借鉴,促进大模型在金融业快速落地应用。 一、概述1 二、大模型技术与产品发展现状2 (一)工程化应用主要环节与技术2 (二)国内外主要产品情况9 三、大模型在金融业应用与探索实践10 (一)技术路线10 (二)使用方式14 (三)应用场景17 (四)应用趋势29 四、大模型在金融业应用面临的风险与挑战30 (一)金融应用规范与指南亟需完善30 (二)金融应用场景缺少范式31 (三)高质量金融训练数据欠缺32 (四)训练算力支撑普遍不足32 (五)算法可信度和安全性有待提升33 五、多措并举提升大模型金融业应用水平34 (一)加强金融应用的指导与管理34 (二)有序推动金融应用场景落地34 (三)积极构建高质量金融数据集35 (四)产用协同共筑AI算力基础设施35 (五)完善算法优化与风险管控体系36 附录38 案例一:邮储银行基于大模型的智能知识问答38 案例二:某股份制银行基于腾讯云TI-OCR大模型单据处理41 案例三:某股份制银行基于腾讯云金融大模型的智能客服45 案例四:某股份制银行基于中科可控的金融大模型服务平台48 案例五:北京银行AIB金融智能应用平台52 案例六:上海银行基于开源大模型的智能办公助手55 案例七:国信证券辅助运营人员服务客户场景57 案例八:蚂蚁金融大模型应用-支小宝2.059 近年来,以人工智能为代表的新一代信息技术加速应用,特别是基于大模型、大数据、大算力的ChatGPT的发布,标志着人工智能技术取得里程碑式突破,推动科技创新进入新阶段。随着大模型技术的迅猛发展和场景价值的不断涌现,该技术或将重塑多个行业的工作方式和格局。 为稳步推动生成式人工智能在各行各业的有序应用,我国陆续出台一系列政策法规和管理办法,《国务院2023年度立法工作计划》将人工智能法纳入了国家立法计划,《生成式人工智能服务管理暂行办法》提出了促进生成式人工智能技术发展的具体措施,《网络安全标准实践指南——生成式人工智能服务内容标识方法》指导生成式人工智能服务提供者等有关单位做好内容标识工作,《生成式人工智能服务安全基本要求》(征求意见稿)给出了生成式人工智能服务在语料安全、模型安全、安全措施、安全评估等方面的基本要求,《全球人工智能治理倡议》主张建立人工智能风险等级测试评估体系,不断提升人工智能技术的安全性、可靠性、可控性、公平性。 金融业是数字化、智能化的先行者,有望成为大模型技术落地的最佳领域之一。《金融科技发展规划(2022-2025年)》明确提出要抓住全球人工智能发展新机遇,以人为本全面推进智能技术在金融领域深化应用,强化科技伦理治理,着力打造场景感 知、人机协同、跨界融合的智慧金融新业态。金融机构正在积极探索大模型在智能客服、智能办公、智能研发等业务场景的应用,提升智能技术的可获得性,助力金融服务降本增效。 (一)工程化应用主要环节与技术 大模型相较于中小模型,具有更好的表示能力、泛化能力、学习能力和语义表达能力,但其参数量巨大、训练所需数据量和算力资源多、部署运营更为复杂,工程化落地涉及数据构建、模型算法、模型训练、模型压缩与加速、模型评测、模型运营和安全可信等多个复杂环节。 1.数据构建 训练大模型需要海量数据做支撑,高质量数据集的构建和处理对于大模型的性能表现至关重要。训练数据集一般需要涵盖多种类型、多种领域的数据来源,并配以相应的数据预处理过程。根据数据来源不同,大模型的训练数据主要可分为公开数据、商业数据和私有数据。大模型参数量需要跟训练数据集大小相匹配,简单堆砌参数量并不能无限度地提升其性能。通过提升训练数据集质量和内容丰富度、加入一些特定数据集、合理利用外挂知识库资源、合理配置各种类型数据配比等方式,可以有效提升大模型的整体性能,减少模型幻觉,并加快模型的收敛速度。 高质量的数据预处理是提升模型表现和安全可靠性的重要 手段。比如自然语言处理训练数据的预处理手段一般包括:质量 过滤,过滤重复数据、低质量数据、虚假内容、不合规内容等;数据去重,重复数据可能会降低大模型的多样性,导致训练过程不稳定,从而影响模型性能,一般可在句子级、文档级和数据集 级等不同颗粒度上进行数据去重处理;隐私脱敏,对于包含个人敏感信息的数据进行脱敏处理,如身份证号码、电话号码等,包括但不限于匿名化、泛化等手段;数据去毒,消除带有种族/性别偏见、社会文化偏见、宗教文化偏见的数据,以及低俗、粗鄙和带有攻击性的数据等;数据降维,其目标是在保留基本信息的同时减少数据集的复杂性,从而提高训练效率,一般可通过减少特征维度或样本大小来实现;数据增强,通过人工创建对现有数据的变更来增加数据量和多样性,特别是在数据量有限的情况下, 通过数据增强可以提高模型的准确性、泛化能力和鲁棒性,也可以应对数据类别不平衡等问题。完成数据预处理后,可以将数据通过分词等手段,转换为适用于大模型训练的表达形式,形成高质量语料。此外,在模型推理过程中,也可以通过整合外部的领域知识库或专业数据库,为模型提供额外的背景知识和参考数据,尤其是快速且不断地更新信息,从而提高模型的准确性和鲁棒性。 2.模型算法 大模型技术的突破源于自然语言处理领域的Transformer架构。该架构使得模型参数量突破了1个亿,随后一系列大模型被推出。基于Transformer架构的模型可以分为编码器、解码器、 编码到解码三大类,其主要特点和代表性模型如表1所示。 表1大模型结构主要分类及特点 当前,基于Transformer解码器结构训练的大模型成为了自然语言处理领域的主流方案。在此影响下,语音、视觉以及跨模态等领域的大模型也尝试应用类似模型架构,并取得了较好效果,比如语音领域的OpenAIwhisper和DaLL-E等,图像生成领域的StableDiffusion开源模型等。 3.模型训练 大模型训练涉及预训练和微调等重要环节。预训练的主要目的是利用大量无标签的数据,训练出一个有能力捕捉到数据中隐 藏的底层结构和模式的模型,这一阶段的模型通常被称为“基座模型”。由于大模型的参数量和训练数据量的急剧增长,单个计算设备的算力已经不足以支撑模型训练。当前,一般通过分布式训练来解决预训练过程中的海量计算任务和高内存资源等问题,但也面临着计算墙、内存墙和通信墙等挑战。目前解决分布式训练的关键技术是并行化,将任务分割并分配到多个处理器或设备 上,以便同时完成计算,更有效地利用计算资源,减少训练所需时间。微调的主要目的是在预训练模型的基础上,通过有监督微调、强化学习等方式,进一步提升模型在下游任务中的表现,使 得模型输出更符合人类期望。有监督微调,又称为指令微调,通过使用有标注的特定任务数据对预训练模型进行微调,从而使得模型具备遵循指令的能力。早期的微调算法会涉及到预训练模型的全量参数更新,计算成本较高,目前已提出了多种参数高效微调任务的方法以节约计算成本,如LoRA、Adapter、P-tuning等。强化学习技术是基于人类反馈,进一步调整模型的行为。其数据集一般由经过人工评估的反馈数据构建,这些数据反映了模型的输出与期望输出之间的差异,基于Q-learning、深度Q网络或近端策略优化等强化学习算法进行训练。 大模型训练场景对中高端AI芯片需求旺盛,需要统筹规划CPU芯片、GPU芯片、服务器、网络、存储、冷却、算力运营服务、AI应用服务平台等多个方面。在金融机构通用服务器集群基础上,构建基于异构芯片体系的AI算力资源池,实现对金融机构现有AI算力资源的统一调度,保障大模型训练的算力支撑。 4.模型压缩与加速 模型压缩是指通过各种技术手段来减小机器学习模型的大小、复杂度和计算量,加速推理过程并减少内存使用,以便在资 源受限的设备上部署和运行,如移动设备、边缘设备等。目前,模型压缩技术主要包括知识蒸馏、剪枝和量化等解决方案。知识 蒸馏是一种训练小型模型以模仿大型模型行为的方法,保留了大 型模型主要功能的同时降低了计算和存储需求,但通常需要一个预先训练好的大型模型,且性能上会有一定损失。剪枝是一种去除模型中不重要或冗余参数的方法,一般可以在不显著影响模型 性能的情况下减小模型的大小和计算需求,但需要确定哪些参数是不重要或冗余的,以选择合适的剪枝策略。量化是一种减少模型参数和运算中数字精度以降低模型的存储需求和计算复杂度 的技术,可适用于多种模型和任务,并显著减少存储和计算需求,但可能会造成一定程度的精度损失,且有时需要特定的硬件支持。 模型加速主要研究加速模型的训练和推理过程,伴随模型参 数增长,正逐渐成为研究热点。训练环节,针对计算量、通信、内存可以进行一系列优化,例如使用梯度累积或梯度压缩可以优化通信策略、使用半精度浮点数可以节省内存等。推理环节,优化手段包括使用GPU、TPU和ASIC等芯片的专用硬件加速器加速 计算过程、使用并行化和分布式推理提高推理吞吐量并减少推理时间、使用缓存和预取策略降低内存访问延迟、在边缘设备上进行推理减少与服务器端的通信延迟、结合模型压