010 0110010 10010101000110010010 01011101100110100 1110010001110111001 01011101000010100010 001010100011001000100101100 b=X 人工智能在金融服务业的可靠应用 亚太地区监管概述 引言2 透明性和问责制7 公平性和稳健性9 隐私和数据安全12 采用可信赖人工智能框架13 联系人14 尾注17 人工智能在金融服务业的可靠应用:亚太地区监管概述 引言 金融服务业数字化的发展高度依赖优质的信息质量与分析技术,从而为客户提供高效安全的服务及运营管理。人工智能(AI)的发展改变了信息处理和数据分析方式,并为金融机构实现了诸如业务流程简化、降低成本、提高效率和增强客户参与度等多重益处,金融机构很早便开始应用人工智能服务。根据某技术服务商在2022年对全球金融机构进行的调研显示,有78%的受访者表示他们正在使用至少一种形式的人工智能,1包括机器学习、深度学习和高性能计算(HPC)。在本文中,我们将AI定义为计算机科学的一个分支,旨在探索并模拟人类认知功能,例如如何学习和解决问题。我们 2 将主要从监管角度讨论人工智能,包括亚太地区监管机构制定的AI相关原则及其对该地区金融机构所产生的影响,以及金融机构为应对监管要求和消除客户的担忧所需采取的行动。 图1:AI应用程序对金融服务业产生的影响 降低成本 转变交互方式 利用人工智能解决方案实现重复任务自动化,以此提高效率和质量并降低成本 赋能技术产品与客户进行人性化沟通,而非强迫客户理解机器语言 示例: 利用人工智能解决方案开展反洗钱和客户尽职调查工作,以此减少人工完成此等工作所需的资源 示例: 利用能够捕捉和回应客户情绪的对话机器人有效满足客户需求 加快执行速度 最大限度降低延迟以缩短实现运营和业务成果所需的时间 示例: 利用人工智能驱动的实时欺诈检测及时阻止欺诈活动 人工智能的优势 推动创新 利用人工智能开发新产品、新市场和新商业模式,以此增强竞争优势 示例: 开展数据分析以根据客户需求和偏好推荐新的金融服务产品 降低复杂性 识别日益复杂的数据源模式,并通过更加有效的预测性分析改善决策制定 示例: 利用社交媒体等非传统数据源检测潜在的洗钱或恐怖融资活动 加强信任 确保业务免受欺诈和网络攻击 改善产品和服务质量,提高透明度,以此增强品牌信任度 示例: 在网络攻击和数据泄露发生之前进行识别并做好准备 根据我们与客户的合作经验,亚太地区金融服务业最常应用的AI程序包括欺诈检测、市场营销和客户引导(包括洗钱风险评估)。银行利用人工智能开展信用分析,保险公司利用人工智能处理索赔和改善承保流程,资产管理公司利用人工智能推动交易操作自动化并为客户提供市场洞察。 1 欺诈分析 利用人工智能和机器学习实时检测银行价值链中的交易欺诈和账户盗用问题: •结合大型数据集识别人工可能遗漏的可疑交易 •行为分析 2 市场营销 •利用聊天机器人和虚拟助手等对话式人工智能解决方案处理各种面向客户的活动,包括产品搜索、提供建议和账户注销 •利用人工智能和机器学习模型识别目标客户群体和交叉销售机会 3 信用风险管理 •机器学习和大数据分析支持的信用审查 •实时债券分析,帮助投资者实现及时、有效的信用风险管理 图2:AI在金融服务业的应用实例 虽然许多金融机构已经部署了AI应用,但挑战依然存在。根据我们的观察,金融机构在AI应用方面面临两大问题: 1.如何实现准确和令人满意的结果,满足业务目标; 2.如何将AI应用风险纳入风险管理框架并进行妥善管理。 第一个问题的根源在于基于规则的分析(使用预定公式和算法进行分析)和AI分析(使用训练数据进行自学)之间的根本区别。基于规则的分析的预定性质使其更易被利益相关者理解、实施和修改。相比之下,AI分析可以提供更深刻的洞察和更广泛的覆盖范围,特别是在涉及大量变量的情况下。然而,AI应用十分复杂,难以解释,需要全面了解业务背景和人工智能技术才能取得满足业务需求的准确结果。 第二个问题源于缺乏对AI应用风险的认识以及适当的风险管理框架。例如,人工智能可能引发对金融服务业客户的性别、种族、年龄、身体状况或国籍歧视,从而带来法律和声誉风险。这些风险及其对客户保护的威胁已经成为各司法辖区金融监管机构和立法机构的关注重点。 在亚太地区,新加坡金融管理局(MAS)最早发布相关准则以促进金融服务业人工智能和数据分析方面的公平、道德、负责和透明(FEAT原则),2随后在2021年针对选定银行和保险公司进行了专题审查。3中国香港金融管理局(HKMA)和韩国金融服务委员会(FSC)等其他亚太地区监管机构近年来也发布了指引,协助金融机构了解、评估和缓解行业日益增加的AI应用相关风险。澳大利亚4和中国大陆5等司法管辖区也以政府或跨部门监管机构联合发布的形式发布了人工智能相关道德准则,专门针对金融服务业的法规也正在讨论之中。 图3:亚太地区人工智能准则与欧盟可信赖人工智能道德准则比较 关键要素 欧盟 新加坡 中国香港 韩国 澳大利亚 稳健性 技术稳健性和安全性 准确性 充足的专业知识、可解释性和良好的数据质量 准确性和安全性 可靠性和安全性 公平性 多样性、非歧视性和公平性 合理性偏差 公平性 公平性客户权利 公平性人类价值观 问责制 问责制 内部问责制外部问责制 治理和问责制可审计性、模型验证和第三方监督 职责为第三方承包商提供同等水平的安全保障 问责制 透明性 透明性 透明性 透明性和信息披露提供战略建议 透明性 透明性和可解释性可争议性 隐私和数据安全 隐私和数据管理 数据隐私和保护 隐私保护和安全 人类监督 人类能动性与监督 社会和环境福祉 社会和环境福祉 道德规范 人类、社会和环境福祉 图3展示了亚太地区监管机构发布的人工智能准则与欧盟可信赖人工智能道德准则的对比情况。6其中包含七个共同要素:稳健性、公平性、问责制、透明性、隐私和数据安全、人类监督以及社会和环境福祉。一般而言,不同地区的人工智能准则涵盖相似的关键要素。欧盟可信赖人工智能道德准则明确强调了人类监督以及社会和环境福祉。澳大利亚人工智能伦理框架是亚太地区唯一涵盖人类监督以及社会和环境福祉准则的人工智能框架,而 大多数亚太地区金融监管机构都通过要求金融机构遵守相关法律法规和采用完善的道德标准来间接遵循此等准则。 这些监管准则与德勤的高可信人工智能框架高度匹配,该框架展示了有效的人工智能治理框架涵盖的六个关键要素:公平性、稳健性、透明性、数据隐私、问责制和安全性。8 能 合 治 规 理 人 工 监 智 管 公平、中立 人工智能应用包括内部和外部 审查以在所有参与者之间实现公平应用 稳健、可靠 人工智能系统能够 学习人类和其他系统并生成一致和可靠的输出结果 透明、可解释 所有参与者都能够了解其数据的用途以及人工智能系统做出决策的方式;算法、属性和相关性均可供审查 高可信人工智能TM 保护隐私 政策规定了人工智能系统输出结果的负责人 保护隐私 客户隐私受到尊重,客户数据的使用不会超出预期和规定用途;客户可以选择加入/退出数据共享 安全、稳妥 人工智能系统可以 避免可能造成实质和/或数字伤害的风险(包括网络风险) 与亚太地区人工智能准则对应 隐私和数据安全 与亚太地区人工智能准则对应 透明性和问责制 与亚太地区人工智能准则对应 公平性和稳健性 人 工 智 能 框 架 德 勤 高 可 信 图4:德勤高可信人工智能框架与亚太地区人工智能准则要素的对应关系 透明性和问责制 监管机构共同关注的重点在于人工智能“黑匣子”的性质,以及如何让金融机构对基于AI输出结果所做出的决策负责。如上所述,AI应用程序并非基于预先确定的规则而构建的,而是可以理解为对规则、变量和数据输入进行解读。本报告所定义的AI应用依赖于机器学习中的训练数据和实时数据输入,因此较难向内外部用户解释其所输出的结果。为解决该问题,透明性和可解释性原则要求使用AI应用程序的金融机构要确保其人工智能模型的透明性和信息披露程度要达到能使客户理解的水平。例如,当AI模型根据投保人的生活方式建议保险公司对其增加保费时,保险公司应当能够向投保人解释为何这种生活方式会导致其保费增加。各司法辖区监管机构对透明性和可解释性原则的具体监管预期不同,香港金融管理局要求金融机构建立相关机制,让客户可以对AI应用所做出的决策进行审查。9针对FEAT原则,新加坡金融管理局对披露AI应用技术细节所需的成本和效益进行了研究,并提出应按受影响方的要求向其明确解释人工智能决策过程,但不用披露AI应用的专有技术信息。 澳大利亚人工智能道德框架在可解释性方面增加一个维度,即AI应用的可争议性。可争议性是指人工智能应用机构为受影响方提供一条可以对AI输出结果提起异议的通道。这一要求可以推动客户与AI流程进行交互并对某些影响决策结果的因素提出质疑。10可争议性要素与可解释性原则密切相关。例如,当受影响方对AI决策提出质疑时,应向其提供明确的解释,以确保决策所涉各方均了解决策制定过程。11 透明性原则对客户受到公平对待和机构取得满意的业务成果均具有重要意义。经合组织(OCED)在其2019年发布的《人工智能指导原则》中指出,应向所有与AI系统进行交互的利益相关者进行适当披露。12换言之,利益相关者需要明确了解AI输出结果的过程以做出明智的决策,包括在前端使用AI应用为客户提供产品的人员、基于AI模型判断承保风险的人员、使用AI应用预测违约率和计算准备金的风险管理团队以及确保遵守法律法规的内控团队。 风险分级和重要性评估 透明性和可解释性原则对某些AI应用更为重要,这主要取决于具体用例。例如,与反洗钱或欺诈类AI应用程序相比,在定价方面的应用程序对透明性和可解释性的要求往往更高。定价应用程序的决策过程对大量客户具有直接影响,缺乏透明性会增加公司的法律和声誉风险,而提高反洗钱或欺诈检测应用程序的透明性或将阻碍其发挥作用。因此,某些监管机构在制定AI实施相关指引时对应用程序重要性进行了风险分级。例如,拟议的欧盟《人工智能法案》将AI应用分为三个风险等级:不可接受的风险应用、高风险应用和其他非高风险应用。13不同风险等级的AI应用需要符合不同的要求。新加坡金融管理局的 FEAT原则亦对每项实施指引中AI应用的重要性做出考量。 问责制原则要求金融机构所采用的治理框架对AI应用生命周期的监督、验证和审批责任进行明确界定,从而对透明性原则起到了强化作用。对内,金融机构应确保董事会和高级管理层了解AI相关风险,并指派关键员工监督AI应用程序,并对基于AI应用所作出的决策进行审批。如涉及第三方,金融机构应对第三方机构所开发的AI应用负责。对外,金融机构应提供适当的渠道帮助客户了解AI应用的决策过程。 金融机构应如何遵循透明性和问责制原则 在开发AI应用时,具备符合透明性和问责制原则的有效治理框架与具备适当的建模技术同等重要。金融机构应在AI模型的复杂性和可解释性之间取得平衡,并采用涵盖公司所有业务职能且界定和记录了AI应用相关风险责任的全面治理框架。 使用AI应用的金融机构应考虑以下事项: 1.确保使用AI应用的所有利益相关者(业务中的各个层级)了解AI应用的工作方式,并能对输出结果进行解读。这其中亦包括董事会和高级管理层,他们需要负责确保AI应用生成透明、准确且符合道德准则的结果。 2.在风险管理框架中界定AI应用相关风险责任。董事会和高级管理层应了解AI应用程序及其风险。 3.建立一套标准来区分应向客户披露的信息和受知识产权保护的信息。 4.建立主动沟通和响应机制,在对客户有用和可理解的范围内应客户要求披露AI应用的决策过程。 5.建立就客户提出的质疑对AI应用所做决策进行重新审视的机制。 公平性和稳健性 监管机构的另一关注重点在于保护客户免受潜在歧视和其他不公平待遇。由于向客户所收集的作为训练数据和模型输入的个人数据体