FSI见解 关于第63号政策执行 金融领域的人工智能监管 :最新发展和主要挑战 胡安·卡洛斯·克里桑托、克里斯·本森·莱特里奥、杰米·普雷尼奥和杰弗里·勇 2024年12月 JEL分类:C60,G29,G38,O30 关键词:人工智能,机器学习,公司治理,风险管理,风险建模 FSI洞察由国际清算银行(BIS)金融稳定研究所(FSI)的成员撰写,通常与监管机构和中央银行的工作人员合作完成。这些论文旨在为国际上关于一系列当前监管和监督政策问题及其执行挑战的讨论做出贡献 。它们所表达的观点仅属于作者个人,并不一定反映国际清算银行或巴塞尔委员会的意见。 由FSI主席FernandoRestoy授权。 该出版物可在BIS网站(www.bis.org)上获得。要联系BIS全球媒体和公众 关系团队,请发送电子邮件至media@bis.org。您可以在以下位置注册电子邮件提醒www.bis.org/emailalerts.htm. ©国际清算银行2024.保留所有权利。未经许可,不得复制或翻译,但可引用原文时转载简短摘录。 ISSN2522-249X(在线)ISBN978-92-9259-822-8(在线) Contents 执行摘要…………………………………………………………………………………………………… 第一节——引言………………………………………………… 第二节金融行业AI用例概述 人工智能用例:银行和保险公司。 银行和保险公司的AI用例带来的风险.9 第3节-跨部门AI特定指南概述透明度和可解释性 治理与问责制 可靠性/健全性18公平、道德和安全数据隐私与安全 消费者补救和AI素养/意识 其他政策主题………………………………………………………………………………………… 第4节-对金融部门实施跨部门人工智能指导的实际问题:案例 信贷和保险承保21 治理与问责制22 透明度和可解释性23 第三方人工智能服务的使用、数据安全和运营弹性 新的参与者和新的业务安排。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。第五节结论28 参考资料32 金融领域的人工智能监管:最新发展和主要挑战iii 在金融部门监管人工智能:最近的发展和 主要挑战1 执行摘要 三个AI用例 金融机构多年来一直在使用人工智能(AI)。 值得特别指出的是:客户支持聊天机器人;欺诈检测,包括反洗钱和打击恐怖融资(AML/CFT);以及信贷和保险承保。使用AI进行聊天机器人和欺诈检测并非新鲜事,但近年来该技术有了显著改进。就信贷和保险承保而言,金融机构越来越多地利用AI进行信用评分、抵押品估值,并综合评估来自多个来源的非结构化信息,以更准确地预测保险风险并设定保费。 AI技术的指数增长和可访问性正在加速其使用金融机构是 金融机构,但他们似乎对生成人工智能(generativeAI)持谨慎态度。 大力投资于在其组织内部采用和实施AI。增加的支出主要归因于通用人工智能(GenAI)预期更广泛的采用。金融机构正在试验通用人工智能以提升运营效率和员工生产力。相比之下,在面向客户的服务和高风险活动中使用通用人工智能的案例相对有限。这似乎反映了对通用人工智能采取谨慎态度的多种原因,包括客户接受度和影响方面的担忧;过度依赖第三方模型提供商;以及监管不确定性。 人工智能的广泛使用有可能为金融部门带来变革性的好处人工智能在被金融机构使用时带来的风险很大程度上是但也可能加剧现有风险。 相同的风险通常是金融监管机构关注的,这些风险包括微观审慎风险,如信用风险、保险风险、模型风险 、操作风险、声誉风险;行为或消费者保护风险;以及宏观审慎或金融稳定风险。确实,人工智能的使用可能会加剧某些现有风险,例如模型风险(例如缺乏可解释性使得评估人工智能模型的适当性变得困难)和数据相关风险(例如隐私、安全性和偏见问题)。 为了解决与人工智能相关的风险,国际和国家当局引入了(交叉)本指南概述了围绕共同主题的政策预期。这些 针对人工智能的部门指导。 包括可靠性和稳健性、问责制、透明度、公平性和伦理道德。最近的指导文件更加重视数据隐私/保护、安全和安全性。随着对生成式人工智能的关注增加,可持续性和知识产权也在最新的AI指导中得到了涵盖 。这些主题相互关联,在制定或升级AI指导时可能会存在权衡。尽管如此,指导文件通常允许采用比例适当或基于风险的方法来应用政策期望。 跨部门人工智能特定指南中包含的共同主题是相同的主题政策预期中的共同主题广泛包含 在金融法规中得到强调。 在金融监管涵盖治理、风险管理及消费者保护的领域。这可能是大多数金融监管机构尚未单独发布关于金融机构使用人工智能的专门规定的原因。一些监管机构仅发布了高层原则,重申了常见主题。 1JuanCarlosCrisanto(juan-carlos.crisanto@bis.org)、JermyPrenio(Jermy.Prenio@bis.org)和JefferyYong(jeffery.y@bis.org),国际清算银行;CrisBensonLeuterio(leuteriocs@bsp.gov.ph),菲律宾中央银行。我们非常感谢IñakiAldasoro、GengliCheng、LeonardoGambacorta、UlfLewrick、AristidesAndradeCavalcanteNeto、SibelOezcan、AlainOtaegui、JoePerry、BrendanRowan、VatsalaShreeti、MonikaSpudic、YutaTakanashi和HannevanVoorden。GrahamAustin和LaraSousaFaria提供了有益的研究支持,而AnnaHenzmann提供了宝贵的文字行政支持。 金融领域的人工智能监管:最新发展和主要挑战1 跨行业的指导文件。其他机构和少数全球标准制定机构已就现有金融法规如何适用于人工智能进行了澄清 。截至目前,仅少数机构在本论文涵盖范围内发布了专门针对金融机构使用人工智能的监管规定。 然而,金融机构使用人工智能可能会带来一些独特的挑战和关于特定领域的指导 因此,在特定领域可能需要监管或监督指导。 可以在金融机构核心业务或高风险或对客户有重大潜在影响的应用场景中使用AI时更为重要。金融监管机构可能需要审查现有法规,并在必要时发布澄清、修订甚至新的法规,在这些领域包括: •金融机构的董事会和高级管理层最终治理框架。 对其活动负责,包括AI应用场景。值得一提的是,金融机构在核心业务活动中使用AI将需要在整个AI生命周期中明确分配角色和责任。重要的是,治理框架可能需要明确规定人类干预的角色,以最大限度地减少AI系统带来的有害后果。 •在没有相应专业知识和技能的情况下更广泛地采用人工智能可以AI专业知识和技能。 导致金融机构和金融系统对风险的理解不足和管理不力。因此,金融监管机构可能考虑明确他们对计划在其核心业务活动中扩大人工智能使用的企业机构所应具备的专业知识和技能的期望。 •模型风险增加可能是由于缺乏AI模型的可解释性。模型风险管理。 当模型风险管理指导到位时,监管机构可能会发现与其沟通相关可解释性期望,并提供在选择可解释性技术及其有效性评估时应考虑的关键质量方面的指导是有帮助的。 •金融机构使用人工智能可能会导致各种数据-数据治理和管理。 相关问题。虽然许多与数据治理/管理相关的要素已经纳入现有法规(例如,模型风险、消费者隐私和信息安全方面的规定),金融监管机构可能需要评估这些规定是否足够,或者是否需要进一步加强,或是否有必要发布针对任何AI数据治理和管理相关问题的指导意见。 •为了避免潜在的 新的/非传统的参与者和新的商业模式/安排。 监管空白,针对新/非传统金融机构提供金融服务的相关法规需要进行评估,以确定是否需要调整以适应跨行业的对人工智能使用的期望。类似地,在涉及人工智能的多层安排(例如:Banking-as-a-Service)提供金融服务的情况下,可能也需要进行类似的监管评估,这可能会使金融监管机构难以明确各参与方的责任归属。 •云和AI服务提供商集中于少数监管范围-第三方。 大型全球科技公司在依赖相关法律权限的情况下加强了建立直接监督框架以管理这些服务提供商风险的论点。一些司法辖区已经采取了这一方向,但目前普遍的做法仍然是依靠金融机构来管理这些第三方关系带来的风险。 不同司法管辖区的各种AI定义的存在需要通过以下方式来解决缺乏全球公认的AI定义阻止了更好的 国际合作。 对全球金融领域AI应用场景的理解以及识别可能风险加剧的特定领域。因此,国际公私部门合作可以侧重于建立AI词汇表,并继续努力制定能够适应AI技术快速发展的监管和监督框架。 2和可能的发展和可能的发展金融领域的人工智能监管:最新发展和主要挑战 第1节-介绍 1. 人工智能(AI)的夏天已经到来,这在很大程度上是由人工智能可以追溯到20世纪50年代末,但意义重大2022年的生成式AI(genAI)应用。 计算能力的增长和数据可用性的提升加速了这些发展,这在相对较近的时间里才变得明显。机器学习领域 在20世纪90年代取得了显著进展,而深度学习则在2010年代开始迅速发展。2尽管人工智能已在几十年间吸引了公众的想象力,但在2022年底ChatGPT(一种通用人工智能应用)推出后,人工智能才更加易于获取并受到公众的关注。这重新激发了公众、企业(包括金融机构)以及国家和国际机构对人工智能的兴趣。 2. 目前没有全球公认的金融监管“AI”定义Thisstatesthat 但与经合组织的定义保持一致。一种基于机器的系统,旨在实现明确或隐含的目标,能够从接收到的输 入中推断出如何生成预测、内容、建议或决策等输出,这些输出可以影响物理或虚拟环境。不同的AI系统在部署后在自主性和适应性方面存在差异。.3IAIS(2024a)认为经合组织(OECD)对人工智能系统的定义是一个有用的标准。欧盟《人工智能法案》(AIAct)中的定义与OECD的定义基本一致,但尚未完全采纳该定义。4在欧盟以外的地区,各个司法管辖区也各自拥有稍微不同的AI定义,但这些定义通 常是非法律性的、非规范性的且非强制性的。5这种缺乏共识使得在全球运营的公司难以区分什么是人工智能以及什么是非人工智能,还有不同类型的人工智能。即使在国家层面,故意宽泛的人工智能定义也可能无法清晰地区分人工智能系统和非人工智能系统,或者可能意外地将金融行业多年来一直在使用的“基础”统计模型纳入其中。 3. 金融机构对人工智能的使用先于一代人工智能应用的爆发。6,7自人工智能应用出现以来,它们已被用于 各种目的。例如,银行可以通过使用人工智能来抓住机会提高运营效率,并促进风险管理的改进。8保 险公司一直在使用人工智能来促进承保、风险评估和索赔管理等流程。9人工智能技术的指数级增长及其可访问性正在加速金融机构对AI的应用。自然地,金融监管机构正密切监控AI在金融领域更广泛使用可能带来的审慎、行为规范和金融稳定方面的潜在影响。 4. 许多司法管辖区的国家当局已经引入了跨部门的AI特定有 政策,但金融当局在制定具体法规方面不太积极。 拥有跨部门AI特定政策的司法管辖区并不多(即法规、指南和/或 2见BIS(2024)。 3参见OECD(2024a)。AI系统的核心组成部分是AI模型,用于从输入中进行推断以产生输出(参见Grobelnik等人(2024))。本文在适当的情况下使用术语“AI系统”和“AI模型”。 4例如,参见Gulley和Hilliard(2024),了解不同AI定义的比较。 5见经合组织(2024b)。 6本文主要关注银行和保险公司。 7使用人工智能驱动的工具支持监管工作——所谓的监管科技(suptech)工具——也先于通用人工智能(genAI)。发展过程中,尽管金融监管机构在使