金融服务业领导网络 应对人工智能在金融服务业的迅猛发展 2024年4月 ChatGPT推出后不久,比尔·盖茨(BillGates)表示,人工智能 (AI)“将彻底改变我们的生活。”1人工智能的飞速发展的确令全世界印象深刻,有些人,譬如盖茨先生,宣扬其前景,而另一些人则关注其风险。金融服务业高层领导认为,人工智能既有可能为机构创造新机遇,也有可能带来新风险。一位安永与会高管表示:“虽然人工智能仍处于起步阶段,但在过去10个月内已经取得重要技术突破。这项技术具有改变金融服务业的巨大潜力。”2 2023年9月27日和11月8日至9日,银行业和保险业的与会者与谷歌、微软、安永等组织机构的高管和行业专家分别在纽约和伦敦召开会议,讨论正在进行的金融服务业技术转型、新兴人工智能应用的前景,以及金融服务生态系统的持续演变。本期《视点》总结了针对人工智能讨论的关键主题。 有关与会者名单,请参见附录1(第10页)。 本期《视点》概述了会议和相关讨论中的以下关键主题: 评估人工智能对金融服务业的潜在影响帮助机构发挥人工智能的潜力 搭建人工智能治理和监督框架 评估人工智能对金融服务业的潜在影响 虽然大型银行和保险公司使用人工智能已有多年,但与会者认为,人工智能的重要突破源于ChatGPT和类似生成式人工智能(生成式AI)工具的推出。一位与会者表示:“借助OpenAI工具包,你可以处理数十亿个数据点,设备的处理能力得到了提升,可用的数据也发生了变化。”许多人看 到了这项技术的巨大潜力。一位与会高管称,“我们已身处工业革命之中,效率将得到大幅提升。” 金融机构仍在初步探索如何应用更强大的生成式AI工具。在测试新应用程序时,与会者对人工智能及其对行业的潜在影响提出了一些初步看法。 ►生成式AI和传统AI可针对性解决不同类型的问题。ChatGPT的推出使人工智能进入主流视野,但这种关注也在很大程度上模糊了ChatGPT等生成式AI应用程序与更成熟的人工智能技术之间的区别。一位与会高管表示:“人工智能被炒得沸沸扬扬,人们正在过度使用这个词。”一位与会董事指出,传统AI“是基于历史数据来发现模式”,而生成式AI“是通过将大量信息源整合在一起来生成洞见”。在尝试评估如何最有效地应用人工智能时,金融机构必须了解这种区别。一位与会高管作出解释:“生成式AI在创造性和概率性用例中能发挥最佳作用。大多数确定性问题最适合应用机器学习,而非生成式AI。”虽然生成式AI比传统AI更先进,但其随机性引起了一些行业高层领导的担忧。一位与会者承认:“我们面临的挑战是如何确保可以控制其随机性……目前我们还没有做到这一点。” ►金融机构正在探索生成式AI的潜在用例。大型银行和保险公司仍在尝试使用生成式AI工具,寻找在机构内部安全地应用这些工具的方法。有些机构发现了真正的机遇。一位与会者表示,无论是在授信审贷、财务咨询、文件审阅还是客户服务优化方面,“我们还有很大的空间可以深入探索”。 “我们已身处工业革命之中,效率将得到大幅提升。” ——与会者 一位与会董事指出,人工智能在处理客户投诉时“可节约一半时 间”,因为“其模型非常精密,能够查看大量数据,找出投诉原因,并决定如何处理”。一位保险业高管意识到数据分析的潜力,指出,“保险公司的文件和报告中含有大量专业知识和信息。生成式AI可以帮助我们理解先前难以理解的信息。GPT-4能够出色地找出合同和保单中的措辞差异,并且可以识别多种不同语言。”但并非所有人都对此持积极态度。许多金融机构不愿将这些未经证实的工具用于直接接触客户的业务中,一位与会董事认为:“将其应用到客户身上还需要一定时间。”其他人则认为生成式AI根本没有价值。一位与会高管跟进表示:“我们在工作中并没有使用生成式AI,但一直在使用机器学习……目前绝对没有使用大型语言模型或生成式AI。” ►数年后,生成式AI才有可能实现其宏伟前景。一位与会董事指出,“支持大规模使用生成式AI的架构还没有达到我们的期望。”另一位与会者表示:“目前对于生成式AI的讨论最为激烈,但热度不一定代表技术本身的价值。”尽管已有广泛试验,但大多数金融机构目前还没有将生成式AI部署在生产环境中。摩根士丹利可能除外,该公司在今年早些时候推出了一款生成式AI工具来辅助财务顾问的工作。3许多行业高层领导认为,生成式AI将在未来几年对业务产生巨大影响。一位与会者表示:“我认为各个行业不会在短期内发生颠覆性变化或得到明显提振,但从长远来看,这种情况一定会发生。”一位与会董事表示认同并指出:“我认为我们目前高估了短期影响,低估了长期影响。” 帮助机构发挥人工智能的潜力 人工智能技术的进步使机器能够承担更多工作,也扩展了机器的工作内容,越来越多的董事会开始讨论如何通过应用人工智能创造价值。一位与会高管坚信,“每家企业都必须制定人工智能战略”,而不是继续试验临时应用程序。 “我认为,我们目前高估了短期影响,低估了长期影响。” ——与会董事 战略上重视人工智能 董事会和管理层需要根据机构目标部署人工智能,关注如何利用这项技术应对关键业务挑战。与会者确定了制定人工智能战略的思路以及如何为战略实施提供制度支持。 ►关注人工智能如何应对核心业务挑战。制定企业层面的人工智能战略时,必须全面审视整个业务,以确定人工智能能够在哪些领域创造价值并发挥最大作用,以及如何实现这一点。一位与会高管评论道:“机构需要明确,将人工智能应用到哪个领域能达到四两拨千斤的效果?用于进行授信决策,比如判断向谁授信以及如何管理贷款?用于管理舞弊?还是辅助营销?”一位安永与会行业专家也持类似观点并指出,“在保险业,关键在于承保,即机构能否承保更好的风险或更有效地承保风险。如果机构能以较低成本评估风险,这将影响最终盈亏情况。”一位与会董事指出,机构的目标是“找出业务中最大的收入驱动因素和最大的成本驱动因素,使用人工智能来大幅增加收入和降低成本”。这位董事指出,“我的公司还没做到这一点,这个目标对我来说很有意义。” ►认识到人工智能需要扫清的障碍,并提出潜在用例。一位安永与会高管强调,“董事会确实有必要思考用例的适用性,并在可控环境中进行试验,这种做法能在大规模使用相关应用程序之前确定用例的价值。”对人工智能风险的担忧比比皆是。未来的应用程序需要扫清诸多障碍才能打消这些顾虑。一位与会高管表示:“人工智能的能力必须远超人类,不能只是略高一点。”特别是对于审贷等核心业务职能而言,挑战在于如何证明人工智能比人类优秀,“当你认为人工智能比人类优秀时,你要能解释为什么它更优秀以及它在哪些方面比人类优秀……如果‘优秀’仅仅意味着它能更快或更大规模地完成人类现有工作,那它还不够优秀。” “人工智能的能力必须远超人类,不能只是略高一点。” ——与会者 消除人工智能将取代人工的恐惧,也许能打消顾虑。一位与会者表示:“算法不会取代人类,它将赋予人类一种超能力。”为支持这一观点,一位与会者描述了一项研究,该研究表明,在预测患者结果方面,机器学习算法只比人类医生略胜一筹,但算法和医生合作生成的结果却比医生独立工作生成的结果好上数倍。 帮助机构最大限度地利用人工智能实现价值 加强必要的专业知识、人才和组织能力,以便在核心业务职能中有效、安全地使用人工智能技术,这极具挑战性。与会者讨论了一些应对方法。 ►确保机构能够充分利用其专有数据。释放人工智能潜力的关键在于使用专有数据,一位与会高管表示:“数据的重要性高于以往,而拥有数据的公司将创造价值。”另一位与会者表示认同,“数据现在已经民主化,每个人都可以访问。因此,真正的优势是专有数据,其次是文化。如果每个人都能访问数据,机构的竞争力就取决于这两方面了。”我们必须了解这些区分因素,但许多机构尚未做好利用这些竞争优势的准备。一位与会高管表示:“技术固然重要,但如果没有对专有数据进行分类,那么也不会取得成效,因为数据决定了一切。” ►确定获取有限人工智能专业知识的方法。尽管去年人工智能相关活动激增,但高度专业化的人工智能专业知识仍然供不应求。一位与会高管认为,“在人工智能时代,有800人真正了解目前的形势,而这些人都在初创企业。董事会需要自问,我们有机会接触到‘智囊团’吗?”虽然技术公司将提供现成的应用程序,但开发定制模型以解决核心业务职能或解决特定挑战需要更深层次的专业知识。一位与会高管建议,机构可以通过三种途径获得有限的人工智能,即“内部培养、收购、或建立合作伙伴关系”。这位高管举例说,一家大型银行收购了一家人工智能初创企业,从而可以在审贷和舞弊管理领域使用人工智能应用程序。有鉴于此,或许董事们应该问的问题是“谁可以成为我们的人工智能合作伙伴?” “数据的重要性高于以往,而拥有数据的公司将创造价值。” ——与会高管 ►为整个机构的业务领导提供有关人工智能的培训。仅为机构引进技术人才是不够的,对现有人才进行培训也同样重要。董事会成员、高管和员工需要提出适当的问题,了解与新兴人工智能技术相关的机遇和风险。一位与会者表示:“作为董事会成员,我将永远无法担任人工智能专家。我的工作重点是治理、风险和成本评估。我要让自己了解相关知识并接受一定培训才能完全理解这些事情。” 评估并降低风险 虽然制定战略并普及专业知识可以在金融服务业中更顺利、多样化地应用人工智能,但与会者也指出了一系列需要管理的风险。 ►可解释性问题。由于缺乏可解释性,人们无法完全信任人工智能。一位与会高管承认,无法完全对人工智能模型进行解释,高级模型中的数据输入太多,无法准确确定它们是如何生成给定结果的。这位高管表示:“我们不得不承认,尽管人工智能缺乏可解释性,但的确是更好的选择。”如果希望简化输出验证,可以“减少输入到模型中的值,以便统计数字能够显示输入值如何影响结果”。但这种方法有局限性。一位与会者表示,归根结底,机构需要把重点放在确保其了解数据来源上,“可解释性和安全性是关键。我们知道无法跟踪神经网络,但数据集来源的可解释性很重要。数据来自网络的说法是不可接受的。” ►网络安全隐患。人工智能技术进步加剧了人们对网络安全的担忧。一位与会董事表示:“网络安全时刻令我警醒,生成式AI和量子计算等技术确实正在产生网络风险。”但人工智能在应对网络风险时也不可或缺,一位与会者指出:“不使用人工智能比使用人工智能危害更大。坏人很聪明,他们正在大量使用人工智能。我们无法使用传统工具与之抗衡。” 我们不得不承认,尽管人工智能缺乏可解释性,但的确是更好的选择。” ——与会者 此外,使用第三方供应商会减弱对流程的控制能力,一位与会董事表示:“如果分包开发方将开发工作外包给另一方,那么不知不觉中就会发生危险的事情。在公司内部,我们需要围绕治理提出适当的问题,对于公司外部的环节,我们也需要进行质疑。” ►可能存在的偏见。开发人员如果有偏见,会导致其开发的模型出现偏差,而有偏差的训练数据会生成不公正的结果。机构有责任通过数据预处理和匿名化等方法确保其数据尽可能干净,并使数据汇编人员和人工智能模型开发人员更加多元化。一位与会者表示:“机构需要有底气地说,‘这些是我们的开发人员,他们具有不同背景’,因为【平等就业机会委员会】等监管机构会审查开发过程中是否存在偏见。” ►法律后果。生成式AI正在引发新的监管、诉讼和政策风险。一位与会董事指出:“我们必须小心谨慎,不要不假思索地使用这些工具,因为无意中可能会形成大量对公司不利的潜在诉讼材料。”生成式AI增加了诉讼风险,因其会引发数据所有权和价值以及人工智能工具输出结果的相关问题,这会导致公司、员工、客户和合作伙伴之间的利益关系紧张。商标和版权侵权诉讼已经开始出现,虽然金融机构目前没有面临诉讼,但一位与会者提醒:“当我们建立了正式的监管框架后,诉讼才会正式出现。”另一位与会者补充道:“金融机构要知道,私人诉讼可能由董事担责,因此机构可能需要重新为其董事和高管购买责任保险。” 搭建人工智能治理和监督框架 为了有效、安全地使用人工智能,机构需要的不仅仅