您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[世界经济论坛]:面向投资者的负责任人工智能行动手册(英) - 发现报告
当前位置:首页/行业研究/报告详情/

面向投资者的负责任人工智能行动手册(英)

面向投资者的负责任人工智能行动手册(英)

在与 CPP投资洞察研究所 面向投资者的负责任AIPlaybook WHITEPAPERJUNE2024 图片:盖蒂图片社 Contents 1RAI的业务案例和利益相关者的角色6 1.1人工智能将驱动风险和利润6 1.2利益相关者在促进负责任的AI8中的作用 2投资者参与RAI9 2.1 2.2与公司的接触12 2.3 2.4参与更广泛的生态系统17 3前面的障碍-以及如何清除它们19 免责声明本文档由 世界经济论坛是对项目,见解领域或互动的贡献 。此处表达的发现,解释和结论是世界经济论坛促进和认可的合作过程的结果,但其结果不一定 代表世界经济论坛的观点,也不是其成员、合作伙伴或其他利益攸关方的整体观点。 ©2024世界经济论坛。保留所有权利。本出版物的任何部分不得以任何形式或任何方式复制或传播,包括影印和记录,或通过任何信息存储和检索系统。 2024年6月面向投资者的负责任AIPlaybook 前言 CathyLi AI、数据和Metaverse负责人;世界经济论坛执行委员会成员 朱迪·韦德 CPP投资公司战略执行和关系管理董事总经理兼主管 当世界经济论坛和CPPIvestmetsIsightsIstitte在2022年中期开始建立这种伙伴关系时,负责任的人工智能(RAI)与投资者的广泛相关性仍然存在疑问。投资者在加速采用RAI方面的作用也不清楚,特别是考虑到对气候变化、公平 、多样性和包容性以及网络安全领域的公司的其他期望。 随着2022年末ChatGPT的推出,人工智能的机遇和风险都变得更加关注。简而言之,采用RAI原则和政策的重要性不再受到质疑。 那么,投资者在推动采用这些原则和政策方面的具体功能是什么? 正如阿马拉定律所阐明的那样,我们通常会高估技术的短期效果,而低估长期效果。这句格言提醒我们,围绕生成AI潜力的早期兴奋虽然是合理的,但应该与对基础问题的长期 、谨慎的方法相平衡。更广泛的商界已经在努力应对数据泄露、隐私丢失、失业、道德挑战、错误信息和虚假信息等风险。 为了保护他们现在和将来的投资组合的稳定性,投资者应该解决这两个问题 AI的直接问题以及更深层次的影响。首先要建立强大的治理框架和明确的原则和实践,将RAI标准集成到所有应用程序中。 如果成功,随着高质量,值得信赖和安全的AI成为常态,“RAI”一词将变得过时。正如我们不区分“桥梁”和“不倒塌的桥梁”一样,限定词“负责任”将成为一个不言而喻的期望。今天,我们正处于这个时代的开端,因为新的法律法规应运而生,以确保所有AI应用都负责任。 这使我们回到了最初的问题,对此有一个明确的答案 :大 投资者可以而且应该行使其资本所提供的影响力,以促进RAI在其投资组合,与投资伙伴的合作以及整个生态系统中的使用。 本白皮书提供了一个关于投资者如何加速采用RAI以帮助推动价值的剧本。虽然它不是所有可用杠杆的全面视图,但我们相信它为与其他利益相关者互动提供了有用的指导、例子和具体步骤。 执行摘要 负责任的人工智能使公司在第四次工业革命中取得成功。 人工智能(AI)在第四次工业革命中发挥着核心作用,这是一个由技术融合以及物理,数字和生物领域之间的“界限模糊”所定义的时期。1人工智能正在迅速进入广泛的企业对企业和企业- 面向消费者的应用程序。对于大型投资者来说,确保所有人工智能应用程序都负责(即诚实、有帮助和无害)不仅是技术升级,而且是战略需要。确保以符合负责任的人工智能(RAI)原则的方式开发和部署它是提高风险调整后回报和定位业务取得成功的重要一步。 RAI通过以下方式降低风险并促进增长: –它解决了非监管业务风险。人工智能的采用在道德(社会)和技术层面带来了意外后果的风险,例如新型网络攻击,不必要的偏见,工作中断和/或流离失所以及数据泄漏或中毒。全面的RAI策略可以帮助识别和减轻这些风险。 –它降低了法律和监管风险。 主动RAI框架可以预测和适应法律和监管变化,保护企业及其投资者免受罚款和声誉损害。 –它还可以保护品牌安全,拓宽收入来源,在竞争性招标过程中提供采购优势,并提高市场定价能力,超越AI系统和与RAI不太一致的业务。 为了利用人工智能的潜力,投资者应该与利益相关者接触,包括: –公司董事会:通过与投资组合公司的董事会接触,直接投资者可以帮助建立(或要求董事负责建立)RAI原则,政策和问责措施。 –投资伙伴:资产所有者可以鼓励投资伙伴在自己的运营中采用人工智能治理,并将其扩展到自己的持股中 。 –更广泛的生态系统:在更长的时期内,投资者的努力可以帮助创建一个生态系统,在这个生态系统中,RAI的好处得到了很好的理解,并且无处不在。 需要进一步发展的几个关键领域是: –AI治理和标准:AI治理的动态框架至关重要,普遍接受的措施也是如此 私营部门行为者、学术界和政府(除其他外)之间的协作努力可以帮助加快这些工具的开发。 –教育和能力建设:为了跟上人工智能的进步,利益相关者必须投资于持续学习。这包括高管教育、投资者对话论坛和公众意识倡议。 –平衡部署速度和安全问题:公司将面临快速开发和部署人工智能以追求短期收益的诱惑,将RAI视为事后而不是事先考虑。如果不适当关注RAI,仓促部署将使长期价值面临风险。 Introduction 负责任的人工智能可以为投资者和其他利益相关者保存和创造价值。 AI是重大风险或机会的所有利益相关者都有动力加速RAI的采用。然而,这往往落后于其他战略AI优先事项。 虽然生成人工智能(AI)的快速发展最近引起了人们的关注和想象力,但AI的力量已经增长了70多年。2人工智能这个术语是在1956年达特茅斯夏季人工智能研究项目中首次提出的,该项目引入了逻辑理论家——一个旨在模仿人类解决问题能力的程序。3 从那以后,人工智能已经融入了各行各业的运营中,从 healthcaretofinance,manufacturingtotransport.Today,thetechnologyfacilitatesdrugdiscovery,enablesfrauddetection,powerespredictivemaintenanceanddrivesvehicles.itsinfluenceisonlyexpectedtogrow.Acttoa2023McKinsey& 人工智能对全球经济的潜在影响每年可能超过25.6万亿美元,即使考虑到预测的挑战(特别是在快速变化的环境中),这也表明了它的潜在规模。4,5 BOX1RAI尺寸和原则 RAI是设计,构建,部署,运行和监控AI系统的实践,以赋予人员和企业权力,并公平地影响客户和社会。6 本文使用RAI最具包容性的定义来涵盖伦理(社会)和 人工智能的技术维度,坚持有效性和可靠性、安全性、公平性、安全性和弹性、问责制和透明度、可解释性和可解释性以及隐私性原则。7 这些原则的适用性取决于上下文。例如,当人工智能用于医疗保健时,可靠性和安全性可能至关重要,而当人工智能用于招聘流程时,公平性可能是关键问题 。挑战在于找到 在给定的背景下,这些原则之间的正确平衡,这通常涉及有意识的权衡。 RAI具有降低风险并为利益相关者增加价值的潜力。人工智能对其构成重大风险或机遇的所有利益相关者(例如开发和采用人工智能的公司,为这些公司提供资金的投资者以及更广泛的生态系统中的参与者)都有动力加快RAI的采用。然而,这通常落后于其他战略AI优先事项。8 本剧本借鉴了AI生态系统中利益相关者的研究和见解。ItaimstohelpinvestorsunderstandandassessmenttheintegrationofRAIintheirportfolioandopportunitiesfor engagement.Investorscanconsideradoptingelementsofthisplaybook 当他们制定自己的人工智能策略时。 1 RAI的业务案例和利益相关者的角色投资者有动力和机会加速RAI。 1.1 人工智能将驱动风险和利润 随着人工智能的采用激增,它将成为驱动因素,根据麦肯锡公司的说法,既有风险(即潜在的伤害)又有价值的组织需要管理九类风险,如这意味着它也将成为一个重要表1中标识的部分尽职调查投资者履行评估潜在投资。最终,如何管理和管理将成为公司董事会的核心监督重点。某些类别的AI风险(说明性,非详尽性) TABLE1 风险类别 子风险说明 伦理和社会 侵犯隐私 人工智能系统可能会通过未经授权使用/披露个人或敏感信息来损害隐私。 偏见和歧视 人工智能可能会延续其训练数据的偏见,导致歧视和不公平的结果。 劳动力和环境 人工智能部署可能会加剧现有的不平等现象,或对就业、工作质量和环境产生负面影响。 技术和操作 输出不准确 人工智能生成的输出可能是错误的或误导性的,破坏决策并造成不利影响。 缺乏可解释性和问责制 人工智能生成的输出可能很难解释,也很难为人工智能造成的不同危害分配责任。 第三方风险 使用外部供应商提供的AI或服务,而没有适当的防护和/或无意的知识产权(IP)泄漏到公共领域可能会导致负面后果。 安全和法律 IP侵权 AI系统在以侵犯版权、专利或其他知识产权的方式使用时会带来道德挑战。 安全威胁 人工智能系统中隐藏的弱点可能会产生可利用的漏洞,构成网络安全风险。 不正确/恶意使用 将AI滥用于非预期目的可能会导致无意的伤害,特别是当用户误解其局限性时。在某些情况下,AI可能会因为恶意意图而被武器化,例如发起网络攻击。 总体而言,人工智能风险可能会导致重大的意外损害,这些损害可能会影响财务绩效,或恶意预期的负面后果,非财务绩效、法律和合规性或对组织及其投资者。问题和声誉完整性。9 现实世界中的企业挫折凸显了AI可能损害企业及其投资者的潜力。例如,Zillow在2021年的ZillowOffers家庭翻转业务中损失了约8.81亿美元,当时其模型没有与冷却的房屋市场同步调整。10《纽约时报》于2023年起诉OpenAI和微软,因为他们在产品对用户提示的回答中使用了受版权保护的作品。11来自AI系统的现实世界危害和近乎危害的列表继续堆积如山 人工智能事件数据库和经济合作与发展组织(OECD)的人工智能事件监视器。 除了直接的组织影响之外,AI危害还会影响人们,并在投资者运营的更广泛的生态系统中产生问题 -根据国家标准与技术研究所的人工智能风险管理框架 (NISTAIRMF)(见图1)。12 Figure1 人工智能带来的三个潜在危害领域 People 个人 对公民自由或人权的损害,金钱损失 群体/社区对人口分组的歧视 Organizations 危害 业务运营 安全漏洞或金钱损失的危害 生态系统 对全球金融体系、供应链或其他相关系统的损害 对自然资源、环境和行星 社会对民主参与或受教育机会 的危害 声誉损害 资料来源:美国国家标准与技术研究院。(2023年)。人工智能风险管理框架。 商业领袖压倒性地同意,与负责任地实施AI相关的潜在长期利益和成本节约 远远超过实施RAI的初始费用。 认识到这些危害,与AI监督有关的主要法规正在制定中,许多法规可能会在2024年生效。13自2016年以来,各国已经通过了至少148项与人工智能相关的法案,其中大多数是近年来通过的。14欧盟人工智能法案(EUAIA),目前代表着最严格的人工智能法规,15旨在创建一种基于风险的方法来管理技术。16欧盟友邦保险的域外范围及其异常高的罚款(即最高 3500万欧元或公司全球年度总营业额的7%)预计也将影响欧盟境外的监管要求(即“布鲁塞尔效应”)。17 虽然RAI主要是为了减轻人工智能的风险和危害,但它也可以为公司带来额外的好处。来自RAI的其他价值来源基于信任-它们包括通过增加客户参与度,扩大收入来源,在竞争性招标过程中提供采购优势以及提高市场定价能力来提高顶部和底部增长的能力。18商业领袖压倒性地同意,潜在的 与