您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[埃森哲]:从 AI 合规到竞争优势 - 发现报告
当前位置:首页/行业研究/报告详情/

从 AI 合规到竞争优势

信息技术2023-12-15-埃森哲艳***
从 AI 合规到竞争优势

从AI合规到竞争优势 由设计负责 关于研究:我们sur0位C-suite高管跨越17个地理区域and了解他们的行业 对AI的态度法规他们愿意接受它。以下概述了我们的发现,并结合了关于如何为AI的监管做好最佳准备的经验学习。 由设计负责 第1部分:它是值得的按设计负责 责任的奖励 有明显的加速人工智能转型的动机,但 人工智能面临监管关注意味着组织需要谨慎行事 。通过设计负责可以帮助他们扩展人工智能,同时更好地降低风险,满足监管要求,并为自己和利益相关者创造可持续价值。 在最近的一份报告《AI成熟度的艺术》中,埃森哲确定了一小群(12%)的高绩效组织正在使用AI创造差异化的增长和成果[i]。这些“AI成就者”已经比他们的同行产生了50%的收入增长,他们在客户体验(CX)和环境方面的表现优于其他群体。 社会与治理(ESG)指标[ii]。 为了了解这些成就者在做什么是正确的,我们建立了一个人工智能模型来检查他们的行为并确定他们的关键绩效指标。在对业务成果产生组合影响的其他成功因素中,这些成就者在设计上负责任。平均而言,成就者比其他人高53%AI实践从一开始就在规模上[iii]。我们还了解到 “受人工智能影响”的公司收入在2018年至2021年之间增加了一倍以上,到2024年可能会增加两倍[iv]。 如果负责任的人工智能被视为事后的想法,不仅这些好处不太可能,组织最终可能会对工人 、消费者和社会造成真正的伤害(并侵蚀他们的信任)。 按设计负责 通过设计负责意味着组织从一开始就了解将负责任的AI纳入其 数据和AI战略的重要性。他们在所有模型的整个生命周期中都采用负责任的数据和AI方法,使组织能够建立信任并充满信心地扩展AI。 变得负责设计4 调节的作用 如今,只有35%的消费者信任组织如何实施AI[v]。监管是帮助解决信任缺陷的一种方法。 政府和监管机构正在考虑如何监督和制定标准 人工智能的开发和使用。英国、巴西和中国等国家已经在采取行动,要么发展与人工智能相关的现有要求(例如,在GDPR等法规中) ,要么制定新的监管政策。欧盟拟议的人工智能法案是最著名的例子:一次 批准后,任何想要在欧盟内使用,构建或销售AI 产品和服务的人都必须考虑其组织的立法要求。 随着公司为越来越多的任务部署人工智能,遵守法律、法规和道德规范对于建立健全的数据和人工智能基础至关重要。我们调查了17个地区和20个行业的850名高管,以了解他们对人工智能监管的态度,并评估他们遵守人工智能监管的准备情况。 变得负责设计5 AI监管的好处 受访者认为,监管将增强人们对人工智能的信任和信心,这将对他们的业 务产生有益的影响。 43% 认为它会改善 他们工业化和扩展 AI的能力 36% 相信它会创造 竞争优势/差异化机会 41% 相信它可以帮助吸引/留住人才 大多数组织认为监管会在一定程度上影响他们 我们的研究表明,监管意识(特别是来自欧盟)普遍普遍,组织消息灵通。几乎所有(97%)的受访者都认为监管会在一定程度上影响他们,95%的受访者认为至少部分业务会受到欧盟法规的具体影响。 他们将合规性视为竞争优势的意外来源 有趣的是,许多组织将人工智能监管视为一种恩惠,而不是成功的障碍。能够提供高质量、值得信赖的人工智能系统,并为监管做好准备,这将在短期内给先行者带来重大优势,使他们能够吸引新客户,留住现有客户并建立投资者信心。更重要的是,一个组织展示自己的道德AI实践的能力。 可以吸引人才和潜在客户。这对Zen来说尤其重要,他们中的许多人都非常重视雇主的价值观和对ESG绩效的承诺。 组织正在优先考虑合规性,并希望投资 在我们接受调查的公司中,77%的公司表示,未来对人工智能的监管是当前全公司的优先事项。再加上ResponsibleAI可以推动业务绩效的观点,超过80%的受访者计划增加对ResponsibleAI的投资也就不足为奇了。 变得负责设计6 负责任的AI准备 大多数组织尚未将这些有利的态度和意图付诸行动。 让我们以拟议的欧盟AI法案为例。这项立法可能会在2023年底之前通过,在规则生效之前有两年的宽限期。但是时间表比看起来要宽松得多。我们与大型组织合作开展主要企业范围合规计划的经验(例如ProcedreGDPR,负责任的AI)表明,它很容易需要长达两年的时间。建立所有必要的控制,他们将需要合规。 我们仔细研究了调查数据,以更好地了解组织如何准备好迎接即将到来的 这将影响他们的业务。 评估受访者的水平准备就绪,我们研究了构成负责任的AI方法的关键因素,例如: •CEO/C-Suite对负责任的AI的参与和支持- 我们的AI成熟度研究验证为 AI成熟组织的关键成功因素 •合规投资 •治理和风险管理框架的运作 •风险缓解技术和技巧 •负责任的AI文化,人才管理和培训/再培训 变得负责设计7 由设计负责 令人震惊的是,我们发现只有6%的组织已经建立了他们负责任的人工智能基础,并将他们的原则付诸实践。这个小组准备好适应近期和持续的监管变化。按照设计负责,这一类别的组织可以超越合规,专注于竞争优势。 大多数受访者(69%)有一些方面,但还没有实施一个强大的负责任的人工智能基础。其中一些组织已经开发 一个治理框架(62.3%),一些人已经定义了一个风险管理框架(40.7%),另一些人已经开始实施风险缓解工具和技术(44.1%)。这个群体理解负责任的人工智能的价值,但他们尚未将其嵌入整个组织。 最后,25%的受访者尚未建立任何有意义的负责任的AI能力。该小组将有最多的工作要做,以使他们的组织为监管变革做好准备。 超过80%的受访者表示,到2024年,他们将投入10%或更多的人工智能总预算来满足监管要求,45%的受访者计划花费至少20%。 8 第2部分:路障 准备 GDPR的经验教训 “打勾”与主动规划的风险: 1.组织不断变化;新的数据、应用程序、角色变化等意味着合 规能力必须足够强大,以适应内部变化。当这些内部变化不可避免地发生时,只希望采取复选框方法的公司被撤销了。 2.随着人工智能的不断发展,风险状况也在不断发展。新技术和用例出现,而不同的国家和地区制定了不同的合规要求。为了保持领先于法规,组织必须不断监控潜在风险,而不是具体要求。那些只关注 GDPR合规性发现他们的战略脱节且不可持续。虽然这对所有受 监管的公司都是如此,但对于那些可能面临全球一系列不同法规的公司来说尤其重要。 准备的路障 虽然大多数公司已经开始了他们负责任的人工智能之旅,但大多数公司(94%)正在努力在 负责任的AI的所有关键要素。问题变成:为什么 ?我们确定了几个主要障碍。 最大的障碍在于负责任地扩展人工智能的复杂性 ——这项工作涉及多个利益相关者,并跨越整个企业和生态系统。 我们的调查显示,近70%的受访者没有完全运作和整合 负责任的AI治理模型:随着新要求的出现,它们必须融入产品开发流程,并与隐私、数据安全和内容等其他监管领域联系起来。 此外,组织可能不确定该怎么做,而他们等待法规被定义。围绕推出过程/时间的不确定性(35%)和潜在 不同地区的标准不一致 62% 已经开发治理框架 39% 47% 定义了一个风险管理框架 (34%)是与未来人工智能监管相关的最大担忧。 随着公司采用“观望”方法,这种缺乏明确性可能会导致战略瘫痪。正如GDPR所经历的那样 ,反应型公司别无选择,只能以合规为重点,优先考虑 具体要求而不是 潜在的风险,这可能导致 已经开始实施风险缓解工具和技术。 未来的问题...和价值留在桌子上。 变得负责设计10 考虑这个: 1.负责任的AI是跨功能的,但通常生活在筒仓中。 商业圆桌会议是由美国最大公司的首席执行官组成的协会,已经为企业和政策制定者发布了关于负责任使用人工智能的指南。但在实践中 ,负责任的人工智能往往没有得到 组织。大多数受访者(56%)表示,AI合规性的责任完全由首席数据官(CDO)或同等人员(CDAO、CIO、CTO)承担。更重要的是,尽管需要跨职能协作,但只有4%的组织表示他们有一个跨职能团队。负责任的AI与整个组织相关,从数据和AI团队,到法律和风险,再到营销,人力资源和其他公司职能,更不用说产品所有者了。获得来自整个高管的支持和支持将为组织的其他部门确定优先事项。 变得负责设计11 2.风险管理框架是所有人工智能的要求 ,但它们并不是一刀切的。 只有大约一半(47%)的受访组织开发了风险管理框架,尽管这是开发AI的先决条件 负责任。拟议的欧盟人工智能法案定义了不同类别的人工智能风险,主要由使用 因此,一旦通过,风险管理框架可能会成为遵守法规的必要条件。 即使对于那些创建了框架的人来说,挑战也在于以可持续的方式在整个组织中应用它。AI是否负责 无法在单个时间点进行判断。必须不断检查。然而,我们的调查发现,70%的组织尚未实施减轻AI风险所需的持续监控和控制。 12 3.人工智能生态系统中有力量,但你和你最弱的伴侣一样强大 大多数(如果不是全部)大型组织都在跨越许多合作伙伴的生态系统中运作。因此,监管将要求公司考虑其整个AI价值链(重点是高风险系统),而不仅仅是他们专有的元素。事实上,39%的受访者认为,与合作伙伴的合作是监管合 规面临的最大内部挑战之一,只有12%的受访者将负责任的人工智能能力要求纳入与第三方提供商的供应商协议中。因此,采购第三方解决方案将。 requireaprovidertoshowrobustevidencethattheirsolutioniscompliancewithregulations.ThistaskismadeevenmorecomplexbytheremissionofanyprovidertoreveentheIPunderpinning 一个解决方案。 了解协作中各自的角色和责任 生态系统和平台将变得越来越重要-并且导航复杂。这一点更加重要,因为组织的趋势AI的用户和提供商都将在未来三年内增加。 77% 的公司既是用户又是提 供商 AI解决方案,创建必须跨多个合作伙伴/价值链 协调的额外要求 变得负责设计13 3.文化是关键,但人才是稀缺的。 重要的是,每个员工都对组织采取的稳健方法有足够的理解和信心,以确保 负责任地使用人工智能。调查结果表明,大多数组织都有 在实现这一目标之前,还有一段路要走。例如,受访者报告说,他们缺乏熟悉人工智能监管细节的人才,27%的人将这作为他们最关心的三大问题之一。此外,超过一半(55.4%)的人还没有在整个组织中嵌入负责任的人工智能的特定角色。数据科学人才 已经稀缺的组织必须考虑如何吸引或发展负责任的AI角色所需的专业技能-记住负责AI系统的团队应该 当涉及到人工智能时,文化对于围绕负责任的原则和实践团结整个组织至关重要。 专业认证 一个可能的发展可能是为数据科学家创建专业认证。到目前为止,数据科学资格还没有公认的外部标准或特许地位。创建这些标准将更容易确定哪些数据科学家有资格在负责任的人工智能领域工作。 14 由设计负责 4.衡量至关重要,但成功是由非传统的KPI 来定义的。 最后,人工智能的成功不能仅仅用传统的KPI来衡量,比如创收或效率提升,但组织往往会依赖于这些传统的基准和KPI。在30%的公司中 ,负责任的AI没有活跃的KPI。如果没有既定的技术方法来衡量和减轻风险,组织就无法确信系统是公平的。就我们之前的观点而言,需要专业知识来定义和衡量数据、模型和结果的负责任使用和算法影响,例如算法公平性。 虽然没有固定的方法来进行,但重要的是采取积极主动的方法来建立负责任的AI准备,以克服或避免上述障碍。 15 第3部分:变得负责任按设计 由设计负责 为了在设计上负责,我们认为组织需要从被动的合规战略转向成熟的负责任的人工智能功能的主动发展 。随着支持整个企业负责任的人工智能使用的