您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[IBM]:超越合规性推进AI伦理 - 发现报告
当前位置:首页/行业研究/报告详情/

超越合规性推进AI伦理

金融2020-04-03IBM北***
超越合规性推进AI伦理

研究见解超越合规性推进AI伦理从原则到实践 IBM如何提供帮助客户可以利用IBM丰富的行业专业知识,技术解决方案和功能来充分发挥人工智能(AI)和分析技术的全部潜力,并开始将情报注入几乎每个业务决策和流程中。IBM的AI&Analytics Services组织正在帮助企业为AI准备好数据,并最终实现更强大的数据驱动决策。获得更深入的见解,以改善客户服务;并通过专注于安全性,风险和合规性的人工智能技术来建立信任和信心。有关IBM的更多信息人工智能解决方案,请访问ibm.com/services/ai。有关IBM人工智能平台的更多信息,请访问ibm.com/watson。 布莱恩·戈林(Brian Goehring),弗朗西斯卡·罗西(Francesca Rossi)和戴夫·扎哈古鲁克(Dave Zaharchuk)讨论要点构想AI道德关于AI道德挑战的不同看法高管和消费者对AI风险的关注程度各不相同:企业专注于组织的影响,而消费者则关注社会主题,例如共同繁荣,包容性以及AI对工作的影响。首席执行官在AI伦理上脱节董事会成员将AI道德视为重要问题和公司监督责任的领域,CEO认为这些问题不如其C级团队或董事会成员那么重要。解决道德困境大多数董事会成员认为自己没有准备好应对AI道德问题。各个组织都在制定准则和实施计划,但是没有组织可以单独解决此问题。问题的复杂性和新颖性要求合作行动的伙伴关系和联盟。如果您得知客户的信用申请被拒绝而没有可辩解的理由,您会宽恕该决定吗?如果无法获得最新医学文献的医生建议所爱的人进行侵入性手术,您会批准手术吗?当然不会。判断的关键领域,尤其是直接影响他人生活和福祉的决策,受适当行动标准的约束。人类遵循公共管理的道德规范,并受到法律,法规,社会压力和公众话语的约束。尽管道德可能随时间和文化的不同而变化,但自人类早期文明以来,道德操守在指导决策中发挥了关键作用。例如,希波克拉底誓言起源于古希腊,并且自中世纪以来就一直是医疗实践的支柱-从“先不伤害”到患者保密。1在商业中,道德主题也不是新鲜事物。但是,可以说,它从来没有像现在这样紧要。道德是现代商业文化中广为人知但经常被忽视的元素之一。在寻求财务成功的过程中,有时会走捷径,抢占优势,为了长期的利益而牺牲长期优先事项甚至价值。作为响应,已经在公司内部创建了合规性工具。组织已经努力创建“护栏”和其他加强机制来应对失误,无论是无意还是故意。但是现有的系统无法应对未来的挑战。在过去的几年中,业务环境一直在迅速变化,人工智能(AI)促进了越来越多的决策。公司现在使用AI来帮助进行人才筛选,保险理赔处理,客户服务以及许多其他重要工作流程。但是围绕AI的道德参数仍然含糊不清,无形的,在某些情况下,作为阻碍发展的因素被抛在了一边-不考虑可能的短期和长期影响。1 81%的消费者说他们变得更加关注公司如何使用其数据的前一年,现在有75%的人不太可能信任他们的组织个人信息。2五分之四的董事说AI道德问题至少在一定程度上是董事会级别的责任,但几乎没有一半的CEO认为他们是CEO级的责任。超过一半的高管指出首席技术官和首席信息官主要负责人工智能伦理高管们期待科技公司将极大地影响AI道德,其次是政府和客户-其他公司排在最后。2人工智能伦理:公司格局同时,人工智能的采用预计将继续快速增长。事实上,根据先前IBM商业价值研究院对全球高管人员的调查结果,未来三年在AI上的平均支出可能会增加一倍以上。3 随着AI使用的增加,从数据责任到包容性和算法问责制等领域,风险也会越来越大。为了更深入地了解高管对与AI在企业中不断增长的角色相关的后果和道德考量的观点,我们寻求了来自各行各业的1,250位高管的意见地理。 (有关研究的更多信息,请请参阅“洞察力:研究研究和方法论”侧栏。)我们的研究表明,人工智能在组织战略中的重要性在未来三年内可能会增加一倍,从而强调了解决道德问题的必要性。尽管几乎所有接受调查的高管都说他们自己的组织是道德的,但人们普遍担心,如果不恰当地释放AI的应用可能会产生严重的影响。不可避免的结论:在整个业务领域中有关AI系统的对话中,必须提高道德考量。人与机器之间的认知理解水平本质上低于人与其他人之间的认知理解水平,但后者的领域已经围绕伦理学构建了数百年。由于AI依赖于巨大的计算能力,它可以从挑战人类认知的大量数据中获得洞察力。仅依靠传统的道德方法进行决策可能不足以解决由AI驱动的决策。确实,我们接受调查的高管中有一半以上告诉我们,人工智能实际上可以改善其公司的道德决策。 (不到10%的人担心负面影响。)大多数人还说,可以利用AI作为社会公益的力量,而不仅仅是为了公益事业。当问到一位首席人力资源官在思考AI时想到什么时,答案是“技术进步以改善人类生活”,其他人也对此表示赞同。 尽管仇外心理,厌食症和其他偏见-即使我们的研究受访者认为,AI可以公平,透明甚至移情地设计。检测和纠正AI的偏见-可以更有效地与人类联系的教学技术-可以提高组织的协作能力并取得更大的成果。AI提供了机会来诊断意外结果的根本原因,实质上是调试偏差。这可以使人们更好地了解过去的缺点,并改善实现社会目标的方法。但是首先,必须建立正确的道德框架。最重要的是:解决AI伦理的因素在道德上利用AI的力量最重要的是什么?谁负责在公司内部和外部帮助确保将道德规范整合到AI中?社会如何才能最好地善用AI?这些是我们要在研究中回答的三个总体问题,并将在本报告中解决。迄今为止,有关AI伦理的对话主要发生在媒体,技术公司,咨询公司和学术界(以及一些政府机构)之间。使用AI的公司所提供的见解很少。这项研究的目的是给这些被忽视的选区–从银行到医疗保健提供者再到零售商,再到其他–同样的声音。我们确认,毫无疑问,人工智能已成为一项核心技术,并且受到广泛讨论。几乎三分之二的受访高管也认为人工智能伦理至少在一定程度上成为重要的商业主题。这甚至包括那些目前不考虑采用AI的组织中的组织。在其组织目前正在与AI合作的高管中,这一比例接近90。几乎所有人都表示,至少在一定程度上,他们正式将道德作为其AI计划的一部分。无意识的-可能被人类的基本原理所掩盖,见解:研究方法和方法通过与牛津经济研究院的合作,IBM商业价值研究院在2018年末对1,250名全球高管进行了调查。代表6个大洲20个行业和26个国家/地区的调查参与者包括董事会成员,首席执行官,首席信息官。 (CIO),首席技术官(CTO),首席数据官(CDO),首席人力资源官(CHRO),首席风险官(CRO),总顾问和政府政策官员。3 根据接受调查的高管中超过一半的人,人工智能实际上可以改善公司的道德决策。作为我们研究的一部分,我们还要求高管们评估发展道德AI的一系列因素的相对重要性,包括价值一致性,算法责任感和包容性。要求受访者以成对的方式,权衡这些因素的重要性。我们发现,道德风险的三个主要领域主导着组织及其管理人员的注意力:数据责任,价值一致性和算法责任制(见图1)。下图中的值表示各个因素之间相互比较的重要性之比。图1高管将数据责任列为发展道德AI的最重要因素对AI伦理的相对重要性.29数据责任.17价值对齐.17算法责任制.14包容性.12对工作的影响.12共同繁荣资料来源:2018年IBM商业价值研究院全球AI伦理研究。问:考虑到AI伦理,以下哪个相对更重要? N = 1,250。数据责任首要的风险领域是数据责任,包括数据所有权,存储,使用和共享。在AI伦理中,数据责任的重要性是其他任何因素的两倍。毫无疑问,这是由大量的数据泄露事件和滥用新闻事件所影响的。客户的影响是巨大的:根据IBM商业价值研究院在相似的时间范围内进行的全球消费者调查,在过去的一年中,有81%的消费者对公司如何使用他们的数据越来越关注。75%的人说,他们越来越不信任组织的个人信息。4 除了这种消费者关注的问题,组织还面临着越来越大的监管压力,正如目前在欧盟(EU)中生效的《全球数据保护条例》(GDPR)以及几轮保护法所证明的那样。美国国会关于数据隐私的证词。5与数据相关的风险已在AI领域中受到影响:接受调查的高管中有40%的高管认为,对数据信任,隐私和透明性的各种担忧是采用AI的障碍。如果不解决信任问题,就不可能实现AI的承诺,因为AI的功能几乎完全取决于基础数据。只有一半(54%)的高管表示,他们对业务数据有高度的信心。增强信心对于成功采用AI至关重要。价值调整和算法责任制高管们引用的下两个最高等级的AI道德风险几乎并列在17%,可能是因为它们是相关的。价值调整是指AI算法能够按预期运行,生成反映适当值,约束和程序的决策的能力。算法问责制是指确定谁负责AI算法的输出-这还与解释如何4 在无害的情况下和辩论出现时都做出了决定。三分之二的具有技术角色的C级高管认为算法问责制是重要的优先事项。这反映了他们的期望,即消费者对透明度和可解释性的需求将继续增长。要了解这两个相关的风险,请考虑以下几个示例,这些示例说明了启用AI的系统所采取的行动或决策如何产生不完美的结果或意想不到的后果。在一项评估AI在识别癌性病变中的准确性的研究中,研究人员指出,AI系统倾向于用尺子或其他可见的测量指标来标记病变的照片。如果皮肤科医生在初步评估后怀疑恶性肿瘤,通常会使用此类工具。 AI代理“获悉”图片中带有这些工具的病变更可能是癌–但不知道为什么。6在评估AI从射线照片中预测肺炎的能力时,也出现了类似的问题:AI代理人将较高的患病概率与允许病情较重的专科医院位置联系起来;它锚定在相关性,而无需确定甚至根本不寻找根本原因。7另一个在现实世界中广为人知的例子:亚马逊搁置了一个由AI驱动的招聘引擎,该引擎似乎倾向于选择女性。由于过去十年的行业招聘实践导致了以男性为主的员工队伍,因此AI算法从历史数据中“学习”到了与(男性主导)过去成功的招聘实践相符的含义,这意味着要筛选出诸如“女子曲棍球队队长。”8并非只有亚马逊在应对这些类型的人工智能挑战。已经出现了与执法,客户互动,翻译和图像解释有关的类似问题。9价值失调问题–什么时候AI误解了应该做的事情–通常紧接着是谁负责算法的问题。确保AI能做到预期的事情并能解释为什么这样做是至关重要的。透视:AI道德定义AI伦理学是一个多学科的研究领域,其主要目标是了解如何优化人工智能的有益影响,同时以优先考虑人类代理和福祉以及环境蓬勃发展的方式为所有利益相关者降低风险和不利结果。为此,AI伦理研究侧重于如何设计和构建AI系统,这些系统应了解部署方案中应遵循的价值和原则。它也是涉及识别,研究和提出针对在生活和社会中普遍使用AI引起的道德问题的技术和非技术解决方案。此类问题的示例包括数据责任和隐私,公平性,包容性,道德能力,价值一致性,责任制,透明度,信任度和技术滥用。5 最重要的是:谁在乎AI道德?为什么?我们集体研究的令人惊讶的结果之一是,重要程度在不同地理人群之间是如何变化的。更令人惊讶的是,重要内容的本质如何在高管和消费者之间产生分歧。区域观点从表面上看,关于AI伦理的观点存在差异的事实从表面上看并不是意外的。的确,鉴于不同的文化规范,完全一致不太可能,而且会令人惊讶。但是具体的地理结果令人发指(见图2)。已确认根据我们的研究:在北美,日本和西欧的成熟,发达市场中,大约有一半的高管表示,人工智能伦理对其组织至关重要。还得到证实:在拉丁美洲,非洲和东南亚等发展中市场以及印度,甚至中国等快速发展的国家中,不到一半的高管表明了同样的重要性。广义上讲,欠发达经济体的组织较少关注可能有助于其发展的AI技术的道德影响。不过,这种差距可能正在缩小,尤其是在采用人工智能的那些公司中,IT决策者之间的信任,透明度和公平性方面-这是IBM于2019年底委托进行的一项研究结果所证明的。10图2组织对AI道德的重视程度因地区而异*数量少于20。资料来源:2018年IBM商业价值研究院全球AI伦理研究。问:您组织中AI道德的重要性,N = 1,247。638%俄罗斯/东欧47%西欧63%北美39%中国53%日本32%印度23%中东和