您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[世界经济论坛]:人工智能公平和包容的蓝图 - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能公平和包容的蓝图

人工智能公平和包容的蓝图

人工智能公平和包容的蓝图W H I T E P A P E R六月 2 0 2 2 人工智能公平和包容的蓝图2封面:Johnason,Getty Images – 内页:Getty Images,Unsplash内容3前言4执行摘要51 简介72 构建包容的人工智能生态系统113 设计包含143.1 了解问题并确定人工智能解决方案173.2 包容性模型设计183.3 包容性数据收集203.4 公平和包容的模型开发和测试213.5 可信人工智能系统的公平部署和监控社区影响233.6 循环演化的生命周期264。结论27贡献者和致谢29 尾注免责声明本文件由世界经济论坛发布,作为对项目、洞察领域或互动的贡献。本文所表达的调查结果、解释和结论是世界经济论坛推动和认可的协作过程的结果,但其结果不一定代表世界经济论坛或其成员、合作伙伴或其他利益相关者的全部观点。© 2022 世界经济论坛。版权所有。不得以任何形式或通过任何方式(包括影印和录制)或通过任何信息存储和检索系统复制或传播本出版物的任何部分。 人工智能公平和包容的蓝图32022 年 6 月人工智能公平和包容的蓝图前言在过去几十年中,促进公平和包容的举措数量大幅增加,尤其是对影响家庭、学校或工作场所体验的系统性不平等问题给予了更多关注。随着这种意识的提高,许多公司已经开始认识到将包容性努力整合到组织管理和流程中的重要性——例如,确保公平的招聘实践或促进员工资源组以改善对代表性不足的客户的服务种类或质量,以及代表性不足的员工的经历。特别是在科技公司内部,复杂性的增加伴随着人工智能 (AI) 等技术的设计、开发、部署和使用所特有的公平和包容性挑战。本报告全面描绘了在 AI 开发生命周期和治理生态系统中改善公平和包容性的挑战和机遇——将招聘、文化变革、影响评估等。值得注意的是,该报告承认每个空间都有最佳实践,但连接其他孤立空间的整体方法可以使所有人受益。例如,与受影响的社区进行产品咨询是不够的。然后必须为社区成员提供继续交流的安全方式反馈或建议,并了解他们的参与如何导致最终产品的具体变化。虽然它可能更耗费资源,但对整个人工智能生态系统而言,投资于系统性、综合性的包容性方法具有更大的价值。全球未来人类人工智能理事会 2021-2022 年的队列开始在为期 10 个月的旅程中,绘制了 AI 技术生命周期的每个阶段以及整个治理生态系统中的大量公平和包容性挑战,并将它们整合到一个可消化的框架中。该小组的目标不是重新发明轮子,而是利用和分享现有的文献和举措和包容,以及在人工智能伦理中——简单地连接以前可能没有连接的点。以下蓝图是通过理事会成员的月度会议制定的,还借鉴了匿名利益相关者访谈和与世界经济论坛全球人工智能行动联盟成员举行的一次研讨会。这些建议的整体性以及制定这些建议的方法,是为在世界经济论坛内外的商业、政策和技术讨论中引入新的声音而不断努力的一部分。 人工智能公平和包容的蓝图4执行摘要人工智能 (AI) 在各个领域都在加速发展。它具有造福社会的巨大潜力,但该技术的全部潜力只有在其发展的每一步都包含它所代表的人口多样性时才能实现。随着对偏见、数据隐私和缺乏代表性的担忧日益增加,重新评估人工智能的设计和部署方式至关重要,以确保所有受影响的人利益相关者和社区从技术中获益,而不是任何伤害。全球人类人工智能未来理事会评估人工智能开发生命周期,确定了差距领域和机会让人工智能对所有人更加公平和包容。当前的 AI 生命周期可以分为两个领域:管理 AI 使用的领域(例如,将接收和使用 AI 的领域)以及设计、开发和部署 AI 以满足利益相关者需求的领域。虽然每个人都在自己的道路上,但他们都同时工作,以确保人工智能在其各个领域是公平和包容的。可以优化 AI 生命周期中的七个主要步骤(见下文)以确保公平和包容在人工智能的开发和部署中被优先考虑。然而,这个共同的标准只能通过观察当前人工智能分布的生态系统和明白了。通过提高认识、教育、建设无障碍基础设施和提高技能,可以使当代和后代能够就他们对人工智能的使用做出明智的决定。此外,需要注意的是,人工智能的生命周期没有起点和终点。相反,这是一个旨在改进的持续进化。其目的是使人工智能从业者能够期望并允许基于治理结构和评估进行变革,然后应用这些经验教训来促进包容性实践。图 1 人工智能生命周期知识发展的演变识别用例/问题人工智能意识和素养建设监控/超级护理非常清楚地定义用例/问题为什么人工智能是解决方案为开发团队实施问责机制部署通过设计使 AI 具有包容性模型设计与迭代确定适当和多样化的指标评估模型测试实施道德最佳实践确保具有包容性和多样化的数据集数据采集与利益相关者合作收集数据为迭代的开发/测试引入新的利益相关者模型开发建设者生态系统治理/利益相关者生态系统 人工智能公平和包容的蓝图51介绍该蓝图的设计采用了包容性的方法来指导组织实现公平和包容的人工智能成果。 毫无疑问,人工智能 (AI) 正在对所有行业产生深远影响,更重要的是,对所有社区人们的生活产生深远影响。然而,在这种快速的数字化转型中,许多人已经意识到,人工智能作为一种以包容性方式改善人们生活的工具的承诺尚未实现。包容性人工智能是一个在全球讨论中普遍使用的概念;但是,很少有指导原则可以帮助决策者在其机构内实施这一概念或领域。该蓝图的目标是解决这一差距。此外,包容性人工智能不仅仅是技术发展中的公平和包容性。它本质上是系统性的,因此需要采用生态系统方法。缺乏包容性人工智能已被证明对企业有害(导致财务或声誉损害)和某些社区,特别是种族、文化、语言、意识形态和代际少数群体。因此,该蓝图的主要目的是更好地理解如何通过设计在两个层面上采用公平和包容性:生态系统(广泛)和人工智能生命周期(技术开发阶段)。此外,人工智能的公平和包容战略的采用必须与综合人工智能伦理方法齐头并进,因为其他人工智能原则和价值观至关重要,并且对实现不歧视并促进公平、正义和共享的人工智能生态系统具有间接影响人类和地球的繁荣。本指南的目标受众包括负责 AI 开发不同阶段的经理和团队,以及来自 AI 生态系统各部门的决策者。此外,本指南建立在各主要机构发布的其他知识资源之上,并非详尽无遗。这是世界经济论坛全球未来人类人工智能理事会成员共同努力的结果,其中包括对不同背景的人以及人工智能多样性、公平和包容性生态系统机构代表进行的采访。此外,本指南中的资源也包含在 AI Fairness Global Library(见框 8:AI Fairness Global Library)中,在这里可以找到来自领先机构的其他知识资源,以加深此处介绍的主题。团结并不意味着我们都是一样的,但我们每个人都承担起促进集体福祉的责任,我们同意将我们各自独特的能力、看待和做事的方式、思考方式结合在一起,为达成一致的目标而共同努力, 意图。Tā Himi Henare, Rangatira o Taitokerau框 1 我们所说的人工智能是什么意思?人工智能系统是一种基于机器的系统,可以针对一组给定的人为定义的目标,做出影响真实或虚拟环境的预测、建议或决策。资料来源:经济合作与发展组织 (OECD),“人工智能委员会的建议”,2019 年,https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449。图 2按性别划分的美国常驻 AI 博士和全球终身教职员工中 AI 的多样性短缺快照2019 年按种族/民族划分的新美国居民 AI 博士(占总数的百分比)2019-2020 年顶尖大学计算机科学系终身教授,按性别分列白人(非西班牙裔)45.60%亚洲 22.40%未知 24.80%黑人或非裔美国人(非西班牙裔)2.40%西班牙裔 3.20%多种族(非西班牙裔)1.60%男士 575(83.90%)女性 110(16.10%)资料来源:Zhang, D. 等人,人工智能指数 2021 年年度报告,人工智能指数指导委员会,斯坦福大学以人为本的人工智能研究所,2021 年 3 月。 公平和包容性的蓝图智力72构建包容的人工智能生态系统 公平和包容性的蓝图智力8包容性人工智能基础设施在最基本的层面上,让最广泛的社区成员参与的包容性生态系统需要公平获得人工智能系统所需的技术基础设施(计算、数据存储和网络)发展。这种基础设施必须既可用于教育新的人工智能从业者,也可用于缺乏支付云计算能力的公民开发人工智能系统。访问可以促进包容性——政府投资于国家和地区的计算和数据处理能力,无论是通过用户设施获取和提供技术,还是通过资助国家或地区对商业云资源的访问——鼓励更多的人公民以技术或非技术能力参与人工智能,并将人口中的成员引导到与人工智能相关的工作中。促进获取和公平可能意味着,在基线上,将技术作为公共或共同利益优先:将公共部门资源的分配放在首位,以增加获得适度的普通人群中的计算量,而不是将资源分配给具有成功开发人工智能系统历史的已建立的申请人,例如主要的信息和通信技术 (ICT) 公司或已经在使用 AI 方法方面拥有丰富经验的学术研究小组。政府和民间社会组织有机会在全球网络中召集感兴趣的团体,分享监管和补救途径方面的最佳实践,提供必要的反馈,创建资金并在数据收集基础设施方面建立区域伙伴关系。资源分配过程还必须激励人工智能应用程序的开发,这些应用程序有益于而不是损害环境和人类在一个社区。通过以下章节中描述的治理和流程的整体方法,公共部门可以在发生伤害时实施法律后果和补救途径。人工智能素养、教育和意识建设人们——从成人、父母和照顾者到儿童——每天都以无数种方式与人工智能系统互动。实现公平和包容性人工智能的第二个先决条件是所有与这些系统交互的人都了解人工智能的基础知识,以便了解使用它们带来的机会和风险。虽然不是每个人都可以成为 AI 专家,但每个人都可以了解他们可能受到的直接影响——例如,通过他们最喜欢的社交应用程序中的推荐算法——或间接影响,例如当几十年来放大的虚假信息侵蚀了对社区的信任时。简而言之,每个人都应该是人工智能系统的关键用户,意识到他们的权利和责任,以及他们如何在人工智能驱动的世界中行使这些权利和责任。正规教育机构是政府推动人工智能相关技能发展的关键场所,最好是从小就开始。由于学校的人工智能课程尚未普及,课外活动可以成为孩子们学习的重要场所关于人工智能。政府可以承担许多关键任务,例如支持正规和非正规教育项目的开发和更新,以包括批判性思维和情商建设等技术和软技能,以及基本人工智能概念的数字和数据素养。他们还可以确保人工智能教育工作中的性别平等,重点是提高代表性的女孩。此外,政府应与民间社会组织合作开展教育活动,以提高人们对数字安全、隐私和其他技术潜在危害以及通往正义的途径(即在怀疑受到伤害或歧视时寻求补救的途径)的认识。总之,这些项目可以使利益相关者积极参与人工智能系统对其生活和周围人生活的影响。随着人工智能和数据素养的提高,利益相关者可以更好地询问平台如何收集和处理他们的数据,并确定是否有适当的保护政策到位。从很小的时候起,孩子们就可以从父母对工作、家庭、学校甚至玩具中使用的人工智能系统对数据和隐私的影响进行批判性思考中受益。对于那些想要超越意识水平的人来说,围绕对人工智能的共同兴趣建立的社区团体和非正式网络对于进一步发展对话至关重要。公司在这一领域的作用——下文详述——也是巨大的。为了支持 AI 就绪的个人生态系统,组织可以做很多事情,包括为有抱负的从业者提供带薪实习,促进社区访问和与工程师以外的各种 AI 工作者的接触,以及组织关于技术优势和职业机会的鼓舞人心的演讲在人工智能。 公平和包容性的蓝图智力9公平的招聘实践和职业建设机会,以获得人工智能和人工智能治理方面的专业知识近年来,业界对多元化、公平和包容 (DEI) 价值观和最佳实践的承诺越来越多利益相关者。为了进一步在这一领域取得进展,公司必须通过建立内部招聘、留任和工作场所文化战略以及吸引关键合作伙伴、利益相关者和专家的外部战略来向外和向内看。在各行各