一个蓝图 AIB的坏话R锁定宽和高 使自动化系统为美国人民服务 2022年10月 关于本文档 《人工智能权利法案蓝图:使自动化系统为美国人民服务》由白宫科技政策办公室于2022年10月发布。该框架是在OSTP宣布启 动“人工智能驱动世界的权利法案”的流程一年后发布的。在公众参与一年后,它发布了这一倡议。该框架可在线获取,网址为: https://www.whitehouse.gov/ostp/ai-bill-of-rights 科学和技术政策办公室 科学和技术政策办公室(OSTP)是根据1976年《国家科学技术政策,组织和优先事项法》建立的,旨在为总统和总统办公厅内 的其他人提供有关经济,国家安全,卫生,外交关系,环境以及技术恢复和资源利用的科学,工程和技术方面的建议,以及其他主题。OSTP领导机构间科学和技术政策协调工作,协助管理和预算办公室(OMB)对联邦预算研究和开发进行年度审查和分析,并作为总统对联邦政府重大政策,计划和计划的科学和技术分析和判断的来源。 法律免责声明 《人工智能权利法案蓝图:让自动化系统为美国人民服务》是白宫科技政策办公室发布的白皮书。它旨在支持制定保护公民权利的政策和做法,并在自动化系统的建设,部署和治理中促进民主价值观。 人工智能权利法案的蓝图不具约束力,也不构成美国政府的政策。它不取代、修改或指导对任何现有法规、法规、政策或国际文书的解释。它不构成对公众或联邦机构具有约束力的指导,因此不要求遵守此处描述的原则。它也不能决定美国政府在任何国际谈判中的立场。采用这些原则可能不符合现有法规、法规、政策或国际文书的要求,也不符合执行这些原则的联邦机构的要求。这些原则无意也不会禁止或限制政府机构的任何合法活动,包括执法、国家安全或情报活动。 本白皮书中规定的原则的适当应用在很大程度上取决于使用自动化系统的环境。在某些情况下,鉴于自动化系统的预期用途是实现政府机构的任务,因此全部或部分应用这些原则可能不合适。未来的行业特定指导对于指导在某些环境中使用自动化系统可能是必要和重要的,例如用作学校建筑安全一部分的人工智能系统或自动化健康诊断系统。 《人工智能权利法案蓝图》承认,执法活动需要在股权之间取得平衡,例如,在保护敏感执法信息和通知原则之间取得平衡;因此,通知可能不合适,或者可能需要调整以保护来源,方法和其他执法权益。即使在这些原则可能不全部或部分适用的情况下,联邦部门和机构仍然受到司法,隐私和公民自由的监督以及管理自动化系统的现有政策和保障措施,例如,包括例如行政命令13960,促进在联邦政府中使用可信赖的人工智能(2020年12月)。 本白皮书认识到,国家安全(包括某些执法和国土安全活动)和国防活动对我们国家的对手越来越敏感和感兴趣,并且经常受到特殊要求的约束,例如管理机密信息和其他受保护数据的要求。这些活动需要通过管理自动化系统和人工智能的现有政策,如国防部(DOD)人工智能道德原则和负责任的人工智能实施途径以及情报界(IC)人工智能道德原则和框架,采取替代的、兼容的保障措施。在可行的情况下,可以通过人工智能权利法案蓝图来告知这些政策对国家安全和国防活动的实施。 人工智能权利法案蓝图无意也不会创造任何法律权利、利益或辩护,无论是实质性的还是程序性的,可由任何一方针对美国、其部门、机构或实体、其高级职员、雇员或代理人或任何其他人在法律上或衡平法上强制执行,也不构成对主权豁免的放弃。 版权信息 本文件是美国政府的作品,属于公有领域(见17U.S.C.§105)。 FOREWORD 当今民主面临的巨大挑战之一是以威胁美国公众权利的方式使用技术,数据和自动化系统。这些工具经常被用来限制我们的机会,阻止我们获得关键资源或服务。这些问题是有据可查的。在美国和世界各地,本应帮助患者护理的系统已被证明是不安全的、无效的或有偏见的。已经发现,招聘和信贷决策中使用的算法可以反映和再现现有的不受欢迎的不平等现象,或者嵌入新的有害偏见和歧视。未经检查的社交媒体数据收集被用来威胁人们的机会,破坏他们的隐私,或普遍跟踪他们的活动-通常是在他们不知情或未经他们同意的情况下。 这些结果是非常有害的,但它们并非不可避免。自动化系统带来了额外的好处,从帮助农民更有效地种植粮食的技术和预测风暴路径的计算机,到可以识别患者疾病的算法。这些工具现在推动了各行各业的重要决策,而数据正在帮助彻底改变全球行业 。在美国创新力量的推动下,这些工具有可能重新定义我们社会的每一个部分,让每个人都过上更好的生活。 这一重要进展决不能以民权或民主价值观为代价,拜登总统已经确认这是其政府的基石,而这些基本美国原则是其政府的基石 。在他上任的第一天,总统命令整个联邦政府努力根除不平等,在决策过程中嵌入公平,并积极推进美国的公民权利,平等机会和种族正义。1总统有力地谈到了当今民主面临的紧迫挑战,并经常呼吁有良知的人采取行动维护公民权利-包括隐私权,他称之为“我们习以为常的更多权利的基础,这些权利在这个国家的结构中根深蒂固。2 为了推进拜登总统的愿景,白宫科技政策办公室确定了五项原则,这些原则应该指导自动化系统的设计、使用和部署,以保护人工智能时代的美国公众。《人工智能权利法案蓝图》是一个保护所有人免受这些威胁的社会的指南,并以强化我们最高价值观的方式使用技术。根据美国公众的经验,并根据研究人员,技术专家,倡导者,记者和政策制定者的见解,该框架附有一本技术伴侣-一本手册,适用于任何寻求将这些保护措施纳入政策和实践的人,包括在技术设计过程中实现这些原则的详细步骤。每当自动化系统能够有意义地影响公众的权利、机会或获得关键需求时,这些原则都有助于提供指导。 一个布特这个FRAMEWORK 人工智能权利法案蓝图是一套五项原则和相关实践,旨在帮助指导自动化系统的设计、使用和部署,以保护人工智能时代美国公众的权利。通过与美国公众的广泛磋商,这些原则是构建和部署符合民主价值观并保护公民权利,公民自由和隐私的自动化系统的蓝图。《人工智能权利法案蓝图》包括这一前言、五项原则、关于应用《人工智能权利法案蓝图》的注释,以及一个技术伴侣,其中提供了从各级政府到各种规模的公司等多种组织为维护这些价值观可以采取的具体步骤。来自私营部门、政府和国际财团的专家发布了原则和框架,以指导负责任地使用自动化系统;该框架提供了与部门无关的国家价值观声明和工具包,以便为将这些保护措施纳入政策,实践或技术设计过程提供信息。如果现有的法律或政策(例如特定行业的隐私法律和监督要求 )尚未提供指导,则应使用人工智能权利法案蓝图为政策决策提供信息。 lISTENING到一个茶花会P分; 白宫科技政策办公室领导了一个为期一年的过程,以寻求和提炼全国各地的人们-从受影响的社区和行业利益相关者到技术开发人员和跨领域和部门的其他专家,以及整个联邦政府的政策制定者-就算法和数据驱动的危害和潜在补救措施的问题提供意见。通过小组讨论、公众倾听会议、会议、正式的信息请求以及对可公开访问和广泛宣传的电子邮件地址的输入,美国各地的人们 、联邦机构的公务员以及国际社会成员都谈到了这些技术的承诺和潜在危害,并在制定人工智能权利法案蓝图方面发挥了核心作用。从这些讨论中收集到的核心信息包括,人工智能具有改善美国人生活的变革潜力,以及防止这些技术的危害既是必要的 ,也是可以实现的。附录包括公众参与的完整列表。 年代商品检验TITLE BLUEPRINT一AIB的坏话R锁定宽和 高 年代安全的和EFFECTIVE年代系统 你应该被保护从不安全或无效的系统。自动化系统应通过来自不同社区,利益相关者和领域专家的咨询进行开发,以确定 系统的关注点、风险和潜在影响。系统应进行部署前测试、风险识别和缓解,以及持续监控,以证明其根据其预期用途是安全有效的,缓解不安全的结果,包括超出预期用途的结果,并遵守 特定于域的标准。这些保护措施的结果应包括不 部署系统或删除系统以供使用。自动化系统的设计不应有意或合理可预见的危害您或社区安全的可能性。他们应该旨在主动保护您免受因意外但可预见的使用或 自动化系统的影响。在自动化系统的设计、开发和部署过程中,您应受到保护,免受不适当或不相关的数据使用,以及重用其复 合危害。应进行独立评估和报告,确认该系统是安全有效的,包括报告为减轻潜在危害而采取的步骤,并尽可能公布结果。 一个LGORITHMICDISCRIMINATIONP保护 你不应该面临算法的歧视,系统应该在 一个公平的方式。当自动化系统导致不合理时,就会发生算法歧视 基于种族、肤色、民族、性别(包括怀孕、分娩和相关医疗条件、性别认同、双性人身份和性取向)、宗教、年龄、国籍、残疾 、退伍军人身份、遗传信息或受法律保护的任何其他分类,对不利人群进行不同的待遇或影响。根据具体情况,这种算法歧视可能违反法律保护。自动化系统的设计者、开发人员和部署者应采取积极主动和持续的措施,以保护个人和社区免受算法歧视,并以公平的方式使用和设计系统。这种保护应包括作为系统设计的一部分进行积极主动的公平评估,使用代表性数据并防止人口特征的代理,确保残疾人在设计和开发中的可访问性,部署前和持续的差异测试和缓解,以及明确的组织监督。应以算法影响评估的形式进行独立评估和通俗易懂的报告,包括差异测试结果和缓解信息,并尽可能予以公布,以确认这些保护措施。 5 年代商品检验TITLE DATAPRIVACY 你应该是受保护的从虐待数据实践通 过 内置的保护和你 应该有关于如何使用有关您的数据的代理权。您应该通过设计选择来保护您免受侵犯隐私,这些设计选择确保默认情况下包含此类保护,包括确保 数据集合符合合理预期这只有数据严格必要为具体的收集上下文。自动化系统的设计者、开发人员和部署者应征得您的许可 并尊重您以适当方式并在最大可能范围内收集、使用、访问、传输和删除数据的决定;在不可能的情况下,应使用其他隐私设计保护措施。系统不应采用用户体验和设计决策来混淆用户选择或给用户带来侵犯隐私的默认值。只有在可以适当和有意义地给予数据的情况下,才应使用同意来证明数据收集的合理性。任何同意请求都应简短,以通俗易懂的语言理解,并为您提供数据收集和特定使用背景的代理权;目前难以理解的广泛使用数据的通知和选择做法应该改变。加强对与敏感领域(包括健康、工作、教育、刑事司法和金融)相关的数据和推理的保护和限制,以及与青年有关的数据,应该把您放在第一位。在敏感领域,您的数据和相关推论应仅用于必要的功能,并且您应受到道德审查和使用禁令的保护。你和你的社区应该不受控制;监控技术应受到更严格的监督,至少包括对其潜在危害和范围限制的部署前评估,以保护隐私和公民自由。连续监测和监测不应用于教育、工作、住房或使用此类监测技术可能限制权利、机会或获取的其他情况。只要有可能,您应该可以访问报告,以确认您的数据决策已得到尊重,并提供对监视技术对您的权利,机会或访问的潜在影响的评估。 N结果,EXPLANATION 您应该知道正在使用自动化系统,并了解它如何以及为什么会影响您的结果。自动化系统的设计者、开发人员和部署者应提供一般可访问的通俗语言文档,包括对整个系统功能和自动化所扮演角色的清晰描述,注意此类系统正在使用中,负责系统的个人或组织,以及对结果的解释,这些解释是清晰、及时和可访问的。此类通知应保持最新状态,并应通知受系统影响的人员重大用例或关键功能更改。您应该知道影响您的结果如何以及为什么是由自动化系统确定的,包括当自动化系统不是确定结果的唯一输入时。 自动化系统应提供技术上有效、有意义且对您以及需要了解系统的任何操作员或其他人员有用的解释,并根据上下文根据风险级别进行校准。应尽可能公开报告,包括以通俗易懂的语言提供有关这些自动化系统的摘要信息,以及对通知和解释的清晰度和质量的评估。 6 年代商品检验TITLE H乌曼一个LTERNATIVESCONSIDERATION,和FALLBACK 您应该能够在适当的情况下选择退出,并能够联系