欧盟-美国人工智能术语和分类 第一版 Introduction 欧盟(EU)和美国(U.S.)致力于在技术和数字 基于共享民主价值观的转型。贸易和技术委员会(TTC)提供了一个平台欧盟和美国决策者和利益相关者塑造跨大西洋合作的未来 智能(AI)。 随着人工智能政策框架在欧盟和美国以及许多其他志同道合的国家出现在世界范围内,统一术语和概念框架的重要性越来越明显。 融合、可互操作的方法来定义和构建AI风险和可信性对于增强法律确定性,促进有效的风险管理,加快识别新兴风险,降低 合规成本和行政负担。反过来,这有望促进创新,最大限度地提高收益的人工智能系统,同时管理其风险。最终,术语的统一将有助于促进欧盟-美国在相互尊重的基础上共同领导制定可信赖的人工智能国际标准人权和民主价值观。 正如欧盟-美国第三次部长级声明所述,关于评估和测量工具的第一份联合路线图值得信赖的人工智能和风险管理(AI路线图)用于告知人工智能风险管理的方法和跨大西洋的可信人工智能,并在国际标准机构中推进合作方法。 relatedtoAI.FollowingtheRoadmapsuggestionsforspecificactivitiesaimedatalignmentEUandUSrisk-based 方法,一组专家参与准备人工智能术语和分类法的初步草案。总数参考欧盟和美国的关键文件确定了65个术语(参见下面的方法 更多信息)。 所识别的术语反映了AI系统之间在技术层面、社会技术层面以及价值观基础上共享的理解。欧盟和美国,并将作为未来定义以及未来跨大西洋人工智能合作的基础 术语和分类法。此列表应视为初步列表,以进一步扩展和验证在未来几个月里,专家和利益相关者的投入。 为什么AI术语很重要 人工智能术语对于人工智能合作至关重要,部分原因是该领域目前的势头,以及更广泛的语言在构建和解释科学范式中的角色。术语是技术性基础的必要前提。 标准并在志同道合的合作伙伴之间和跨学科之间创建共享的参考框架。最终,不同的术语表达不同的“技术文化”,从而揭示了通过对齐和 分歧、差距的存在、不必要的分歧和不一致,以及合作与协作。 欧盟和美国的理解是基于“可信AI”这一术语。根据欧盟HLEG可信AI 有三个组成部分:(1)它应该是合法的,确保遵守所有适用的法律和法规(2)它应该是道德的,表现出尊重,并确保遵守,道德原则和价值观和(3)它应该 从技术和社会的角度来看,都要强大,因为即使有良好的意图,人工智能系统也可以导致意外伤害。根据NISTAI风险管理框架(AIRMF),值得信赖的特征 人工智能系统包括:有效和可靠、安全、可靠和有弹性、负责和透明、可解释和 可解释的,隐私增强的,公平的,他们的有害偏见得到了管理。值得信赖的人工智能不仅关注不仅包括AI系统的可信度,还涵盖了所有参与过程和角色的可信度。 人工智能系统的生命周期。 在这种情况下,人工智能系统的开发和治理的不同方法目前正在竞争 在地区和全球层面,这导致了基于科学家文化的明显不同的技术系统愿景。企业家以及用户,采用者,开发人员和立法者的要求和期望。欧盟和 美国同意追求以人为中心的人工智能方法:这要求采用的术语来实现 我们对人工智能的共同方法以人类、社会和环境福祉以及法治、人类为中心民主价值观和可持续发展。 本文档中提供的术语的限制和目的 本文件中列出的术语列表并不旨在实现完全协调或完全一致 在两个法律体系之间。欧盟和美国都承认并尊重他们的个人监管、社会和文化背景,在某些情况下可能需要不同的定义。 此外,下面列出的列表不包括当前正在讨论和定义的术语欧盟和/或美国的立法程序,以免干扰这些程序。 利益相关者参与 本文档代表了欧盟-美国的第一版人工智能术语和分类由工作组成员根据以下标准和方法制定。本版 将提交给AI专家以及欧盟和美国的广泛利益相关者社区,以获得反馈和对其增强和扩展的贡献。因此,我们热烈鼓励所有利益相关者分享 与工作组的意见。沟通机制将在第四次TTC之后宣布部长级会议。这些将单独详细说明。 Methodology 这份清单是由来自欧盟和美国的第一工作组专家分三个步骤建立的。他们最初定义了广泛的框架,商定选择条款的关键标准,主要基于 在国家级和国际层面,以及国际标准文件和研究出版物中,选取了相关资料。 termswerecategisedintodifferentclusters,andfinallyalistoftermsarepresentedinthisdocument.Below,these 更详细地描述了步骤。 必须指出的是,尽管本列表中的许多术语可以适用于几种新兴技术和技术系统中,本列表中的术语仅在特定的AI社会技术系统背景下考虑。 1.初始步骤 a.主要选择标准如下: i.这个术语对于理解基于风险的人工智能方法至关重要吗? ii.该术语的定义是否有助于推进欧盟-美国在人工智能方面的合作? b。在定义术语时,专家们转向了广泛认可的文件中的现有定义,例如学术文献、机构参考和TTC联合中列出的欧盟-美国关键政策文件 值得信赖的人工智能和风险管理路线图;并在需要时根据人工智能的背景定制它们。 2.精致步骤 在最初的参考框架的基础上,欧盟和美国专家通过以下方式进一步完善了术语的选择进行以下练习: c.将术语联合分类为 ●基础:那些对理解基于风险的人工智能方法至关重要的术语,以及与欧盟和美国都相关并由其定义 ●待定:由于立法或其他原因,其定义在此时固定或不可更改的术语在欧盟或美国发生的制度过程这些条款可能会在未来重新审视 在联合人工智能路线图实施的更广泛框架下进行修订和努力。 d。然后,欧盟和美国专家比较并检查了现有的定义和框架文件,以找到术语欧盟和美国之间的最大一致性或一致性 3.拟议条款清单 e.通过上述过程,第一工作组专家确定了术语的初步清单 这被认为对于发展对基于风险的人工智能方法的跨大西洋理解至关重要。 f.这些术语反映了欧盟和美国对人工智能系统的共同理解,并可能作为第一工作组正在进行的工作和未来跨大西洋人工智能术语合作的基础和分类法。 g.附件A列出了目前参与立法或其他体制进程的关键术语,以及因此,在这个关头被排除在工作组1的努力之外。 条款列表 本表中的参考文献由速记ID标识,该ID反映在附件B的参考文献表中。 1.集群:AI生命周期 Term定义来源 对抗性机器学习(对抗性attack)自主性 (自主人工智能系统) 大数据 与可以抵抗安全性的ML算法设计有关的实践挑战,对攻击者能力的研究,以及对 攻击后果。对抗性ML的输入是故意设计的 尽管类似于对人类的有效输入,但其预测是错误的。保持一套基于智能的功能来响应的系统 未预先编程或预期的情况(即,基于决策的 responses)priortosystemdeployment.Autonomoussystemshaveadegreeofself- 政府和自我导向行为(人类代表决策)。 一个包罗万象的术语,指同样需要的大型复杂数字数据集存储、分析、管理和处理的复杂技术手段 大量的计算能力。数据集有时会链接在一起,看看如何 一个域中的模式会影响其他区域。数据可以结构化为固定字段或非结构化作为自由流动的信息。对大数据集的分析,通常使用AI可以揭示以前没有的模式、趋势或潜在关系 对研究人员来说很明显。 基于JRC和Reznik的组合,_Leon DOD_TEVV 基于JRC和Brookings_Institution的组合 分类器向数据输入预测(或分配)类标签的模型。基于专业知识的自己的定义。 数据中毒一种安全攻击,恶意用户将虚假的训练数据注入 目的是破坏学习的模型,从而使AI系统学习一些东西它不应该学习。 深度学习基于人工神经网络的机器学习子集 统计数据来发现潜在的趋势或数据模式,并将这些知识应用于其他分析层。有些人将其标记为“通过示例学习”的一种方式作为一种技术,“直接从图像、文本、 或声音“,然后独立应用这些知识。 基于HLEG/ALTAI和斯坦哈特,_雅各布 基于DL_1、DL_2和布鲁金斯学会 微分差分隐私是一种基于隐私增强技术衡量组合输出信息量的方法。 隐私计算揭示了一个人。它产生数据分析结果 几乎同样有可能,无论任何个人是否包括在 数据集。它的目标是掩盖任何个体的存在或不存在(在数据库),或一小群人,同时保留 统计效用。 和Dwork_ECS Term定义来源 输入数据提供给人工智能系统或由人工智能系统直接获取的数据,在此基础上,系统产生一个输出。 机器学习机器学习是人工智能(AI)和计算机科学的一个分支它专注于开发能够学习和适应的系统,而无需 遵循明确的指令,模仿人类学习的方式,逐渐 提高其准确性,通过使用算法和统计模型进行分析和从数据中的模式中得出推论。 模型训练建立或改进机器学习模型参数的过程, 基于机器学习算法,通过使用训练数据。 模型验证通过提供客观证据确认ISO/IECDIS22989的要求 已实现特定的预期用途或应用。 基于EUAIA和IEEE_Soft_Vocab的组合 基于JRC和AI_Fairness_360的组合。 ISO/IECDIS22989机器学习 自然语言处理 机器处理、分析和模仿人类语言的能力口头或书面。 JRC中基于ISO/IEC的定义和 Hutson_Matthew 预测性分析 结构化和非结构化数据分析的组织,用于推理和相关性,为新情况或 data. IEEE_Guide_IPA 剖析“Profiling”是指对个人数据进行任何形式的自动处理,包括使用个人数据来评估与自然相关的某些个人方面 特别是分析或预测与该自然人有关的方面 工作表现、经济状况、健康、个人喜好、兴趣、可靠性、行为、位置或移动。 GDPR 钢筋学习 结构化数据非结构化数据 一种机器学习,其中算法通过对 抽象的目标,如“获得高的视频游戏分数”或“管理工厂”高效。“。在培训期间,每一项努力都会根据其贡献进行评估朝着目标。 具有预定义数据模型或以预定义方式组织的数据。 没有预定义的数据模型或未在预定义的数据模型中组织的数据 way. 基于Hutson,_Matthew和ISO/IEC的组合在JRC NIST_1500 自己的定义基于NIST_1500 合成数据合成数据是从数据/流程和训练到的模型生成的 再现原始数据的特征和结构,旨在相似分布。 合成数据在多大程度上是原始数据的准确代理方法和模型的效用度量。 基于EDPS_SD的自定义 Term 迁移学习 监督学习无监督学习 定义 机器学习中的一种技术,其中算法学习执行一项任务, 例如识别汽车,并在学习不同的知识时建立在这些知识的基础上而是相关的任务,例如识别猫。 在训练期间使用标记数据的机器学习。 来源 赫特森,_马修 ISO/IECDIS22989 在训练期间使用未标记数据的机器学习。 JRC中的ISO/IEC 2.群集:测量 Term定义来源 (AI)精度计算或估计与统计数据的确切或真实值的接近程度 旨在衡量。AI模型的目标是学习 对未见过的数据进行很好的概括。检查经过训练的AI模型是否在没有用于训练的看不见的例子上表现良好 模型。为此,该模型用于预测测试数据集上的答案和然后将预测目标与实际答案进行比较。准确性的概念用于评估AI模型的预测能力。非正式地,准确性是模型正确预测的分数。在 机器学习(ML)来衡量模型的预测精度。选择要使用的准确性度量取决于ML任务。 Test技术操作,以确定一个或多个特征或评估给定产品、材料、设备、有机体、物理性能按照指定程序进行的现象、过程或服务。 评价系统确定一个实体满足其规定的程度标准。 验证提供系统或系统元素执行其预期的证据 功能,并满足系统性能中列出的所有性能要求规格。 基于欧盟HLEG/ALTAI和OECD的合并。 NSCAI NSCAINSCAI Va