您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[欧盟]:欧盟达成重大历史性协议《人工智能法案》 - 发现报告
当前位置:首页/其他报告/报告详情/

欧盟达成重大历史性协议《人工智能法案》

2022-11-25-欧盟顾***
欧盟达成重大历史性协议《人工智能法案》

欧洲联盟理事会 机构间档案:2021/0106(COD) 布鲁塞尔,2022年11月25日(OR.en) 14954/22 LIMITETELECOM472 JAI1494 COPEN396 CYBER374 DATAPROTECT320 EJUSTICE89 COSI293 IXIM267 ENFOPOL569 RELEX1556 MI843 COMPET918 编解码器1773 NOTE 来自:常驻代表委员会(第一部分)致:理事会 不。doc.:14336/22 号Cion文件:8115/21 主题:欧洲议会和理事会法规的提案,规定了有关人工智能的统一规则(《人工智能法》)并修改了某些欧盟立法法案 -一般方法 I.INTRODUCTION 1.委员会通过了一项法规的提案,该法规规定了有关人工智能的统一规则(人工智能法)2021年4月21日 2.委员会提案的目标是确保放置在联盟市场上并在联盟中使用的AI系统是安全的,并尊重有关基本权利和联盟价值观的现有法律。确保法律确定性,以促进人工智能的投资和创新,加强治理和有效执行现有的基本权利和安全法律,并促进合法、安全和可信的人工智能应用单一市场的发展,同时防止市场分散。 II.在其他机构工作 3.在欧洲议会中,讨论由内部市场和消费者保护委员会(IMCO;报告员:BradoBeifei,S&D,意大利)和公民自由,司法和内政委员会(LIBE;报告员:DragosTdorache,Reew,罗马尼亚)根据联合委员会程序进行。法律事务委员会(JURI),工业,研究和能源委员会(ITRE )和文化和教育委员会(CULT)与具有共同和/或独家权限的立法工作有关。两位联合报告员于2022年4月公布了他们的报告草案,IMCO-LIBE联合报告的投票定于2023年第一季度进行。 4.欧洲经济和社会委员会于2021年9月22日发表了对该提案的意见,而欧洲区域委员会于2021年 12月2日发表了意见。 5.2021年6月18日,欧洲数据保护委员会(EDPB)和欧洲数据保护主管(EDPS)就该提案发表了联合意见。 6.欧洲中央银行(ECB)于2021年12月29日发布了其意见,并于2022年2月10日在电信和信息社会工作组(以下简称:WPTELECOM)上提交了该意见。 III.在理事会的状态 1.在理事会中,对该提案的审查已在WPTELECOM中进行。WPTELECOM在葡萄牙担任主席期间开始讨论该提案,并在2021年4月至6月间举行了几次会议和讲习班。在斯洛文尼亚担任主席期间继续进行该提案的工作,该主席起草了第一项部分折衷提案,涵盖第1-7条和附件一至三 。此外,斯洛文尼亚总统府组织了为期半天的非正式电信部长理事会,专门讨论《人工智能法》提案,在此期间,部长们确认了他们对规范人工智能的横向和以人为中心的方法的支持。法国总 统府继续进行审查,并在任期结束时重新起草了案文的其余部分(第8-85条和附件四-九)并于 2022年6月17日提交了关于人工智能法案的第一个综合妥协提案。 2.2022年7月5日,捷克轮值主席国根据一份政策选择文件在WPTELECOM举行了一次政策辩论 ,其结果用于编写第二个妥协文本。根据各代表团对这一妥协的反应,捷克主席准备第三个妥协案文,于2022年9月22日和29日在WPTELECOM上进行了介绍和讨论。在这些讨论之后,要求各代表团提供进一步的书面评论,捷克总统将其用于起草第四个妥协方案。根据2022年10月25日和2022年11月8日在WPTELECOM举行的关于第四项折衷提案的讨论,并考虑到会员国的最后书面意见,捷克主席编写了妥协文本的最终版本,可以在附件中找到。11月18日,Coreper审查了这一折衷提案,鉴于总体方法,一致同意将其提交TTE(电信)理事会,不作任何更改在2022年12月6日的会议上。 IV.妥协方案的主要内容 1.AI系统的定义,禁止的AI实践,附件III中的高风险AI用例列表以及将AI系统分类为高风险 1.1为了确保AI系统的定义提供了足够明确的标准来区分AI与更经典的软件系统,折衷文本将定义范围缩小为第三条(1)通过机器学习方法以及基于逻辑和知识的方法开发的系统。 1.2关于向委员会授权更新人工智能系统的定义,附件一并删除了委员会通过委托行为对其进行更新的相应授权。相反,新的朗诵6a和6bhavebeenaddedtoclarifywhatshouldbeunderstandedby machinelearningapproachesandlogic-andknowledge-basedapproaches.ToensurethattheAIActremainsflexibleandfutureproof,apossibilitytoadoptingimplementationandupedtechnologiesuni第4条. 1.3关于禁止的人工智能做法,在第五条折衷文本包含禁止使用AI进行社交评分的扩展也适用于私人行为者。此外,禁止使用利用特定人群脆弱性的人工智能系统的规定现在也涵盖了因其社会或经济状况而脆弱的人。关于禁止执法当局在可公开访问的空间中使用“实时”远程生物特征识别系统的问题,折衷案文阐明了认为这种使用对于执法目的是绝对必要的目标,因此应例外允许执法当局使用这种系统。 1.4关于高风险AI用例列表附件三,其中三个已被删除(执法部门的深度虚假检测,犯罪分析,旅行证件真实性的验证),两个已被添加(关键数字基础设施和生命和健康保险),其他已进行了微调。同时,第7(1)条进行了修改,以便不仅可以通过委托行为将高风险用例添加到 列表中,而且可以删除它们。为了确保在发生此类删除的情况下充分保护基本权利,在第7(3) 条,规定在采取委托行为之前需要满足的条件。 1.5关于将人工智能系统分类为高风险,折衷提案现在在高风险分类的基础上增加了一个水平层 附件三,以确保不会捕获不太可能导致严重侵犯基本权利或其他重大风险的AI系统。更具体地说 ,第6条第3款载有新的规定,根据这些规定,在将人工智能系统分类为高风险时,还应考虑人工智能系统输出对相关行动或将要采取的决定的重要性。人工智能系统输出的重要性将根据它是 否纯粹是将要采取的相关行动或决定的附件来评估。 2.对高风险AI系统的要求以及AI价值链中各个参与者的责任 2.1对高风险AI系统的许多要求,如第三章第二章对提案进行了澄清和调整,使其在技术上更可行,利益相关者遵守的负担更少,例如在数据质量方面,或与中小企业应起草的技术文件有关,以证明其高风险人工智能系统符合要求。 2.2鉴于人工智能系统是通过复杂的价值链开发和分发的,折衷文本包括澄清责任和角色分配的变化。例如,在第13和14条已添加,以允许提供商和用户之间更有效的合作。折衷案文还旨在澄清《人工智能法》下的责任与其他立法下已经存在的责任之间的关系,例如相关的联盟数据保护或部门立法,包括金融服务部门。此外,新的第23a条更清楚地表明了价值链中的其他参与者有义务承担供应商责任的情况。 3.通用AI系统 3.1一个新的标题IA已被添加以考虑AI系统可用于许多不同目的(通用AI)的情况,以及可能存在通用AI技术集成到另一个可能成为高风险的系统中的情况。妥协文本在第4b(1)条对高风险人工智能系统的某些要求也将适用于通用人工智能系统。然而,实施法案将在咨询和详细影响评估的基础上,并考虑到这些系统和相关价值链的具体特征、技术可行性以及市场和技术发展,而不是直接应用这些要求,而是具体规定如何将它们应用于通用人工智能系统。执行法案的使用将确保会员国适当参与,并将对如何在这种情况下适用要求保留最终决定权。 3.2此外,妥协文本第4b(5)条还包括采取进一步实施法案的可能性,这些法案将规定通用人工智能系统的提供商与打算将此类系统作为高风险人工智能系统投入使用或将其作为联盟市场的其他提供商之间的合作方式,特别是在提供信息方面。 4.澄清拟议的《大赦国际法》的范围以及与执法当局有关的规定 4.1在第2条明确提到将国家安全、国防和军事目的排除在《大赦法》的范围之外。同样,已经澄清,《人工智能法》不应适用于仅用于研究和开发目的的人工智能系统及其产出,也不适用于出于非专业目的使用人工智能的人的义务,这将不属于《人工智能法》的范围,但透明度义务除外。 4.2为了考虑到执法当局的特殊特点,对有关将人工智能系统用于执法目的的规定进行了一些修改。值得注意的是,中的一些相关定义第3条诸如“远程生物特征识别系统”和“实时远程生物特征识别系统”之类的已经进行了微调,以澄清哪些情况将属于相关的禁止和高风险用例,以及哪些情况将不会。折衷提案还包含其他修改,这些修改在适当的保障措施的前提下,旨在确保执法当局在使用高风险人工智能系统方面具有适当的灵活性,或者考虑需要尊重敏感业务数据的机密性。 5.符合性评估、治理框架、市场监管、执法和处罚 5.1为了简化《人工智能法》的合规框架,折衷案文包含对合格评定程序条款的一些澄清和简化 。还对有关市场监督的规定进行了澄清和简化,以便使其更加有效和易于执行,同时考虑到在这方面需要采取相称的方法。此外,。第41条已经过彻底审查,以限制委员会在通过实施法案方面的酌处权,这些法案为高风险人工智能系统和通用人工智能系统的要求制定了共同的技术规范。 5.2ThecompromittextalsosubstantiallymodifiestheprovisionsconcerningtheAIBoard('theBoard'),withtheobjectivestoensureitsgreaterautomyandtostrengthenitsroleinthegovernancearchitecturefortheAIA.Inthiscontext,第56和58条经修订,以便加强理事会的作用,使其能够更好地支持成员国 执行和执行《人工智能法》。更具体地说,委员会的任务已经延长,其组成已经明确。为了确保利 益攸关方参与与实施《人工智能法》有关的所有问题,包括制定实施和委托法案,理事会增加了一项新要求,即设立一个常设分组,作为广泛利益攸关方的平台。还应建立另外两个常设的市场监督机构和通知机构小组,以加强整个联盟的治理和执行《人工智能法》的一致性。 5.3为了进一步改善治理框架,折衷案文包括新的第68a和68b条.第68a条包括要求委员会在人工智能领域指定一个或多个联合测试设施,这些设施应应董事会或市场监管机构的要求提供独立的技术或科学建议,同时第68b条委员会有义务建立独立专家的中央人才库,以支持《人工智能法》所需的执法活动。最后,还有一个新的第58a条规定委员会有义务就《人工智能法》的适用提供指导。 5.4关于对违反《大赦法》条款的处罚,在第71条折中案文对中小企业和初创企业的行政罚款数额规定了更相称的上限。此外,在第七十一条第(六)款为决定行政罚款的数额,增加了四个标准,以进一步保障其总体相称性。 6.透明度和有利于受影响人员的其他规定 6.1折衷提案包括许多更改,这些更改增加了使用高风险AI系统的透明度。值得注意的是,第五十一条已更新,以表明某些作为公共当局,机构或机构的高风险AI系统用户也将有义务在欧盟数据库中注册附件III中列出的高风险AI系统。此外,新添加的第52(2a)条强调情感识别系统的用户有义务在他们暴露于这种系统时通知自然人。 6.2折衷方案也在新增加的第六十三条第(十一)款有理由认为存在违反《人工智能法》规定的自然人或法人可以向相关市场监督机构投诉,并可能期望此类投诉将按照该机构的专门程序处理。 7.支持创新的措施 7.1为了建立一个更有利于创新的法律框架,并促进基于证据的监管学习,关于支持创新的措施的规定第五十三条在折衷文本中进行了实质性修改。值得注意的是,人工智能监管沙箱应该在国家主管部门的直接监督和指导下