您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国际战略研究中心]:日本的人工智能监管方法及其对2023年G7主席国的影响(英) - 发现报告
当前位置:首页/行业研究/报告详情/

日本的人工智能监管方法及其对2023年G7主席国的影响(英)

日本的人工智能监管方法及其对2023年G7主席国的影响(英)

2023年2月 日本的人工智能方法监管和它的影响 在2023年七国集团(G7)总统 由HirokiHabuka 人工智能(AI)正在给我们的业务和日常生活带来重大变化。虽然人工智能带来了社会问题的戏剧性解决方案,其不可预测的性质,不可解释性和反思 或放大数据偏见引发了对隐私、安全、公平甚至 民主。作为回应,各国政府、国际组织和研究机构在 World在2010年代后期开始发布一系列以人为中心的AI原则。1 最初是宽泛的原则,现在正在转变为更具体的法规。2021年,欧洲委员会发布的草案人工智能法人工智能进行分类 四个级别并规定了相应的义务,包括加强安全性、透明度、以及问责措施。在美国,算法的责任法案2022是 2022年2月在国会两院提出。2022年6月,加拿大提出了人工情报和数据法案(AIDA)其中风险管理和信息披露 高影响力的AI系统将强制的。 虽然监管人工智能对于防止对基本价值观的威胁是必要的,但有一个担心合规负担和监管内容的模糊性可能会扼杀创新。 此外,监管碎片化不仅会给企业带来沉重的成本,还会给社会带来巨大的成本。如何应对人工智能的风险,同时加速有益的创新和采用是最重要的问题之一。 包括七国集团(G7)领导人在内的决策者面临艰巨挑战。 1.包括原则(伙伴关系在2016年AI),准备未来的人工智能(美国国家科学技术委员会, 2016),艾斯洛玛尔AI原则(未来生活的研究所,2017年)、微软人工智能原则(2018)、可信赖人工道德准则 智能(欧洲委员会,2018)、多伦多宣言》(大赦国际(AmnestyInternational),2018),人工智能在谷歌(2018),经济组织合作与发展(经合组织)人工智能原则(经合组织,2019年),20国集团(G20)人工智能原理(2019),等等。 在日本举行的2023年G7峰会期间,数字部长们将讨论以人为中心的 人工智能方法,其中可能包括监管或非监管政策工具。作为东道国,日本的人工智能监管方法可能对全球达成共识产生重大影响 领导人。本文分析了日本人工智能监管的主要趋势,并讨论了哪些论点可以在七国集团(G7)峰会。 总而言之,日本已经制定并修订了与人工智能相关的法规,目标是最大化人工智能对社会产生积极影响,而不是将其抑制为高估的风险。重点是 基于风险、敏捷和多利益相关方的流程,而不是一刀切的义务或禁令。日本的方法为人工智能监管的全球趋势提供了重要的见解。 如何在加速有益创新的同时应对人工智能的风险采用是最困难的挑战之一 决策者,包括七国集团领导人。 日本的AI规定 基本原则 2019年,日本政府公布了以人为中心的人工智能的社会原则(社会 原则)作为在社会中实施人工智能的原则。《社会原则》提出了三个基本要素理念:人的尊严、多样性和包容性以及可持续性。重要的是要注意 社会原则的目标不是限制人工智能的使用以保护这些原则,而是意识到他们通过人工智能。这个对应的结构经济组织 合作与发展组织(OECD)的人工智能原则的第一原则是实现“包容性增长、可持续发展和福祉“通过人工智能。 为了实现这些目标,《社会原则》围绕人工智能提出了七项原则:(1)人类中心的;(2)教育/扫盲;(3)隐私保护;(四)确保安全;(5)公平竞争;(6)公平、问责和透明;(7)创新。应该指出的是,原则 不仅包括隐私和安全的保护要素,还包括指导积极使用人工智能,如教育、公平竞争和创新。 日本的人工智能监管政策就是基于这些社会原则。其人工智能法规可分为两类。(在本文中,“监管”不仅指硬法,还指软法,如 不具约束力的指导方针和标准。): 1.监管在人工智能:与人工智能相关条例来管理风险。 2.监管为人工智能:监管改革,促进人工智能的实施。 如下所述,日本采取基于风险的软法律方法来监管人工智能,同时积极从人工智能监管的角度推进立法改革。 在人工智能调节具有约束力的规定 日本没有普遍限制人工智能使用的规定。根据人工智能管理在日本版本。1.1经济产业省7月发布的报告 2021年全面描述了日本的AI监管政策(AI治理报告)-例如 “目前,对人工智能系统具有法律约束力的横向要求被认为是不必要的。这这是因为监管在跟上人工智能创新的速度和复杂性方面面临困难。一个 在这种情况下,规范性、静态和详细的监管可能会扼杀创新。因此,经济产业省报告的结论是,政府应尊重企业在人工智能治理方面的自愿努力 同时提供不具约束力的指导以支持或指导此类工作。指南应基于以下依据多利益相关方对话,并及时不断更新。这种方法称为 “敏捷治理”是日本数字治理的基本方法。 从特定行业的法规来看,没有一个禁止使用人工智能本身,而是要求企业采取适当措施并披露有关风险的信息。例如,数字平台 透明法案》对大型在线商城、应用商店和数字广告提出要求企业确保与企业用户交易的透明度和公平性,包括 披露决定其搜索排名的关键因素。2的金融工具和交易法要求从事算法高速交易的企业在 政府并要求他们建立风险管理系统并维护交易 记录。从公平竞争的观点来看,日本公平贸易委员会分析了 卡特尔和不公平交易的潜在风险将由算法进行,并得出结论,大多数问题可以由现有的反垄断行为. 其他有关法律 有一些法律没有直接立法人工智能系统,但仍然与人工智能的发展相关。和使用。的采取行动保护个人信息(美国)描述了强制性的关键 收集、使用或传输个人信息的组织的义务。最新修正案的APPI,于2022年生效,引入了假名个人数据的概念。3由于处理假名信息的义务不如个人义务繁重 信息,这一新概念有望鼓励企业使用更多数据进行人工智能开发。 如果人工智能对第三方造成损害,人工智能的开发者或运营商可能要承担侵权责任。民法,如果是疏忽。但是,很难确定在每种情况下谁是疏忽的,因为 AI输出是不可预测的,输出的原因很难确定。4的产品责任 行为减轻了受害者主张侵权责任时的举证责任,但该法仅涵盖损害赔偿产生于有形物体。因此,它可能适用于安装AI的硬件,但 不是人工智能程序本身。 2.法律文本是只能在日本。 3.假名化个人数据被定义为通过删除或替换全部或部分身份来处理的与个人有关的信息个人信息的提供者,除非将其与其他信息(第2.5条). 4所示。看到民法典第709条. 还有其他旨在鼓励开发和部署的相关法规和法律的人工智能,这将在“人工智能法规”部分介绍。 指导私人派对 如上所述,日本没有直接禁止使用AI的法规。然而 如上所述,如果发生事故,运营商可能要承担侵权责任或产品责任由于AI系统而发生。此外,还有一些案例-主要是在隐私领域-人工智能项目由于社会批评而被放弃,不一定是因为它们在 违反现行规定。预计这些需求,政府提供各种工具来帮助企业自愿实施适当的人工智能治理措施。 日本经济产业省的人工智能原则实施治理指南总结了行动目标实施社会原则以及如何通过具体示例实现这些原则。它解释了与利益相关者合作建立和更新AI治理结构的流程 根据敏捷治理框架。 已经发布了一些关于保护和利用数据的准则。这指南关于数字化转型中隐私的公司治理和指南为 利用相机图像,均由经济产业省和内政部共同开发, 通信(MIC),提供有关如何处理隐私数据的指南,而不仅仅是遵守与APPI合作,但也在与利益相关者沟通的基础上采取适当措施。 为了促进人工智能开发和数据传输的公平合同,经济产业省发布了合同利用人工智能和数据指导方针.这些指南解释了进入时的关键法律问题签订数据传输或人工智能开发合同,并附有实际的示范条款。 企业自愿活动 随着政府发布有关人工智能和数据治理的指南,一些私营公司开始采取积极主动的AI治理方法。富士通发表了一篇实践指南显示 开展人工智能伦理影响评估的程序,并发布了其应用于 具有代表性的例子。索尼公司建立了索尼集团AI伦理准则并增加了他们它的质量管理体系。NEC是NEC组AI和人权原则,这 由数字信任业务战略部实施。 工具的研究机构 日本研究机构也提供各种工具来促进人工智能治理。国家 由经济产业省管理的先进工业科学与技术研究所(AIST)提供机器学习质量管理方针基准,建立质量标准 用于基于机器学习的产品或服务。它还为实现通过开发过程管理和系统评估实现质量。 另一个例子是,东京大学未来倡议研究所开发了风险链 模型构建人工智能的风险因素,并正在与私营公司合作进行案例研究。 规定的人工智能 虽然经常讨论上述关于人工智能方面的法规,但该法规为人工智能方面 对于最大限度地发挥人工智能对社会的积极影响同样重要。日本的立法者——基于 适当考虑所涉及的风险——利用监管改革促进人工智能的使用在不同的上下文中。 监管改革的部门 2020年,修订后的《道路交通法》和《道路运输车辆法》生效,允许 3公共道路上的自动驾驶(即有条件自动化)。2021年,本田成为第一个制造商提供合法批准3级车。一个新的修正案允许4级 自动驾驶(即高度自动化)将于2023年4月1日生效。 日本的立法者——基于对 涉及风险——利用监管改革促进使用人工智能在各种语境下的。 在金融领域,分期付款销售行为在2020年修订,使“认证吗综合信用购买中介“,使用数据和人工智能确定信用额度。以前,信用卡公司必须使用考虑到年收入的法定公式,家庭结构,以及评估信贷金额时的其他因素。 在工厂安全方面,2017年建立了“超级认证操作员”系统。高压气体 安全法.工厂操作员必须停止运营并每年进行一次安全检查,但操作员必须停止运营被认证为拥有利用人工智能和无人机的先进安全技术(超级认证运营商)是 允许在不中断操作的情况下进行安全检查长达八年。 的版权法案于2017年进行了修订,以促进数据在机器学习中的使用。这修正案澄清通过互联网或其他方式下载或处理数据 开发人工智能模型不是侵犯版权。此外,2019年对 预防不正当竞争行为保护具有有限访问权限的共享数据,这通常需要 数据集是有偿出售的。未经授权获取或滥用此类数据将受到以下索赔的约束 禁令或损害赔偿。这些独特的规定将帮助AI开发人员使用更多数据进行AI学习。同时保护数据持有人的适当利益。 全面监管Reform-DigitalRincho 许多常规法规要求人工进行目视检查或驻扎在 业务网站。然而,人工智能系统应该能够在一定程度上取代这种人类的合规性。为了解决这个问题,数字Rincho(“仁长”是指特设委员会)是根据 内阁于2021年11月。数字仁曲旨在全面修订可能阻碍 使用数字技术作为建立法规遵从性的手段。约5,000人 关于模拟方法和非人工智能技术的法规将成为审查的目标,其中包括要求书面文件、现场检查、定期检查和专职驻扎。 总结 在人工智能方面的监管方面,日本采取了尊重公司自愿的态度。治理并提供不具约束力的指导方针来支持它,同时施加透明度义务 在一些大型数字平台上。在人工智能监管方面,日本正在推行监管改革, 允许人工智能用于积极的社会影响和实现监管目标。但是,它仍然存在要看什么样的人工智能才能真正满足监管要求。应考虑 鉴于全球标准,这是人工智能监管方面需要国际合作的。 日本在人工智能治理国际合作方面的领导地位 七国集团(G7)国家之间的差异和共同点 正如引言中提到的,人工智能监管是G7领导人最具挑战性的话题之一。所以到目前为止,G7国家的做法似乎分为两类。 第一类人试图采取“全面和基于硬法律”的方法,其中规定了义务——例如,至少在高风险人工智能的治理、透明度和安全性方面,在 违规情况(第1类)。法国、德国和意大利将适用欧盟人工智能法案,可以归入此组。提议AIDA的加拿大也属于这一类。这 第二组采取“针对具体部门和软法律”的方法,力求促进适当的 通过非约束性指导(而不是通过全面的人工智能监管)进行人工智能治理,而要求某些部门具有透明度和数据保护(第2类)。日本和联合王国 属于这一类。美国目前也在这个组中,但可能会更接近 如果《算法问责法》或类似法案在国会通过,则属于第1类。 考虑到这一差距,G7的讨论将集中在“可以进行什么样的合作”上。在采取不同方法的国