您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[bruegel]:欧盟人工智能法案:监管过早还是早熟?(英)-2024. - 发现报告
当前位置:首页/行业研究/报告详情/

欧盟人工智能法案:监管过早还是早熟?(英)-2024.

信息技术2024-03-07-bruegel邵***
欧盟人工智能法案:监管过早还是早熟?(英)-2024.

分析 2024年3月07日 欧盟AI法案: 过早或早熟的调节? 目前,尚不清楚该法案是否会刺激负责任的人工智能使用或抑制创新。 BertinMartens 世界各国政府正在制定法规,以应对人工智能(AI)的感知风险。美国发布了AI行政命令1英国政府发布了一 份不具约束力的原则宣言2中国实施了一项对商业友好的人工智能法规,主要是为了加速技术进步的信号(Zhang ,2024)。欧盟委员会于2021年4月提出了《欧盟人工智能法案》,商定的最终版本将于2024年4月在欧洲议会和理事会正式批准。 欧盟AI法案旨在做什么? 该法案本质上是一项产品安全法规,旨在降低使用人工智能系统给人类带来的风险。产品安全法规适用于单一目的产品;可以评估该目的应用的风险。许多老一代AI系统都是针对单个应用程序进行训练的。问题来自最新的通用大型语言模型和生成AI系统,如OpeAI的ChatGPT,Meta的Llama或Google的Gemii,这些模型可以用于几乎无限范围的目的。很难评估所有风险并为所有可能的用途设计法规。《人工智能法》试图以避免损害人类基本权利的一般义务来解决这一问题。根据该法案在欧洲议会的共同建筑师之一,这种产品安全和基本权利标准的监管组合不适合人工智能模型。3. 数字经济、劳动力市场、技能和健康 有限的风险系统仅受透明度和用户意识义务的约束,如聊天机器人和AI媒体输出的水印。 同时,禁止被认为具有不可接受风险的系统。这些系统包括远程生物识别和分类,面部识别数据库和社会评分-出于医疗和安全原因的例外,这些都需要司法授权和对基本权利的尊重。人工智能法案的大部分重点是在有限风险和不可接受风险之间对高风险人工智能系统进行监管。这些是单一或有限用途的人工智能系统,在教育、就业、公共服务等方面与人类互动。该法案包含一套复杂的规则和要求,以评估是否以及在什么条件下可以使用高风险系统。 除了高风险的AI系统,还有通用AI(GPAI)模型。这是指大型语言和生成AI基础模型4这些被认为是通用的 ,因为它们可以应用于广泛的任务。GPAI提供商必须提供技术文档和使用说明,除非它们是开放许可证模型,用户可以根据自己的目的进行调整。用于培训的数据必须简要记录,并且必须符合欧盟版权指令。在法律中,当用于训练的计算能力超过10个触发器(浮点运算)时,GPAI模型就成为系统风险模型。 系统风险GPAI模型的提供者必须进行模型评估和对抗测试,提供用于避免有害应用程序的指标,报告事件并确保网络安全保护。当前可用的模型未达到该阈值5但是,可能在2024年发布的下一代AI模型可能会超过阈值。最终,它可能会捕获所有新的大型AI模型。 AI模型中的基本人权保障和风险 AI社区在以人为中心的AI以及AI模型响应与人类价值观的“对齐”方面投入了大量精力,避免了歧视和有害响应 。这与当代针对种族,性别,性和宗教歧视的多样性,公平和包容性辩论相吻合。一些公司在这方面竭尽全力。谷歌训练了双子座AI模型,将种族多样性置于历史正确性之上。6。但是还有许多其他的歧视标准 经常使用。例如,价格和收入歧视在用于更好地针对经济服务和补贴时可能是福利提高或剥削性的。允许或禁止它的规则肯定会在一个方向或另一个方向上犯错误。这提出了一个问题:我们应该与谁的价值观、危害和利益保持一致?人工智能已经被用于国防和战争:这是一个以人为中心的应用吗? GPAI开发人员试图通过将“护栏”构建到模型中来确保对人类价值的尊重。但是,有很多方法可以规避这些护栏7 ,通过操纵训练数据伪造输出的中毒攻击,通过预先打包的提示引入恶意代码,破坏AI系统计算能力的海绵攻击,揭示不应该被披露的隐藏数据的推理攻击或通过人眼看不见的视觉错觉进行欺骗攻击。一些开发人员试图为模型建立“宪法”护栏,以自我检查他们的回应是否遵守义务。8. 开放式GPAI模型更容易出现漏洞来规避护栏。但开放性可能会刺激创新应用和新的创收业务模式,这对小型人工智能公司尤其重要,因为这些公司没有完善的业务环境,可以让他们的模型发挥作用。《人工智能法案》让开放模型的开发人员免于承担任何风险,除非他们代表系统性风险,因为他们免除了测试义务,并将责任转嫁给可以修改这些模型行为的重新开发人员和部署人员。当互补应用程序提供商的许多层进行交互时,跟踪法规遵从性会更加困难。 较小的模型也逃避了严格的AI法案义务,因为它们不符合计算能力阈值。除了降低培训成本外,这项豁免还降低了监管合规成本。虽然它们在应用范围内可以像更大的模型一样通用,但它们通常给出不太准确的回复,除非它们从提示和用户数据集收到额外的指导。因此,较小的模型并不一定意味着较低的风险。 人工智能法案要求大型模型开发人员向下游部署人员和服务提供商解释给定模型如何交互,或者如何与不属于该模型的硬件或软件交互。这是一项非常笼统的规定,需要通过实施法案进一步澄清。它提出了有关GPAI模型和之间的纵向和横向集成的有趣问题。 在AI法案的背景下,补充服务以及这些各方的责任。当在线旅游服务平台引入AI应用程序以改善消费者服务时 ,部署者是谁:应用程序提供商还是平台? 可能有几层部署人员-人工智能法案目前未涵盖这一问题,但在实施指南时需要解释。 AI法案的不完整性无法为AI开发人员和部署人员提供法律确定性。此外,它产生了高昂的合规成本,特别是对于可能发现欧盟监管环境成本过高和风险过高的中小企业和初创企业9. 然而,该法案为欧盟委员会及其新成立的人工智能办公室的进一步监管工作奠定了基础。Office将注册并验证AI开发人员发送的通知。然而,该办公室将面临有限的资源,需要一段时间才能跟上进度。它将必须制定十多个详细的实施法案和指南,包括有关AI系统定义的授权法案,进一步阐明高风险AI系统的标准,调整具有系统性风险的通用AI模型的阈值,指定通用AI和符合性评估的技术文档要求,并为通用AI模型的提供商发布行为准则。 此外,它可以“在必要时”澄清禁止的AI实践,对高风险系统的要求和透明度义务。这可能会扩大或收紧AI模型开发人员可以在欧盟运营的监管空间。 AI法案与竞争 现在有几十个大型人工智能基础模型和许多较小的模型。数字呈指数级增长。人工智能开发人员之间存在激烈的竞争 ,但还没有出现垄断看门人的迹象,除了可能在人工智能计算基础设施层面上,大型科技公司显然占主导地位。 欧盟目前还没有大型AI模型。监管机构可能会指望人工智能法案的“布鲁塞尔效应”:如果其他国家采用类似的法规,它将创造公平竞争的环境,并削弱开发商规避监管合规成本并转移到其他地方的动机。此外,布鲁塞尔的信心印章可能会使AI模型更具吸引力和竞争力。然而,大型模型的严格和昂贵的监管条件可能会进一步巩固小型AI开发人员在利基市场中的地位,因为小型模型仍然低于系统性风险的监管雷达,但也远离技术前沿。 人工智能技术的竞争政策影响在现阶段还不清楚。前沿模型的开发和培训耗资数亿美元,通常是AI初创企业无法企及的。包括Google,Meta,Microsoft和Amazo在内的大型科技公司已经利用其广泛的云计算基础设施来开发自己的大型AI模型。通常由前大型科技员工创建的初创企业更具创新性,更接近AI技术前沿。然而,他们需要与大型科技公司的密切合作协议,这些公司提供昂贵的计算基础设施和数据,以换取对该模型的访问。法国AI初创公司Mistral和微软最近达成的协议说明了这一点。10。这些协议没有合并。竞争管理机构已经开始研究OpenAI和微软之间合作的性质11较小的AI模型在多大程度上可以与较大的公司和模型竞争,这些模型在多大程度上足以完成广泛的任务,仍然是一个悬而未决的问题。 《人工智能法案》只关注对独立大型人工智能模型的监管。但是,分散式AI生态系统的迅速出现,即AI模型通过应用程序和插件与互补和竞争的平台和软件进行越来越多的交互,这意味着无法通过关注单个模型来评估系统性风险 ;人们需要查看整个系统。风险在开发人员、部署人员和用户之间转移。在扭曲市场之前,模型和其他系统组件之间可以允许多少纵向和横向互补和整合?。 有一个蓬勃发展的专门构建的ChatGPT应用程序生态系统12通过大量的自然语言提示和适当的数据集来增强模型性能,从而指导其在专业领域中的答案。GPAI模型正在成为操作系统,部署人员和最终用户可以在其上为特定应用程序构建自己的应用程序。插件使其能够连接到现有的平台和软件,例如探索旅行,电子商务和其他服务,或执行专门的计算和服务。人工智能应用商店最终可能会超过具有通用服务应用的智能手机应用商店。 AI和版权 训练模型需要大量的数据输入,包括从网页收集的文本,扫描的文档和书籍,从网络收集的图像,电影中的视频 档案,音乐收藏中的声音。其中大部分受版权约束。欧盟版权指令13包括用于文本和数据挖掘目的的版权保护的例外 ,前提是用户具有对输入的合法访问权限(例如,没有付费墙的黑客攻击)。版权持有人可以选择退出例外并收取费用。几家新闻出版商已经与有能力支付费用的大型科技AI开发商达成了许可协议。人工智能初创企业正在等待几起未决法院案件的结果,这些案件应该澄清对人工智能应用版权法的解释,包括在美国应用“变革性使用”版权原则 。许可的数据集可以具有更高的质量并降低培训成本。但它们也可能减少可用训练数据集并导致有偏差的训练。此外,在培训投入上授予版权使版权所有者的私人利益能够利用人工智能模型对更广泛的社会福利影响,人工智能模型正在迅速成为一种通用技术,在经济的所有部门都被使用,远远超出了对版权有私人利益的创意媒体行业 。 使用AI的创意艺术家开始对输出主张版权。AI法案规定,AI视听和文本输出应具有机器可读的水印,以将其与人类输出和深度假货区分开。水印技术仍处于早期阶段,很容易被规避14当AI仅帮助人类时,水印义务不适用 。在大多数国家/地区,只有人类输出可以主张版权,而机器输出则不能主张版权。在混合输出中要求版权需要多少人类贡献?单行人工编写的“提示”可能还不够,但是中国法院最近将版权授予了一组复杂提示的开发人员(Wag和Zhag,2024)。这些问题表明欧盟版权指令可能需要重新思考。15. 目前的《欧盟人工智能法案》只是漫长监管过程的开始。它将责任委托给委员会及其新成立的AI办公室,以起草应对这些挑战的实施法案和准则。这些将推动该法案的执行,并确定它将在多大程度上成为刺激值得信赖的人工智能创新或过早扼杀创新的监管的早熟工具。 参考文献 Wang,Y.和J.Zhang(2024)“北京互联网法院首次授予AI生成的图像版权”,Kluwer版权博客,可用在https://copyrightblog.kluweriplaw.com/2024/02/02/beijing-internet-court-grants-copyright-to-ai-generated-image-for-the-first-time/ Zhang,A.(2024)“中国对人工智能的监管的承诺与危险”,香港大学法学院研究论文2024/02,可在 https://ssrn.com/abstract=4708676 尾注 1见https://www.whitehouse.gov/简报室/声明- oreleases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trusted-artificial-intelligence/ 2见https://www.gov.uk/government/publications/ai-safe-summit-2023-the- 。布莱奇利宣言/布莱奇利国家宣言-出席国际安全峰会-2023年11月1-2日 3KaiZenner,“对欧盟AI法案的一些个人思考:苦乐参半的结局”,16 o2024年2月,可在https://www.linkedin.com/pulse/some-personal-reflec