知识产权和前沿技术概况介绍 生成式人工智能 知识产权导航 生成式人工智能(AI)工具正在快速地被许多企业和组织应用于内容生成。这类工具既为协助企业运营提供了大量机会,又由于当前的各种不确定性而带来重大的法律风险,包括知识产权问题。 许多组织正在寻求制定指导性意见,以帮助员工降低这些风险。尽管每种业务情况和法律背景各不相同,以下指导原则和清单旨在帮助各组织了解知识产权风险,提出恰当的问题,并考虑潜在的保障措施。 生成式人工智能带来众多风险和问题。企业和组织应考虑实施适当的政策,并就此项技术的机遇和局限性向员工提供培训。这种积极主动的方式在应对与使用生成式人工智能相关的挑战中至关重要。 什么是生成式人工智能? 生成式人工智能工具可以根据用户的提示(比如对期望输出的简短书面描述)创建文本、计算机代码、图像、音频、声音和视频等新的内容。目前生成式人工智能工具的实例包括ChatGPT、Midjourney、Copilot和Firefly。 生成式人工智能以机器学习为基础,生成式人工智能工具则使用大量数据进行训练,这类数据通常包括数十亿页的文本或图像。训练数据集可由免费获取且无产权负担的信息(纯数据)、受保护数据(比如受版权保护的作品)或两者混合组成,具体取决于人工智能工具开发人员所采用的方式。 图:GettyImages/LaurenceDutton 然后,经过训练的人工智能工具受到人工输入的提示,触发通常高达数十亿次的一系列复杂计算,以确定输出。一般来说,无法预测输出,也无法确定训练数据的某些部分是否以及在多大程度上影响所产生的输出。 图:GettyImages/imaginima 问题概述 开发生成式人工智能的成本可能非常高昂,可达到数千万美元,大多数企业和组织都选择采用第三方生成式人工智能工具,或者使用自己的数据对此类模型进行微调。一般存在的问题和企业风险包括: 确定用例生成式人工智能可以执行许多任务,最佳用例仍在不断发展中,不同企业和组织的情况将会各不相同。 合同条款的差异生成式人工智能工具是新生的,商业合同条款的最佳实践和规范仍在发展中。开发人员许可其人工智能工具的条款可能存在相当大的差异,包括商业秘密和其他机密信息的处理方法、输出的所有权、赔偿的可获性以及用户通过实施员工监测和训练来缓解风险的义务。 训练数据问题一些生成式人工智能工具使用从互联网上抓取的材料进行训练,包括版权作品、个人信息、生物识别数据以及有害的非法内容。关于材料的抓取、下载和处理、受过训练的人工智能模型及其输出是否涉及侵犯知识产权、隐私和合同,这方面的诉讼尚在进行中。有关知识产权所有人和人工智能开发者之间利益平衡的争论仍在继续。 输出问题生成式人工智能可能会产生不适当或非法的输出,包括不正确的信息、知识产权侵权、深度伪造、个人信息、诽谤性指控以及有偏见的歧视性和有害内容。技术保障措施正在制定,但鉴于相关计算的复杂性,预测人工智能在所有情况下的行为是一件棘手的事情。此外,大多数国家的知识产权法是在人工智能出现之前制定的,导致在人工智能输出的权利归属方面存在不确定性。 改变监管环境政府和监管机构正在考虑为生成式人工智能制定新的法律、法规、政策和指导方针。这些法律、法规、政策和指导方针可能会对使用生成式人工智能的企业和组织提出要求。中国已出台具体法规,欧盟打算不久也实施相关法规。 该问题清单并非详尽无遗,可能还有许多其他挑战,包括训练和使用生成式人工智能的高耗能特性。 联合国教科文组织、经合组织和人工智能全球伙伴关系等许多国际组织就负责任地使用人工智能的一般原则发布了指导意见。企业和组织应针对生成式人工智能考虑实施员工政策和培训,以鼓励进行负责任的实验和使用。 生成式人工智能和知识产权 生成式人工智能有许多知识产权方面的接触点和不确定性。虽然不可能彻底缓解这些知识产权风险,但以下因素可能有助于在这一不断演变的技术领域中引导知识产权方面的考虑。 机密信息 图:Unsplash/Googledeepmind 机密信息是指不能公开获得的、可能具有也可能不具有商业价值,且在私下交流和受到合理保护的信息。它包括商业秘密,这是一种具有(潜在)经济价值或因其秘密性而可以提供竞争优势的机密信息。 如果使用生成式人工智能工具的企业和组织将商业敏感信息用于人工智能工具的训练或提示,则可能会无意中泄露商业秘密或放弃对商业敏感信息的保密。它们应该考虑并用技术、法律和实际保护措施,防止发生这种情况。 风险 生成式人工智能工具可以保存用户提示并基于用户提示进行训练。如果用户提示中包含机密信息,由于人工智能供应商拥有机密信息的副本,且机密信息可能 缓解办法 检查生成式人工智能工具的设置,尽量减少供应商存储或利用你的提示进行训练的风险。 考虑使用在私有云上运行和存储的生成式人工智能工具。 成为与其他用户公开共享的模型 和输出的一部分,机密信息就会丧失机密性。 当企业和组织从零开始训练生成式人工智能工具或使用其机密信息微调现有工具时,存在着信息被公众获取的风险。 黑客可以使用“提示注入”等技术提取训练数据,包括机密信息。 图:GettyImages/Floriana 私人生成式人工智能工具的供应商可能会监测和存储提示,以检查不当使用的行为。在某些情况下,可能由供应商的员工审查提示。 检查人工智能工具的供应商是否会存储、监测和审查你的提示。就任何机密信息向供应商寻求适当的保护和保证。 将使用机密信息的生成式人工智能工具的访问权局限于被授权获取该信息的员工。 实施员工政策,并就提示中包含机密信息的风险提供培训。 考虑让信息安全专家审查和监测生成式人工智能工具。 知识产权侵权 许多生成式人工智能工具都是基于大量(有时是数十亿)受知识产权保护的项目进行训练的。现有几起正在进行的法律纠纷,它们指控抓取和使用这些作品来训练人工智能、受过训练的人工智能模型及其输出属于知识产权侵权行为。这些案件主要聚焦于版权和商标,但从理论上讲,也可能涉及其他知识产权权利,比如工业品外观设计、数据库权利和专利发明。 人工智能工具及其训练、使用和输出是否构成知识产权侵权,在法律上存在很大的不确定性。不同司法管辖区可能会给出不同的答案。企业和组织应该考虑通过使用符合知识产权规范的工具,尽可能寻求赔偿,审查数据集,并实施技术和实际措施来减少侵权的可能性,从而降低风险。 风险 对于判定使用受知识产权保护的项目训练人工智能、使用此类受过训练的人工智能模型及其生成的输出是否构成知识产权侵权,世界各地均有未决诉讼。 风险不仅限于人工智能开发人员,还可能延及生成式人工智能工具用户。在许多国家,各种形式的知识产权侵权责任(比如复制版权作品)并非取决于被控侵权人的意图或认知。 图:GettyImages/kumpmanelectric 法院尚未解决生成式人工智能开发人员、供应商、客户和用户是 缓解办法 考虑使用仅基于许可、公有领域或用户自己的训练数据所训练的生成式人工智能工具。 在选择一款人工智能工具时,要考虑是否有供应商愿意为知识产权侵权(特别是版权侵权)提供赔偿。评估赔偿的范围和适当性。例如,保护可能仅限于第三方赔偿,并以遵守合同限制和实施缓解风险为条件。 在训练或微调生成式人工智能时,彻底审查数据集。核实知识产权所有权、人工智能训练的许 否可对知识产权侵权、赔偿款以及销毁侵权模型或输出承担责任的问题。尚不清楚法院是否会认为下令禁用基于受知识产权保护项目进行训练的人工智能模型是适当的。 关于潜在的版权侵权问题,一些国家的知识产权法包括可能适用于生成式人工智能的例外情况,例如正当使用、文本和数据挖掘以及临时复制。但是,各国之间缺乏协调统一,以及这些例外对生成式人工智能的适用仍是未知数,由此带来了不确定性。 即使法院已作出判决,这些也可能取决于具体的案情以及国家法律的规定。 可范围,以及遵守知识共享许可协议或公有领域地位的情况。确保在预定的司法管辖区采取适当的版权例外。 请注意,监管机构正在考虑对用于模型训练的、受知识产权保护的项目履行细节披露的义务。考虑保存记录,记载人工智能模型是如何接受训练的。 实施员工政策和培训,以尽量减少产生侵权输出的风险。告诫不要使用提及第三方企业名称、商标、版权作品或具体作者/艺术家的提示。 使用输出之前,考虑采取措施检查侵权行为。这些可能包括抄袭检查程序、图片搜索和自由实施审查。 根据具体情况评估缓解措施、相关成本和业务风险。 图:GettyImages/LaurenceDutton 开源义务 人工智能生成的代码可能会受到开源义务的约束。当一个软件应用或代码是开放源代码时,意味着该源代码对公众开放,用户通常被授予使用、修改和分发该软件的特定权利和自由。不过,这些权利和自由伴随着用户必须遵守的义务,例如署名问题,并且这些义务根据管理软件的特定开源许可不尽相同。 企业和组织应考虑这种风险是否与其代码相称,调查潜在的补偿,并实施技术和实际措施,以减少开源义务产生的可能性。 风险 生成式人工智能可基于符合开源要求的代码进行训练,因而可能会违反关于商业使用或署名的限制条件等义务。在美国,一直有这方面的法律纠纷。 一些开源许可证规定,含有开源代码的任何代码都要遵守同一个开源许可证的要求。因此,集成人工智能生成代码的用户可能会无意中将开源义务引入其项目。 缓解办法 考虑从专门基于许可示例进行训练的供应商处获取生成式人工智能工具,或者实施技术保障措施,例如发现相关开源许可。 考虑从提供开源侵权赔偿的供应商处采购生成式人工智能工具。检查保护的范围和适当性以及适用条件。 在训练或微调生成式人工智能工具时,彻底审查训练数据,以获得足够宽松的许可。 图:Unsplash/hugobarbosa 在编码中使用生成式人工智能时采用风险收益法。如果确保代码不受开源义务的约束至关重要,则应考虑禁止供应商和员工就这些项目使用生成式人工智能。 深度伪造:肖像权和声音权 肖像和声音在许多国家都受到保护,但这种保护并不统一。保护的形式包括一些知识产权权利(比如普通法系国家的假冒)、不正当竞争法、人权、宪法权利和公开权。 生成式人工智能具有模仿特定人物的肖像或声音的潜力,因为有些工具专门为此而设计。企业和组织应该考虑到与这些功能相关的风险。 风险 未经授权使用或模仿某个人的声音或肖像可能导致侵犯知识产权或其他权利,并因各司法管辖区的法律框架不统一而带来挑战。 模仿肖像和声音还可能面临名誉受损或法律诉讼的风险,例如欺诈或诽谤。许多国家正在考虑针对深度伪造制定具体的法律法规。例如,中国已经通过了适用于“深度合成”的法规。 缓解办法 制定员工政策,并提供明确限制使用“深度伪造的”生成式人工智能工具的培训。对于经批准的生成式人工智能工具,实施禁止在提示中提及特定个人的政策。 在有合法的商业理由合成某个人的声音或肖像的情况下,要获得主体的必要同意和许可。 图:GettyImages/SIphotography 人工智能输出的知识产权权利和所有权 尚不明确人工智能工具生成的新内容(比如文本、图像或其他创意作品)是否受到知识产权权利保护,以及如果受到保护,谁拥有这些权利。即使人工智能输出不受知识产权保护,可能还有约束其使用的合同条款。 生成式人工智能输出中的知识产权权利的存在和所有权尚不清楚。企业和组织应该寻求在合同中明确所有权,只有在输出中的知识产权所有权对其业务模式并非至关重要的情况下才考虑使用生成式人工智能。 风险 大多数国家的知识产权法在编写时都没有考虑到生成式人工智能,导致不确定人工智能输出中是否可以有知识产权以及谁将拥有任何此类权利。对于像商标这样的一些知识产权权利来说,这可能不算问题,但对于版权而言,这是一个广泛关注的问题。 最近,将人工智能系统“DABUS”命名为发明人的专利