您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[CFDI]:为什么人工智能生成的内容标签授权不足 - 发现报告
当前位置:首页/行业研究/报告详情/

为什么人工智能生成的内容标签授权不足

信息技术2024-12-01-CFDI张***
AI智能总结
查看更多
为什么人工智能生成的内容标签授权不足

为什么AI生成的内容标签授权不足 JustynaLisinska和DanielCastro|2024年12月16日 随着人工智能(AI)工具在生成高质量内容方面的能力不断提升,包括文本、图像、音频和视频,批评者担心可能会出现潜在的滥用情况,如传播虚假信息、实施欺诈、侵犯知识产权(IP)以及制造有害的深度假象。一些政策制定者提议要求对所有由AI系统生成的输出进行强制性标注,以便用户能够区分人类生成和AI生成的内容。然而,强制性标注,尤其是通过水印方式,既不是解决问题的有效方法,也不是合理的解决方案。政策制定者应该优先考虑在整个数字生态系统中建立信任,而不是仅仅针对AI生成的内容。 INTRODUCTION 生成式人工智能(GenAI)使用户能够生产高质量的数字内容,如图像 、文本、音乐和视频。这一技术进步丰富了多种创意可能性,提升了工人的生产效率,并提供了新的创新工具。1大多数生成式人工智能系统的输出是有益且无害的,但一些政策制定者对技术潜在的滥用表示担忧 ,包括通过虚构内容传播虚假信息、侵犯由人工智能生成的现有作品复制品引发的知识产权权利、以及创建有害的深度合成内容,如用于延续欺诈或不正当内容(例如未经授权的人工智能生成的裸体图像)的冒充行为。2 政策制定者呼吁对所有AI生成的内容强制标注;然而,这种做法存在严重局限性。而在标签AI- 生成的内容,特别是通过水印技术,可以帮助用户识别一些AI生成的材料。但是,要求所有AI生成的内容都必须进行标识在操作上不切实际且效果有限,原因包括内容的多样性、对操纵的脆弱性以及不同的监管要求。更为重要的是,这样做无法解决政策制定者的主要关切,即虚假信息、知识产权侵权和深度合成内容。3 这份报告首先概述了标记AI生成内容的主要方法,然后强调了全球范围内关键的AI标记法规和倡议。随后,报告分析了为什么尽管某些政策制定者对强制标记持支持态度,但它并不是一个好的政策选择。最后,报告强调了增强所有内容(无论是人类还是AI创造的内容)透明度的重要性,并提出了针对性策略以应对GenAI的恶意使用。与在AI生成内容上强制使用技术复杂且永久性的标签不同,该报告建议通过现有的标准如内容来源和真实性联盟(C2PA)来促进所有在线内容的自愿标签。4 该报告为政策制定者加强对数字内容的信任提供了一些建议 1.通过采用如C2PA这样的已建立行业标准,鼓励自愿为所有数字内容添加标签,并嵌入加密安全的元数据。 2.发起数字、AI和媒体素养宣传活动,使用户能够评估数字内容的真实性与可信度,并就他们消费的内容做出知情决策。 3.针对misinformation、知识产权侵权和深度合成等内容问题,制定针对性的应对措施,而非广泛地将AI内容进行标签化处理。 标记AI生成内容的三种主要方法 数字水印、数字指纹识别以及使用加密元数据都是对AI生成内容进行标识和验证的三种方法。虽然每种方法都提供了某些优势,但也各自存在局限性,突显了在当今数字化生态系统中可靠识别AI生成媒体的复杂性 。 AI水印 这种技术涉及将一个独特的信号(称为水印)嵌入由AI模型生成的输出中(如文本、音频、图像或视频)。水印可以是可见的或不可见的。5用于标记AI生成内容的最有效方法使用的是无形信号,只有专门的软件才能检测到。 是否在一段内容中存在隐形水印通常需要使用专门设计用于该特定水印系统的专用工具。 数字水印受限于在不降低内容质量的情况下能够添加的数据量。故意或无意对内容的操纵也可能移除水印。6用于对AI生成的内容进行水印的技术因媒体而异。考虑一些选项: 文本:在文本块中使用某些单词选择。 .Image:在图像像素中嵌入不可见的数据。 .音频:在音轨中包含难以察觉的信号。 视频:在每一帧中的视频像素内隐藏数据。 不幸的是,这些技术中没有一种能够经受住去除水印的先进方法 。7 数字指纹 数字指纹识别通过基于内容本身生成一个唯一代码(指纹),如像素、视频帧、文本或音频波形,并将该代码与内容的相关信息(例如是否由AI生成、生成日期或生成者)关联起来。用户可以为遇到的内容创建指纹,并检查这些指纹是否存在于可信数据库中。8如果内容被实质上 改变,则数字指纹识别可能失败。9 加密元数据 元数据是指有关内容的数据,例如其创建日期和创建者。10元数据通常嵌入用于常见媒体形式(如图像、音频和视频)的文件中。加密元数据使用加密技术来保护这些信息,以确保信息的完整性和真实性。用户可以检查遇到的内容的加密元数据。然而,元数据可能会无意中或故意被删除。11 标记AI生成内容的推送 标签的目的在于允许用户识别AI生成的内容以防止欺诈和误导。其目标是阻止虚假信息和误导性信息的传播、识别有害的深度假信息,并检测试图冒充人类创作内容的AI生成内容。 全球各国政策制定者提出了各种形式的强制性AI标签要求,often通过水印要求来实现。以下是一些关键的法规和倡议: 欧洲联盟 《AI法案》已于2024年3月正式被欧盟采纳,要求提供人工智能系统的服务商——包括生成合成音频、图像、视频或文本内容的提供商——以机器可读的格式对AI生成或修改的输出进行标注。服务商必须采用“有效 、互操作性强、稳健且可靠”的技术解决方案,同时需考虑每种内容类型的独特特性、实施成本以及最新的技术标准。12 技术解决方案的例子包括水印、元数据标签、用于验证内容来源和真实 性的加密方法、日志机制以及数字指纹。13 UnitedKingdom 人工智能法案,由保守党政府于2024年5月在上议院提出,旨在制定人工智能的法规。尽管该法案未获议会通过,但其中包含了要求提供基于人工智能的产品或服务的企业必须提供清晰且无歧义的标签,包括健康警告,并确保用户有机会给予或拒绝知情同意的规定。14 中国 《互联网信息深度合成管理规定》,于2023年1月10日通过,要求服务提供商对AI生成的内容(包括文本、图像和视频)进行水印标记。1 5它要求公司使用“深度合成”技术(例如,AI生成的视频、声音或图 )在其创建或编辑的内容中添加可见标记(水印)。16 美国 美国有联邦和州关于AI标签的政策,包括以下内容: .拜登总统的行政命令:拜登总统2023年的行政命令要求商务部制定生成人工智能内容的标签指南。人工智能公司将以这些指南为基础开发标签和水印工具,白宫希望联邦机构采用这些工具。17 .OMBM-24-18在2024年9月,美国管理与预算办公室(OMB)发布了备忘录M-24-18,题为“推进政府负责任地采购人工智能”,该备忘录规定,联邦机构在购买用于企业范围内使用的工具时,必须要求供应商实施水印、加密元数据或其他类似的技術解决方案,以标识内容为AI生成,链接到具体使用的人工智能模型,并允许追踪其来源和编辑历史。18 .加州AI透明度法案:这部立法由纽森州长于2024年9月签署,并将于2026年1月1日起生效,要求月活跃用户数超过一百万的提供者必须提供三项主要服务: -免费检测工具:用户可以上传内容(例如图像,视频或音频),以检查其是否由提供商的AI系统生成或更改。 -可见水印:用户可以选择为任何由AI生成的内容添加一个清晰 、可见且永久的标签,从而表明该内容是由AI创建或修改的。 -不可见水印:每条由AI生成的内容将包含一个隐藏且不可移除的标签(即,水印)。该标签将包含提供方名称、AI系统版本、创建或修改的时间和日期,以及一个唯一标识符。19 .AI生成内容法案咨询参议员佩特·里克特(R-NE)于2023年提出了S.2765号法案,该法案要求所有由AI生成的内容必须包含水印,以表明内容是由AI系统创建的。该法案未获委员会通过,若通过将要求联邦贸易委员会制定并执行AI水印标准。20 水印和标签方法的限制 水印无法可靠地识别由AI生成的内容,原因有多个方面。首先,水印容易被剥离,尤其是在对抗性环境中,行为体会主动寻求逃避检测。其次 ,国际上关于水印的法律法规不一致,这意味着来自没有标签规则国家的AI生成内容可以不受任何标记地流通。此外,恶意行为者还可以使用不受监管或开源的AI模型来生成未标记的AI生成内容。因此,缺乏水印并不能保证内容是由人类创作的。 标记AI生成的内容并不能解决政策制定者更为根本的担忧,如虚假信息、知识产权侵权和有害的深度合成。强调使用水印检测AI生成内容的风险在于可能会制造出AI生成内容与人类创建内容之间误导性的区别,而忽视了这两种来源都可能产生有益或有害的内容。 技术限制 水印AI生成内容通常被视为一种确保用户始终能够区分人类创建和AI生成内容的方法,但其面临显著的技术挑战,这些挑战限制了其应用 。 有效性。由于两个主要原因,有效地对AI生成的内容进行水印仍然具有挑战性: 1.容易受到操纵:水印,无论是可见的还是不可见的,都不能防篡改。21可见的水印可以通过基本的编辑轻易移除,而不可见的水印虽然更为坚固,但仍可能通过高级技术遭受降级或移除 。22 2.缺乏标准化:由于每家公司都可以使用与其专有模型紧密关联的独特水印方法,跨平台验证变得具有挑战性。用户需要不同的工具来验证不同公司生成的内容,这会复杂化检测过程并降低可访问性。此外,在没有标准化方法的情况下,不同平台上水印的准确性和一致性检测可能会存在差异。 AI生成内容之外的问题 许多促使人们提议要求标注AI生成内容的原因所基于的担忧,如虚假信息、知识产权侵权和内容操纵等问题,并不仅限于AI生成的内容。标签要求也对导致这些问题的根本因素帮助不大。 错误信息和虚假信息 误导信息(无意中的不准确)和虚假信息(故意传播的错误内容)可以源自由AI或人类生成的内容。将AI生成的内容标记为来源并不能解决误导信息和虚假信息的深层原因,如个人倾向于分享未经验证的内容。此外,将AI生成的内容进行标记无法为用户传播虚假或有害信息的行为提供问责机制,也无法阻止他们歪曲或篡改事实性内容。如果不解决这些深层次的问题,标记可能会成为对一个更为复杂问题的表面解决方案。 侵犯知识产权和失实陈述 标记AI生成的内容以使其与人类生成的内容区分开,并不能防止知识产权侵权的发生。例如,如果有人未经许可使用AI创建一个与他人受版权保护的作品高度相似的图像,这种AI生成的内容可能构成版权侵权。但这种侵权行为与人类艺术家手动创作侵犯知识产权的作品并无本质区别 。 强制实施标签要求也无法解决有些人可能会将AI生成的内容冒充为自己作品的问题。 例如,学生将AI生成的论文冒充为自己创作的成果,或者创作者夸大自己对最终作品原创贡献的程度。在这些情况下,没有理由区分使用了AI工具与未使用AI工具的个人,也没有理由期望仅针对AI工具的解决方案能够解决这类欺骗行为的根本动机。 Deepfakes 水印标记假新闻可能有助于识别某些由人工智能生成的音频、照片和视频,但并不能解决其创建和传播背后的恶意意图,尤其是在政治领域。在政治领域,恶意行为者可能会使用假新闻来虚假地展示公众人物说或做他们从未做过的事情,目的是影响公众意见或干预选举。即使有水印标明该视频是由人工智能生成的,这些人仍然可以将其传播以误导观众,依赖于许多人会忽视或误解水印的可能性。同样,当假新闻的目的是羞辱或骚扰某人时,即使水印成功地提醒大多数人内容是由人工智能生成的,假新闻仍可能达到预期的效果。此外,利用生成式人工智能(GenAI)并不是产生具有欺骗性的、看似真实的媒体的唯一方式。个人可以手动创建具有欺骗性的媒体,例如语音模仿录音假音频,或者使用非人工智能数字工具,如图像编辑软件来创建误导性的图像。 人工智能和人类内容之间的误导性区别 对AI标注的重视制造了AI创建内容与人类创建内容之间的虚假区别,忽视了人类创建的内容可能具有危害性而AI创建的内容也可能无害这一事实。这种做法可能会无意中使受众对AI生成的内容产生偏见,促使他们仅基于内容的来源而非其实际可信度来质疑其可靠性。 例如,有人可能使用AI系统生成一份详实准确的报告,但“AI生成”的标签可能会使读者拒绝信任这份报告,