生成AI的影响和前进道路 2023年5月 贡献由 格兰特·弗格森·凯特罗娜·菲茨杰拉德·克里斯·弗拉塞拉·梅根 ·约里奥 TomMcBrienCalliSchroederBenWintersEnidZhou 编辑者 格兰特·弗格森、卡利·施罗德、本·温特斯和伊妮德·周 感谢SarahMyersWest和KatharinaKopp对本文早期草稿的慷慨评论。 关于本文的注释: 这是本文的第1版,反映了截至2023年5月15日的生成性AI的记录和预期危害。由 于生成性AI的开发,使用和危害的快速变化,我们要承认这是一个固有的动态论文 ,可能会在未来发生变化。 在本文中,我们使用标准格式来解释生成AI可能产生的危害的类型。每个部分首先解释相关的背景信息和生成AI带来的潜在风险,然后重点介绍学者和监管机构为补救每种危害而采取的具体危害和干预措施。本文借鉴了 A.I.危害来指导我们的分析: 1.DanielleCitron和DanielSolove的隐私危害类型学,包括身体,经济,声誉 ,心理,自治,歧视和关系危害;1and 2.JoyBuolamwini的算法危害分类,包括机会损失,经济损失和社会污名化,包括失去自由,增加监视,刻板印象强化和其他尊严伤害。2 这些分类法不一定涵盖所有潜在的人工智能危害,我们使用这些分类法的目的是帮助读者可视化和情境化人工智能危害,而不限制读者考虑的人工智能危害的类型和种类。 目录 Introduction OpeAI决定发布基于大型语言模型GPT-3的聊天机器人ChatGPT,去年11月将AI工具推向了公众意识的最前沿。在过去的六个月中,用于根据用户提示生成文本,图像,视频和音频的新AI工具大受欢迎。突然间,像“稳定扩散”、“幻觉”和“价值对齐”这样的短语无处不在。每天都有关于生成AI的不同功能及其潜在危害的新故事出现,但没有任何明确的迹象表明接下来会发生什么或这些工具会产生什么影响。 虽然生成人工智能可能是新的,但它的危害不是。人工智能学者多年来一直在警告我们大型人工智能模型可能导致的问题。3这些老问题因行业目标从研究和透明度转向利润、不透明度和权力集中而加剧。这些工具的广泛可用性和炒作导致了个人和大规模伤害的增加。人工智能复制了种族、性别和残疾歧视,这些危害在本报告强调的每一个问题中都密不可分。 OpeAI和其他公司决定将生成AI技术快速集成到面向消费者的产品和服务中,这破坏了使AI开发透明和负责任的长期努力,使许多监管机构争先恐后地为后果做准备。很明显,生成人工智能系统可以显著放大个人隐私以及民主和网络安全的风险。用OpeAI首席执行官的话说 ,他确实有权不加速这项技术的发布,“我特别担心这些模型可能被用于广泛的错误信息……[和]攻击性网络攻击。.” Introduction 在没有足够保障措施的情况下,生成性人工智能系统的快速部署清楚地证明了自我调节已经失败。从公司到媒体和政府实体的数百个实体正在开发并希望将这些未经测试的AI工具快速集成到各种系统中。如果从一开始就没有必要的公平性、问责制和透明度保护,这种快速推出将产生灾难性的结果。 我们正处于一个关键时刻,因为全球的政策制定者和行业都在关注人工智能带来的巨大风险和机遇。有机会让这项技术为人们服务。应该要求公司展示他们的工作,明确人工智能何时在使用,并在整个培训、开发和使用过程中提供知情同意。 公众关注的一条线索集中在人工智能的“存在性”风险上——投机性的长期风险,在这种风险中,机器人在工作、社交和最终接管人类的过程中取代了机器人。“州和联邦一级的一些立法者已经开始更认真地对待解决人工智能问题-然而,他们的重点是否只会放在支持公司开发人工智能工具上,并要求边际披露和透明度要求,这还有待观察。对高风险用途制定明确的禁令,解决虚假信息容易传播的问题,要求有意义和积极的披露,以促进知情同意,并加强消费者保护机构,对于解决生成性人工智能特有的危害和风险是必要的。本文致力于提供使用生成人工智能带来的不同问题的广泛概述,教育立法者和公众,并提供一些减轻伤害的途径。 -BenWinters,高级律师 涡轮增压信息操纵 背景和风险 免费和低成本的生成AI工具的广泛可用性促进了大量文本,图像,语音和视频内容的传播。人工智能系统创建的许多内容可能是良性的,或者可能对特定受众有益,但这些系统也会促进极其有害的内容的传播。例如,生成性AI工具可以并且将用于传播虚假,误导性,偏见,煽动性或危险的内容。随着生成性人工智能工具变得越来越复杂,生成这些内容将更快、更便宜 、更容易——现有的有害内容可以作为生成更多内容的基础。在本节中,我们考虑了人工智能工具会加速的五类有害内容:诈骗、虚假信息、错误信息、网络安全威胁以及点击诱饵和监控广告。尽管我们在虚假信息(虚假信息的有目的传播)和错误信息(虚假信息的无目的传播或创建)之间进行了区分,但人工智能生成的内容的传播将模糊使用人工智能生成的内容的各方的界限,而无需首先编辑或事实检查它。使用AI生成的输出而不进行尽职调查的实体应与生成该输出的实体共同对其造成的损害负责。 案例研究-选举2024 使用GPT-4和后续大型语言模型的产品可以创建快速而独特的人类“脚本” ,可以通过文本,电子邮件,打印或通过与AI视频生成器结合的AI语音生成器进行分发。这些人工智能生成的脚本可用于劝阻或恐吓选民,或传播有关投票或选举的错误信息。例如,在2022年,至少有五个州向选民发送了故意错误的投票信息的短信。这种类型的选举错误信息近年来变得很普遍,但生成性人工智能工具将增强不良行为者快速传播可信的选举错误信息的能力。 国会必须制定立法,防止故意的选民恐吓,威慑或通过虚假或误导性信息以及虚假的认可主张进行干预。 SCAMS 诈骗电话、短信和电子邮件早已失控,在许多方面伤害了公众。仅在2021年,就有280万消费者向联邦贸易委员会提交了欺诈报告,索赔超过23亿美元的损失,近140万消费者提交了身份盗窃报告。4生成性AI可以使用AI生成的文本,语音和视频来加速这些各种骗局的创建,个性化和可信度。AI语音生成还可以用于模仿亲人的声音,打电话要求立即获得保释,法律帮助或赎金的经济援助。5 根据EPIC和国家消费者法律中心2022年的一份报告,每月有超过10亿次针对美国电话的诈骗电话,这导致了2020年6月至21日期间近300亿美元的消费者损失-最常见的目标是弱势社区,如老年人,残疾人和负债累累的人。6这些骗局是大规模进行的 ,通常使用自动语音讲脚本 由像ChatGPT这样的文本生成器生成,旨在假装他们是恐吓消费者汇款的权威人士。2022年,估计消费者损失增加到395亿美元,7联邦贸易委员会报告说,仅骗局文本就损失了超过3.26亿美元。8 自动拨号器,机器人文本,机器人电子邮件和邮件,再加上出售数字或电子邮件地址列表的数据代理,使实体能够一次发送大量消息。同样的数据经纪人可以出售作为潜在目标的人的名单 ,以及关于他们的心理健康状况,宗教信仰或可以利用的性行为的“见解”。数据经纪人被允许对个人使用的定位程度加剧了人工智能产生的伤害。 文本生成服务还增加了成功的网络钓鱼诈骗和不良行为者干扰选举的可能性。这已经发生了-在2021年的一项研究中,研究人员发现GPT-3生成的网络钓鱼电子邮件比人为生成的电子邮件更有效。9生成人工智能可以通过帮助英语技能有限的人制作自然而准确的电子邮件来扩大潜在有效的欺诈者的范围,这些电子邮件可以针对员工、情报目标和个人,从而使检测骗局变得更加困难。 DISINFORMATION 不良行为者还可以使用人工智能工具来制作适应性强的内容,这些内容旨在支持竞选活动、政治议程或仇恨立场,并在许多平台上快速、廉价地传播这些信息。这种虚假或误导性内容的快速传播——人工智能促进的虚假信息——也可能对生成人工智能产生周期性影响:当大量的虚假信息被注入数字生态系统,并且更多的生成系统通过强化学习方法对这些信息进行训练时,例如,虚假或误导性的输入可能会产生越来越不正确的输出。 使用生成性人工智能工具来加速虚假信息的传播可能会助长影响公众舆论,骚扰特定个人或影响政治和选举的努力。虚假信息增加的影响可能是深远的,一旦传播就无法轻易抵消;考虑到信息披露给民主进程带来的风险,这一点尤其令人担忧。 错误信息 文本生成的大型语言模型(如Bard或ChatGPT)输出不准确的现象已经被广泛记录。即使没有撒谎或误导的意图,这些生成性人工智能工具也会产生有害的错误信息。AI生成的文本遵循的抛光且通常写得很好的风格以及真实事实之间的包含加剧了这种危害,这可能使虚假具有合法性。例如,正如《华盛顿邮报》报道的那样,一名法学教授被列入人工智能生成的“性骚扰某人的法律学者名单”,即使没有这样的指控。10正如普林斯顿大学教授ArvindNarayanan在接受TheMarkup采访时说的那样: SayashKapoor和我称它为废话生成器,其他人也是如此。我们的意思不是在规范意义上,而是在相对精确的意义上。我们的意思是说,它经过训练可以产生合理的文本。它非常善于说服,但它没有经过训练可以产生真实的陈述。它通常会产生真实的陈述,这是合理和有说服力的副作用,但这不是目标。11 人工智能生成的内容也牵涉到一个更广泛的法律问题:我们对所见所闻的信任。随着人工智能生成的媒体变得越来越普遍,我们被欺骗相信虚构的东西是真实的情况也会变得越来越普遍12-或者真实的东西是虚构的。13当个人不再信任信息,并且新信息的生成速度超过了检查准确性的速度时,他们能做什么?像维基百科这样的信息源可能会被虚假的人工智能生成的内容淹没。这可以 通过诱使目标在例如他们的亲人处于危机中的假设下采取行动,在有针对性的情况下是有害的。14 SECURITY 上述相同的网络钓鱼问题构成了安全威胁。虽然聊天机器人还不能从头开始开发自己的新型恶意软件,但黑客可能很快就会利用像ChatGPT这样的大型语言模型的编码能力来创建恶意软件,然后可以对其进行微调以获得最大的影响和效果,基本上允许更多的新手黑客成为严重的安全风险。实际上,安全专业人员已经注意到,黑客已经在讨论如何使用ChatGPT安装恶意软件并从目标中提取信息。15 生成AI工具可以很好地开始从反复暴露于恶意软件中学习,并能够开发更多新颖和不可预测的恶意软件,以逃避常见安全系统的检测。 点击并提供监控广告生态系统 除了错误信息和虚假信息之外,生成人工智能还可以用来创建点击诱饵标题和文章,这些标题和文章操纵用户如何浏览互联网和应用程序。例如,生成AI被用于创建完整的文章,无论其准确性,语法或缺乏常识,以推动搜索引擎优化并创建更多用户点击的网页。这些机制试图以真相为代价来最大化点击和参与度,从而降低用户在此过程中的体验。生成人工智能继续通过以更快的速度传播错误信息来助长这种有害的循环,创造出最大化观点并破坏消费者自主权的头条新闻。 HARMS 经济/经济损失:成功的诈骗和恶意软件可能会通过勒索,欺骗或获取金融账户而导致受害者的直接经济损失。这也可能导致对信贷的长期影响。 声誉/关系/社会污名化错误信息和虚假信息可能会产生和传播有关个人的虚假或有害信息,从而损害他们在社区中的声誉,可能损害他们的个人和职业关系,并影响他们的尊严。 心理-情绪困扰虚假信息和错误信息可能会造成严重的情感伤害,因为个人可以驾驭关于他们的虚假信息的影响-此外,如果他们是骗局的受害者,并且可能会在点击诱饵和监控广告的背景下被操纵或使用,许多人将面临耻辱和尴尬。 心理-干扰:虚假或误导性信息和点击诱饵的涌入使个人很难在网上进行日常活动。 自治:错误信息和虚假信息的传播使个人越来越难以做出正确的知情选择,而监视广告的操纵性使选择问题更加复杂。 歧视:诈骗,虚假信息,错误信息,恶意软件和点击诱饵都是“标记”漏洞的牺牲品,包括某些弱势群体和类别(老年人,移民等)的成员。 示例 人们利用人工智能向学校等公