生成人工智能的影响&路径前进 2023年5月 贡献了 格兰特·弗格森凯特里奥娜·菲茨杰拉德克里斯·弗拉斯塞拉梅根·伊奥里奥 汤姆这位愈伤组织施罗德本冬天伊妮德 编辑 格兰特·弗格森、卡利·施罗德、本·温特斯和伊妮德·周 感谢SarahMyersWest和KatharinaKopp对本文早期草稿的慷慨评论。 笔记摘要: 这是本文的第1版,反映了截至2023年5月15日生成AI的记录和预期危害。由于生 成式人工智能的开发、使用和危害的快速变化,我们想承认这是一篇本质上是动态的论文,未来可能会发生变化。 在本文中,我们使用标准格式来解释生成AI可能产生的危害类型。每个部分首先解释相关背景信息和生成人工智能带来的潜在风险,然后强调学者和监管机构为补救每种伤害而采取的具体危害和干预措施。本文借鉴了以下两种分类法: A.I.危害来指导我们的分析: 1.丹妮尔·香橼和丹尼尔·索洛夫的隐私危害类型学,包括身体、经济、声誉、心理、自主、歧视和关系伤害;1和 2.JoyBuolamwini的算法危害分类法,包括机会丧失,经济损失和社会污名化,包括失去自由,增加监视,刻板印象强化和其他显要人物伤害。2 这些分类法不一定涵盖所有潜在的人工智能危害,我们使用这些分类法旨在帮助读者可视化和情境化人工智能危害,而不会限制读者考虑的人工智能危害的类型和种类。 表的内容 介绍 去年11月,OpenAI决定发布基于大型语言模型GPT-3的聊天机器人ChatGPT,将AI工具推向了公众意识的最前沿。在过去的六个月中,用于根据用户提示生成文本、图像、视频和音频的新AI工具大受欢迎。突然之间,像稳定扩散、幻觉和价值对齐这样的短语无处不在。每天都有关于生成式人工智能的不同能力及其潜在危害的新故事出现,但没有任何明确的迹象表明接下来会发生什么,或者这些工具会产生什么影响。 虽然生成人工智能可能是新的,但它的危害不是.AI学者们多年来一直在警告我们大型人工智能模型可能造成的问题。3这些老问题因行业目标从研究和透明度转向利润、不透明和权力集中而加剧。这些工具的广泛可用性和炒作导致了个人和大规模伤害的增加。人工智能复制了种族、性别和残疾歧视,这些危害在本报告强调的每个问题中都密不可分。 OpenAI和其他公司决定将生成式AI技术快速集成到面向消费者的产品和服务中,这破坏了使AI开发透明和负责任的长期努力,使许多监管机构争先恐后地为影响做准备。很明显,生成式人工智能系统可以显着放大个人隐私以及民主和网络安全的风险。用OpenAI首席执行官的话来说,他确实有能力不加速这项技术的发布,“我特别担心这些模型可能会被用于广泛的错误信息[和]攻击性网络攻击。 介绍 在没有足够保障的情况下快速部署生成性人工智能系统,清楚地证明了自我监管已经失败。从企业到媒体和政府实体,数百个实体正在开发并希望将这些未经测试的人工智能工具快速集成到各种系统中。如果没有从一开始就内置的必要公平、问责制和透明度保护,这种快速推出将产生灾难性的后果。 我们正处于一个关键时刻,因为全球政策制定者和行业都在关注人工智能带来的重大风险和机遇。有机会让这项技术为人们服务。应该要求公司展示他们的工作,明确说明何时使用人工智能,并在整个培训、开发和使用过程中提供知情同意。 公众关注的一个线索集中在人工智能的“存在”风险上——机器人在工作、社交和最终接管人类的投机性长期风险中取代人类,就像“我,机器人”一样。州和联邦层面的一些立法者已经开始更加认真地对待解决人工智能的问题——然而,他们的重点是否只放在支持公司开发人工智能工具并要求边际披露和透明度要求上还有待观察。明确禁止高风险使用,解决虚假信息的易传播问题,要求有意义和主动的披露以促进知情同意,以及加强消费者保护机构,对于解决生成性人工智能特有的危害和风险是必要的。本文致力于提供使用生成式人工智能带来的不同问题的广泛概述,教育立法者和公众,并提供一些减轻伤害的途径。 ——本冬天,高级顾问 涡轮增压的信息操作 背景和风险 免费和低成本的生成式AI工具的广泛可用性促进了大量文本、图像、语音和视频内容的传播 。人工智能系统创建的大部分内容可能是良性的,或者可能对特定受众有益,但这些系统也将促进极其有害内容的传播。例如,生成式人工智能工具可以并且将用于传播虚假、误导、偏见 、煽动性或危险的内容。随着生成式人工智能工具变得越来越复杂,制作这些内容将更快、更便宜、更容易——现有的有害内容可以作为制作更多内容的基础。在本节中,我们考虑了人工智能工具将加速的五类有害内容:诈骗、虚假信息、错误信息、网络安全威胁以及点击诱饵和监视广告。尽管我们区分了虚假信息(有目的地传播虚假信息)和错误信息(较少有目的的传播或创建虚假信息),但人工智能生成内容的传播将使使用人工智能生成内容的各方模糊这条界限,而无需首先对其进行编辑或事实检查。使用人工智能生成的产出而未进行尽职调查的实体应与产生该产出的实体共同负责其造成的损害。 案例研究——2024年选举 使用GPT-4和后续大语言模型的产品可以创建快速且独特的人类“脚本”,这些脚本可以通过文本、电子邮件、打印或通过与AI视频生成器相结合的AI语音生成器进行分发。这些人工智能生成的脚本可用于劝阻或吓唬选民,或传播有关投票或选举的错误信息。例如,在2022年,向至少五个州的选民发送了故意错误的投票信息的短信。近年来,这种类型的选举错误信息已经变得很普遍 ,但生成人工智能工具将增强不良行为者快速传播可信的选举错误信息的能力 。 国会必须制定立法,防止通过虚假或误导性信息以及虚假的支持声明故意恐吓、威慑或干预选民。 诈骗 诈骗电话、短信和电子邮件早已失控,以多种方式伤害公众。仅在2021年,就有280万消费者向FTC提交了欺诈报告,声称损失超过23亿美元,近140万消费者提交了身份盗窃报告 。4生成式AI可以使用AI生成的文本、语音和视频加速这些各种骗局的创建、个性化和可信度。人工智能语音生成也可用于模仿亲人的声音,打电话要求立即获得保释、法律帮助或赎金的经济援助。5 根据EPIC和国家消费者法律中心2022年的一份报告,每月有超过10亿个诈骗机器人电话拨打美国电话,这导致2020-21年间消费者损失近300亿美元——最常针对老年人、残疾人和债务人等弱势群体。6这些骗局是大规模进行的,通常使用自动语音说出脚本 由像ChatGPT这样的文本生成器生成,旨在假装他们是有权吓唬消费者汇款的人。2022年,估计消费者损失增加到395亿美元,7联邦贸易委员会报告说,仅诈骗文本就损失了超 过3.26亿美元。8 自动拨号器、机器人文本、机器人电子邮件和邮件程序,与出售号码或电子邮件地址列表的数据代理相结合,使实体能够一次发送大量消息。同样的数据经纪人可以将人员名单作为潜在目标出售,以及关于他们的心理健康状况、宗教信仰或可以被利用的性行为的“见解”。允许数据经纪人对个人使用的目标程度加剧了人工智能产生的伤害。 文本生成服务还增加了网络钓鱼诈骗和不良行为者干预选举的可能性。这已经发生了——在2021年的一项研究中,研究人员发现GPT-3生成的网络钓鱼电子邮件比人为生成的网络钓鱼电子邮件更有效。9生成式人工智能可以通过帮助英语技能有限的人制作自然且听起来准确的电子邮件来扩大潜在有效欺诈者的数量,然后可以针对员工、情报目标和个人,使其更难发现骗局。 虚假信息 不良行为者还可以使用生成人工智能工具来制作适应性强的内容,旨在支持竞选活动、政治议程或仇恨立场,并在许多平台上快速、廉价地传播这些信息。这种虚假或误导性内容的快速传播——人工智能促成的虚假信息——也会对生成人工智能产生周期性效应:例如,当大量虚假信息被注入数字生态系统,并通过强化学习方法对这些信息进行更多生成系统训练时,错误或误导性输入会产生越来越不正确的输出。 使用生成性人工智能工具加速虚假信息的传播可能会助长影响公众舆论、骚扰特定个人或影响政治和选举的努力。虚假信息增加的影响可能是深远的,一旦传播就不容易应对;鉴于虚假信息对民主进程构成的风险,这一点尤其令人担忧。 错误信息 文本生成大型语言模型(如Bard或ChatGPT)输出不准确的现象已经被广泛记录。即使没有撒谎或误导的意图,这些生成人工智能工具也会产生有害的错误信息。人工智能生成的文本所遵循的优美且通常写得很好的风格以及真实事实的包含加剧了这种伤害,这可能会给虚假披上合法性的外衣。例如,据《华盛顿邮报》报道,一名法学教授被列入人工智能生成的“性骚扰某人的法律学者名单”,即使不存在这样的指控。10正如普林斯顿大学教授ArvindNarayanan在接受TheMarkup采访时所说: SayashKapoor和我称之为胡说八道的生成器,其他人也是如此。我们的意思不是在规范意义上,而是在相对精确的意义上。我们的意思是它被训练以产生合理的文本。它非常善于说服,但它没有受过训练来产生真实的陈述。它经常产生真实的陈述,作为合理和有说服力的副作用,但这不是目标。11 人工智能生成的内容还涉及一个更广泛的法律问题:我们对所见所闻的信任。随着人工智能生成的媒体变得越来越普遍,我们被欺骗相信虚构的东西是真实的情况也会变得越来越普遍 。12或者,真正的是虚构的。13当个人不能再信任信息,并且新信息的生成速度快于检查准确性的速度时,他们该怎么办?像维基百科这样的信息来源可能会被虚假的人工智能生成的内容所淹没。这可以 在目标情况下有害,通过诱使目标在假设其亲人处于危机中的情况下采取行动。14 安全 上述网络钓鱼问题也构成了安全威胁。虽然聊天机器人(还)不能从头开始开发自己的新型恶意软件,但黑客很快就会使用像ChatGPT这样的大型语言模型的编码能力来创建恶意软件,然后可以对其进行微调以获得最大的覆盖范围和效果,基本上允许更多的新手黑客成为严重的安全风险。事实上,安全专业人员已经注意到,黑客已经在讨论如何使用ChatGPT安装恶意软件并从目标中提取信息。15 生成式人工智能工具很可能开始从反复接触恶意软件中学习,并能够开发更多新颖和不可预测的恶意软件,以逃避常见安全系统的检测。 点击诱饵和为监控广告生态系统提供食物 除了错误信息和虚假信息之外,生成人工智能还可用于创建点击诱饵标题和文章,从而操纵用户如何浏览互联网和应用程序。例如,生成式人工智能被用于创建完整的文章,无论其准确性 、语法或缺乏常识如何,以推动搜索引擎优化并创建更多用户会点击的网页。这些机制试图以牺牲真相为代价来最大化点击量和参与度,在此过程中降低用户体验。生成式人工智能继续通过以更快的速度传播错误信息来助长这种有害的循环,创造最大化浏览量并破坏消费者自主权的头条新闻。 危害 经济/经济损失:成功的诈骗和恶意软件可能会通过勒索、欺骗或访问金融账户导致受害者的直接经济损失。这也可能导致对信贷的长期影响。 声誉/关系/社会耻辱:错误信息和虚假信息可能会产生和传播有关个人的虚假或有害信息,从而损害其在社区中的声誉,对其个人和职业关系的潜在损害,并影响其尊严 。 心理情感的痛苦:虚假信息和错误信息可能会造成严重的情感伤害,因为个人会受到传播的虚假信息的影响——此外,如果许多人是诈骗的受害者,可能会感到纵或在点击诱饵和监视广告的背景下被利用,他们会面临羞耻和尴尬。 心理障碍:虚假或误导性信息和点击诱饵的涌入使个人难以在线进行日常活动。 自治错误信息和虚假信息的传播使个人越来越难以做出适当的知情选择,而监控广告的操纵性质使选择问题进一步复杂化。 歧视诈骗、虚假信息、错误信息、恶意软件和点击诱饵都以“商标”的漏洞为食,包括某些弱势群体和类别(老年人、移民等)的成员身份。 例子 人们使用人工智能向学校等公共场所发出假炸弹威胁。16 人工智能语音发生器被用来打电话给人们的亲人,让他们相信他们的家人在监狱里,迫切需要保释和法律援助的钱。17 反数字仇恨中心测试了谷歌的巴德聊天机器人,看看他们是否会复制100种常见的阴谋论