机器中的鬼魂 解决生成AI对消费者的危害 2023年6月 TABLEOFCONTENTS 执行摘要5 1–INTRODUCTION6 1.17 1.1.1生成AI的示例模型8 1.1.2生成式人工智能演员链11 1.1.3开源或闭源模型12 1.1.4一般用途AI12 1.213 2-遗传的危害和挑战 人工智能14 2.115 2.1.1识别生成AI的具体风险15 2.1.2技术解决主义17 2.1.3将权力集中在大技术手中17 2.1.4不透明的系统和缺乏问责制19 2.222 2.2.1错误和不准确的输出22 2.2.2AI模型的拟人化23 2.2.3Deepfakes和虚假信息25 2.2.4检测AI生成的内容27 2.2.5广告中的生成人工智能28 2.329 2.3.1训练中的偏见数据29 2.3.2Contentmoderation30 2.4隐私和数据保护31 2.4.1与用于模型训练的数据集相关的隐私挑战31 2.4.2与生成的内容相关的隐私挑战32 2.532 2.6用生成AI取代面向消费者的应用程序中的人类, 全部或部分33 2.6.1与结合人力和自动化决策相关的挑战33 2.734 2.7.1气候影响34 2.7.2Water脚印36 2.7.3绿色洗涤和对绿色AI的希望37 2.837 2.8.1劳动剥削与鬼工37 2.8.2劳动自动化和对工作的威胁38 2.938 3–法规40 3.145 3.1.1数据主体权利46 3.1.2意大利DPA关于ChatGPT的决定47 3.248 3.2.1美国的消费者法49 3.350 3.3.1一般产品安全指令50 3.3.2一般产品安全法规50 3.4 5 3.5 内容审核51 3.6 52 3.6.1欧盟委员会的提案 52 3.6.2欧盟理事会对友邦保险的立场 53 3.6.3欧盟议会的立场AIA 53 3.6.4人工智能法案必须保护消费者 54 3.7 54 3.7.1产品责任指令 54 3.7.2修订后的产品责任指令 55 3.7.3AI责任指令 55 3.856 4-途径FORWARD57 4.159 4.260 4.2.1呼吁采取行动并赋予执法机构权力60 4.2.2决策者-战略措施61 4.2.3新的立法措施61 机器中的幽灵-解决 生成AI对消费者的危害 挪威消费者委员会 2023年6月www.forbrukerradet.no/ai设计作者:VonKommunikasjon 5执行摘要 ecutEivxe摘要 Therehasbeenanexplosionofconsumerfacinggenerative-isalintelligenceservices.Theseapplicationscanbeusedtogenerictext,images,sound,orvideothatclosesimilarsimilarhuman-madecontent.AsgenerativeAIsystemsbecomeintegratedintopopen- lar平台和工具,该技术的采用有望持续增长。同时,许多新兴挑战引发了关于如何确保生成AI安全,可靠和公平的众多辩论。 这份报告是对这些讨论的贡献,旨在为政策制定者、立法者、执法机构和其他相关实体提供一个强有力的起点,以确保生成人工智能e不会出现在 消费者和人权的代价。我们不能 knowforcertainthetechnologywilldevelopinthemonthsandyearstocomebutbelievethatthedirectionoftechnologyadvancementshouldhappenonsocial-ety’sterms.Therefore,wepresentanumberofoverar- ching原则,可以帮助定义如何生成AI系统 s可以在消费者中开发和使用-以及 以人为中心的方式。 e W还强烈敦促各国政府、执法人员- Cies和政策制定者现在采取行动,利用现有法律 以及关于自动化系统的已识别危害的框架 s今天已经构成了。新框架和safe- 防一个护社装会置不应能该等并待行几开年发,而但技消术费是者 在第二章中,我们总结了生成AI的各种当前和新兴挑战,风险和危害。这包括与 G权力、透明度和问责制, G错误或不准确的输出, G利用技术操纵或误导消费者, G偏见和歧视, G隐私和个人诚信, G安全漏洞,G自动化人工任务 ,G环境影响,G劳动剥削。 第三章概述了现有和即将实施的规则和条例的拼凑,这些规则和条例可能适用于生成人工智能系统的开发、部署和使用。这主要围绕欧盟立法,但也有一些涉及美国正在进行的进程。 最后一章包含了许多关于如何解决生成AI问题的建议。这包括 : G执行现行法律法规, G确保有足够的资源 being在没有适当制衡的情况下推出。 本报告的第一章提供了生成AI及其用途的解释,以及几个例子 d插图。一个 执法机构, G加强消费者保护,G强有力的政府政策,G新的立法措施, G涵盖开发商的强大义务 以及生成AI系统的部署人员。 1.INTRODUCTION 71.Introduction 几十年来,面向消费者的人工智能系统以各种形式存在,用于个性化社交媒体,过滤电子邮件,推荐流媒体内容,文本翻译等等。 其中一些目的是良性和谨慎的,大多数人可能永远不会意识到他们正在与AI驱动的系统进行交互。 随着大规模部署和采用生成人工智能(“geerativeAI”)系统,面向消费者的应用程序中的AI驱动系统的新浪潮正在迅速到来。生成AI是人工智能的一个子集,可以生成合成内容,如文本、图像、音频或视频,这些内容可以非常类似于人类创建的内容。这样的系统准备改变消费者今天遇到的许多界面和内容。 2022年11月,聊天机器人ChatGPT的原型向公众发布。该应用程序迅速受到全球关注,在其一个月内成为有史以来增长最快的数字服务 释放。1在接下来的几个月中,其他服务 erating 它如何被用来传播虚假信息,操纵个人和社会,取代工作,挑战艺术家的版权。 关于如何控制或监管这些系统的讨论正在进行中,世界各地的政策制定者都在努力应对生成人工智能的承诺和挑战。本报告通过从消费者角度对最紧迫的问题进行分析,以及从法律,道德和政治角度出发的许多可能的解决方案和方法,对这些讨论做出了贡献。虽然我们并不假装对生成人工智能提出的所有问题都有答案,但我们相信,许多正在出现或正在出现的问题可以通过监管、执法和具体政策的组合来解决,这些政策旨在引导技术朝着对消费者和人类友好的方向发展。 由于生成AI的发展似乎以惊人的速度发展,因此整个报告中的描述必须被视为新兴技术的快照。该报告撰写于2023年2月至5月之间 ,d gen文本,图像,声音和视频,很快A不包括来自论文的任何新信息 部署和迭代,引发了生成AI系统的军备竞赛。提供了消费者 CESS 直接在Web中连接到这些内容生成器- 当公司开始将内容嵌入到消费者组织中时,这代表了发电机在他们的应用程序和服务。 生成AI系统的突然广泛部署和采用引发了公众对该技术的承诺和危险的讨论。辩论的范围从如何使用生成AI来提高劳动力效率并激发风险- 6月1日之后发表 挪威消费者委员会是一个公共资助的,依赖 消费者利益。这份报告是由BEUC撰写的,VZBV的MiikaBlinn ,爱尔兰公民自由委员会的KrisShrishak,DanielLeufer 来自AccessNow、JonWorth、MarijaSlavkovik和AnjaAlzmann 来自卑尔根大学。 1.1生成人工智能概述 生成人工智能是一个笼统的术语,用于描述算法模型,这些模型被训练来生成新数据,如文本、图像和声音。虽然这些应用程序依赖于不同类型的输入数据,但它们训练方式背后的一般原理是相似的。由于互联网上可用的大量内容,高级生成人工智能的出现是可能的 与机器学习和计算能力的进步相结合。 生成AI模型通过分析大量信息来预测和生成句子中的下一个单词,图像特征等。这是通过检测训练数据中的模式和数据点之间的关系来完成的,这进而允许系统复制类似的模式以生成合成内容,例如一段写作、音乐或视频剪辑。该过程还可以被描述为来自系统的数据的内容的复杂“混搭”。 被训练过。换句话说,它们是预测性模型- 81.1生成人工智能概述 被训练为在现有内容中的数据点之间“连接点”以生成合成内容的 EL。 生成的内容是基于某些输入(或“提示”)的概率和随机生成的 ,这些输入通常是由人类编写的。因此,任何给定的生成AI模型的输出对于每个提示模型的人来说都可能是不同的,并且可能都类似于训练数据中的模式,或者看起来是全新的东西。 1.1.1GENERATIVEAI模型的示例 有各种类型的生成AI模型,包括可以通过生成新文本来响应文本的大型语言模型(LLM),以及可以生成多种类型的输出或响应多种类型的多模态模型输入,例如聊天机器人 随着ChatGPT的公开发布,ChatGPT在2022年秋季获得了势头 ,ChatGPT由OpenAI公司拥有和运营(也是DALL-E的所有者 ,见下文)。ChatGPT3可在线获取 那些创建免费帐户的人,而更强大的ChatGPT4模型可用于每月订阅费。3 2023年1月,微软宣布对ChatGPT进行重大投资,并在Bing搜索引擎中推出了基于该技术的新功能。4微软已宣布打算将ChatGPT集成到其其他服务中,包括MicrosoftOffice应用程序套件,例如在MicrosoftTeams会议期间自动记笔记。5 谷歌还开发了一个LLM,可以生成文本, that也可以在提示时生成图像。称为LaMDA。在微软投资 下面简要介绍了当今市场上最受欢迎的生成AI模型,并通过一 些相关示例进行介绍。 1.1.1.1文本生成器 文本生成器是一种生成AI模型 ChatGPT,Google通过名为Bard的文本生成器推出了与其搜索 引擎类似的功能。6Google是 还计划引入各种人工智能驱动的功能,如起草和总结电子邮件 ,以及 头脑风暴和在其工作场所编写文件。 ,可以基于预测性分析生成文本段落 它们建立在大型语言模型上。2这些模型通常在大量的从互联网上抓取的文本,包括 书籍,论坛,新闻网站,社交媒体, tc. e文本生成器可用于编写 论文、y编码、聊天机器人和增强搜索引擎等。在人的情况下,文本生成器是指 SIS applica 7 generate 似乎由编写的文本 例如,通过使用表情符号生成以第一人称视角书写的文本,或通过书写指示其具有体验人类情感的能力的文本 。一些文本生成器是多模态的,可以基于图像生成文本 。 关于生成AI的消费者问题的诗,ChatGPT。 尽管文本生成器已经以某种形式存在了几年,例如作为键入文本消息的预测工具,但围绕该技术的讨论 2大型语言模型是复杂的AI模型,旨在生成类似人类语言的文本。它们通常在大量文本源上进行训练,以“学习”模式和语法。LLM 可用于机器翻译、情感分析、人机交互、校对等多种任务。 91.1生成人工智能概述 Meta开发了在科学文章和材料上接受培训的LLMGalactica,旨在“存储,组合和推理科学知识”。在模型于2022年11月作为公开演示发布后,由于生成包含多个错误和偏见的文本,该面向公众的演示很快被删除。82023年2月,Meta发布了另一个LLM ,称为LLaMa(大型语言模型MetaAI)。LlaMa是一个开源模型 ,最初基于访问应用程序过程向研究人员发布。2023年3月,该模型在公共留言板上泄露,意味着任何拥有相对强大的计算机的人都可以下载,使用和修改该模型。9 TherearealsoseveralopensourceLLMthataredeveloped-opedandmaintainedbysmalleractors.F