中国和英国的专家如何看待AI风险和合作 徐燕子和丹尼尔·卡斯特罗|2024年8月12日 随着AI的不断进步,该技术创造了许多机会和风险。尽管存在巨 大的地缘政治差异,但对中国和英国人工智能专家的一系列采访揭示了共同的人工智能安全优先事项,对开源人工智能的好处和风险的共同理解,以及对更紧密合作的优点的共识-但也阻碍了更紧密的伙伴关系。建立更紧密的关系可以帮助两国实现发展创新、安全和可靠的人工智能的目标。 INTRODUCTION 人工智能(AI)的最新进展为社会,经济和科学进步提供了许多重要利益。这些进步的一个重要因素是开源AI的发展:AI技术的源代码和数据可免费供他人使用 ,研究,修改和分发。1开源AI对于通过协作开发加速创新,减少冗余和实现AI功能的民主化至关重要。由于任何人都可以使用它,因此它可以促进经济发展和社会进步,例如允许任何人针对特定任务调整和调整功能强大的AI模型。此外,研究人员,开发人员和用户之间在开源AI上的全球合作可以促进共享AI项目的集体进步,并促进制定透明度,问责制和道德准则和最佳实践。最后,通过可访问的代码和数据促进透明度和问责制,它有助于识别和解决人工智能中的偏见、错误和道德问题,并允许用户了解技术是如何工作的。 中国和英国都是开源社区的活跃成员,也是人工智能领域的先驱。这段历史使他们成为开源AI的领导者。例如,美国K.基于StabilityAI的公司是许多流行的开源生成AI工具的开发人员,这些工具用于创建图像,音频,3D模型和代码。中国已经生产了一些世界上表现最好的开源大型语言模型(LLM),包括Qwe(阿里巴巴)和Yi(01。AI).2这些开源AI项目提供了与专有(或“封闭”)AI的竞争,开发人员限制对底层技术的公共访问。 然而,开源AI提出了独特的挑战。首先,与专有AI不同,开发人员可以监督用户如何使用他们的技术,一旦开发人员公开提供开源AI,他们就几乎无法控制其他人如何使用他们的技术。恶意行为者可能会篡改开源AI,以消除保护措施,操纵结果并生成不准确的信息。此外,恶意行为者可能会将该技术用于危险和非法目的,例如进行网络攻击,散布虚假信息,实施欺诈,制造违禁品以及从事其他非法活动。其次,与专有AI不同,开发人员负责技术,并不总是有人负责开源AI项目。因此 ,该技术可能具有没有人解决的已知错误或安全漏洞。同样,开源AI可以在没有任何保证或保证的情况下提供。例如,用户可能不知道开发人员是否在低质量或非法数据上训练了开源AI模型。最后,开源产品的开发实践可能会产生未知的风险,例如攻击者暗中试图将恶意代码或数据引入开源项目。 解决人工智能的风险是一个全球关注的问题,英国和中国都一直站在这个问题上,尽管他们都在寻求支持各自公司对人工智能的开发和使用。英国在2023年召开了人工智能安全峰会,包括中国在内的许多国家都参加了峰会。首脑会议以《布莱切利宣言》结束,与会国决心“维持包容性的全球对话,使现有的国际论坛和其他相关倡议参与进来,并以开放的方式为更广泛的国际讨论做出贡献。."3习近平主席后来在旧金山与美国总统举行的双边会议上发表讲话,重申了在包括人工智能在内的共同利益方面开展互利合作的呼吁。4中国外交部还于2023年10月发表声明,呼吁“全球合作,促进人工智能的健康发展,分享人工智能知识,并以开源条款向公众提供人工智能技术”。5 尽管有这些高级别政府声明,但目前尚不清楚英国和中国能否实现更紧密合作的愿望 在人工智能中采取有意义的行动。要了解这种伙伴关系的可行性,重要的是要更好地了解政府以外的人工智能专家的关切和优先事项是否一致,以及他们迄今为止在合作方面的经验。本报告努力提供对这些问题的见解。 方法 这项研究采用了定性研究设计,以探索专家对与AI相关的风险的观点,尤其是开源AI,其中存在潜在的合作途径。定性方法特别适合捕获专家意见的深度和复杂性 ,提供丰富,详细的数据,可以为理解快速发展的领域提供信息。 从2024年3月到6月,我们对来自英国和中国学术界和工业界的专家进行了深度访谈。我们根据参与者在人工智能技术和政策方面的专业知识选择参与者,确保了不同的观点。最终的样本包括来自大学,研究机构,技术公司和咨询机构的24名专家(19名来自中国;5名来自英国)。考虑到美国的观点,我们主要集中在中国的专家进行这些采访。K.基于专家已经在西方媒体上广泛记录。 我们通过半结构化访谈收集数据,这允许灵活地探索各种主题,同时确保涵盖所有关键领域。我们亲自或通过在线会议进行了采访,具体取决于参与者的位置和可用性。根据参与者的要求,访谈以两种格式之一进行,参与者可以根据自己的喜好进行选择:一次性录制访谈或多个未录制的简短对话。无论格式如何,每次完整的访谈都持续了大约一个小时,记录的访谈得到了参与者的转录和分析同意;我们为未记录的访谈做了手写笔记。为了清晰和完整,我们审查并编辑了转录,并删除了个人标识符以维护参与者的机密性。 分析遵循一个系统的过程,以确定所收集数据中的模式,并分几个阶段进行: 1.初始编码:我们通过多次阅读抄本和笔记来熟悉数据,然后根据反复出现的主题和想法开发了一个初始编码框架。这涉及用描述性代码标记文本的相关部分。 2.代码簿开发:我们开发了一个全面的码本来指导编码过程。码本包括每个代码的定义,以及数据中的示例来说明它们的应用。我们将代码组织成更广泛的主题和子主题来捕获数据的复杂性。 3.转录本编码:我们使用码本对转录本进行了系统编码。通过共识讨论并解决了编码中的差异。 4.主题识别:编码后,我们审查了数据以识别总体主题和模式。主题是通过对相关代码进行分组并检查它们之间的关系得出的。这个过程涉及迭代审查和细化,以确保主题准确地代表数据。 5.模式和见解被强调以说明参与者的关键观点。 调查结果和讨论 这项研究的目的是提供对美国观点的详细了解。K.和中国专家建立积极的联系。这些发现为人工智能安全领域的关键问题、优先事项和潜在合作领域提供了宝贵的见解。分析中出现的关键主题是AI安全优先级,开放模型权重的好处和风险,AI法规以及国际合作障碍。为了清楚起见,我们翻译和编辑了以下各节中提到的报价。我们还为受访者分配了一个带有代码的随机数-英国代表英国,CN代表中国-以保密 。 AI安全的首要任务 受访专家分享了他们对AI安全的最大担忧。为了抓住这些担忧,只有他们对“你最担心人工智能安全的问题是什么?”这个问题的最初回答是在这个主题下编码的。尽管所有专家都讨论了多个AI问题,并且访谈涵盖了各个子主题,但数据在特定领域可能仍然没有或有限。这并不意味着专家们对这些领域无动于衷,只是说这不是他们的首要任务。 专家提到了三类风险:安全风险(i。Procedres.,创建不安全人工智能的风险),社会风险(I。Procedres.,人工智能对社会产生负面影响的风险)和存在风险(I。Procedres.人工智能的安全或社会风险,可能造成不可逆转的全球灾难)。BothU.K.中国专家强调了与不安全AI相关的几个风险,例如AI系统不准确,不可靠或在意外条件下失败。他们也是。 对人类与人工智能交互的安全性表示担忧,例如机器人伤害用户或自动驾驶汽车事故,以及构建没有正确编码人类目标和价值观的人工智能系统的风险。 专家还列出了各种社会风险,包括滥用AI,例如使用AI创建用于欺诈的深度假货。U.K.专家们更关注其他社会风险,例如与儿童一起使用人工智能的伦理影响,以及人工智能取代人类工人的潜力,从而导致高失业率。他们强调了解决这些道德问题以防止社会问题的重要性。相比之下,一些中国专家专注于先进的人工智能系统和人工智能武器化的潜在生存威胁。他们强调了人工智能对人类的更广泛影响,认识到人工智能的快速发展可能导致重大的全球变化。 3 4 17 图1:英国和中国在人工智能安全方面的首要担忧(受访者数量) 安全风险社会风险生存风险 开源AI的好处和风险 本报告使用了“开源AI”一词,尽管该领域的一些AI专家对该术语的使用提出了质疑。6事实上,大多数人工智能系统都存在“开放”和“封闭”的范围,这取决于开发人员公开了哪些元素和工件,如代码、数据和文档。7例如,一些“开源AI”的开发人员可能不会发布用于开发系统的训练数据或代码,而是只发布允许其他人重用AI模型的模型架构和参数。 所有受访专家都认为开源AI模型具有显着的优势。与封闭模型相比,他们认为开放模型可以进行更彻底的检查,以提高质量,促进 在开源社区内进行协作,构建专家网络,并为独立开发人员提供对在他们无法收集的大型数据集上训练的模型的访问。 关于风险,专家们一致认为恶意使用是他们最关心的问题。他们还提出了对数据隐私侵犯的担忧,这些侵犯是由于不当处理和收集私人信息而引起的,可能导致未经授权的访问和滥用个人数据。他们一致认为,无论模型是开放的还是封闭的,有不良意图的个人都可以攻击模型本身来规避保障措施或操纵输出,或者利用它来造成伤害。 “如果人们会用AI做坏事,那么它是闭源还是开源并不重要,他们仍然会找到一种方法来做到这一点。 “如果有人想攻击一个模型,并且拥有这样做的知识和技术,那么该模型是开放的还是封闭的并不重要。 这些观点与其他国家评估开源人工智能风险和收益的专家观点一致。例如,多项研究确定了滥用开源人工智能的潜在途径,包括产生有针对性的网络钓鱼攻击、虚假信息、生物安全威胁、语音克隆、非自愿亲密图像和儿童性虐待材料。8然而,滥用开源人工智能模型的边际风险——与封闭模型或其他现有技术(如互联网)相比,开源模型引入额外的滥用风险的程度通常很低。9 受访者指出,防止不同的攻击是一个复杂的挑战,可能需要持续监测和定期更新安全对策。此外,一些人对人工智能前沿发展准备不足表示担忧,因为快速发展可能超过安全和道德准则的建立,在准备应对新出现的挑战方面留下了空白。此外,一些人认为缺乏标准来指导开源人工智能的使用、开发和管理,使一致实践的实施变得复杂,增加了滥用的风险,并阻碍了确保人工智能安全性和可靠性的协作努力。 AI法规 两国的专家认为,鉴于目前的情况,两国对AI监管的方法是合理的。在英国,政府在2023年8月的白皮书中概述了其对“AI监管的创新方法”的愿景。10在中国 ,政府正在考虑“模型人工智能法(MAIL)v.2.0”,这是一项旨在规范AI开发商和提供商的拟议法律。11 在承认政策完善的空间以及政府在前进过程中需要阐明更清晰的细节的同时,专家们发现,总体轨迹与每个国家的特定国内优先事项非常吻合,例如在英国采取基于部门的监管方法,并在中国推广开源人工智能。 “我认为英国政府采取了一种相当合理和衡量的方法。他们花了时间,强调了将部门监管应用于人工智能用途。他们开始了对监管差距的搜索。他们赋予了部门监管机构权力。这很好。”-3-UK “[MAILv.2.0]草案需要对其使用的某些术语进行更多细节和澄清。由于它是草案,因此它不能导致实际变化,但它为未来的政策树立了积极的方向。我们可以看到它通过相关领域的财政支持和税收减免来促进开源AI的发展,这很好。”-2-CN 关于提高AI透明度的话题,许多专家认为,AI开发人员与公众之间存在巨大的知识差距,这限制了开发人员通过披露有关其AI开发的其他信息来建立公众信任的能力 。产品。但是,一些专家指出,如果独立的第三方组织可以评估这些信息并制作可访问的报告以帮助公众理解,则开发人员提高透明度可能是有益的。 尽管意见分歧,但几位专家还分享了他们对AI政策未来发展的看法。一些人主张加强监管以指导AI产品的开发,而另一些人则敦促监管机构提高评估和监控AI开发和使用风险的能力。 “为了管理AI风险,我们必须通过关注开发人员来解决它们的起源。应该有法规来指导AI产品的开发,以确保负责任的开发。例如,如果开发人员使用有偏见的数据训练模型或在发布AI产品时忽略安全协议,则会产生后果。”-7-CN “因此,提高监管机构的技能,专注于特定的用例,而不是监管技术本身,然后是我们