CONTENTS 可信赖的发展12和部署 执行摘要 生成型人工智能已经抓住了世界的想象力。虽然它拥有巨大的变革潜力,但也伴随着风险。因此,建立一个值得信赖的生态系统至关重要它帮助人们自信地拥抱人工智能,为创新提供最大空间,并作为利用人工智能造福公众的核心基础。 作为一个整体,人工智能是一项多年来一直在发展的技术。先前的开发和部署有时被称为传统AI.1To奠定基础为了促进传统AI的负责任使用,新加坡发布了第一个版本的AI治理框架模型在2019年,随后在2020年进行了更新。2最近出现的创成式AI3has enharified some of the same AI risks (e. g., bias,misuse, lack of explainability), and introduced new ones (e. g., hallucination, copyright infrence,value alignment). These concerns were highed in our early关于生成人工智能的讨论文件:对信任和治理的影响,42023年6月发布。讨论和反馈具有指导意义。 需要审查现有的治理框架,以促进更广泛的可信生态系统。需要在保护用户和推动创新之间达成谨慎的平衡。在问责制、版权和错误信息等相关和相关主题方面,也有各种国际讨论。这些问题是相互关联的,需要以实际和整体的方式看待。任何单一的干预都不会是灵丹妙药。 This因此,用于生成AI的模型AI治理框架寻求提出一种系统和平衡的方法在继续促进创新的同时解决生成AI问题。它要求所有关键利益相关者,包括政策制定者,行业,研究界和更广泛的公众,共同发挥自己的作用。该框架建议对九个方面进行全面研究,以促进可信的生态系统。 a)Accountability-问责制是激励人工智能开发链中的参与者对最终用户负责的关键考虑因素。在这样做的过程中,我们认识到,像大多数软件开发一样,生成AI涉及技术堆栈中的多个层,因此责任分配可能无法立即明确。虽然生成式AI开发具有独特的特征,但今天的云和软件开发堆栈仍然可以绘制有用的相似之处,并且可以采取最初的实际步骤。 b)Data-数据是模型开发的核心要素。它显著影响模型输出的质量。因此,提供给模型的内容很重要,并且需要确保数据质量,例如通过使用可信数据源。在使用数据进行模型训练可能引起争议的情况下,例如个人数据和版权材料,同样重要的是要使业务清晰,确保公平对待,并以务实的方式做到这一点。 c)可信赖的开发和部署-模型开发及其之上的应用程序部署是AI驱动创新的核心。尽管最终用户可能具有有限的可见性,但围绕基线安全和卫生措施采取的有意义的透明度是关键。这涉及行业在开发,评估以及此后的“食品标签”型透明度和披露方面采用最佳实践。随着时间的推移,这可以增强更广泛的意识和安全性。d)事件报告-即使使用最强大的开发流程和保护措施,我们今天使用的软件也不是完全万无一失的。这同样适用于人工智能。事件报告是一种既定做法,可以及时通知和补救。因此,建立结构和流程以实现事件监控和报告是关键。这也支持人工智能系统的持续改进。e)测试和保证对于可信的生态系统,第三方测试和保证起着补充作用。我们今天在金融和医疗保健等许多领域这样做,以实现独立验证。虽然人工智能测试是一个新兴领域,但对于公司来说,采用第三方测试和保证来证明与最终用户的信任是很有价值的。围绕AI测试制定通用标准以确保质量和一致性也很重要。f)安全-生成AI引入了针对模型本身的新威胁向量的潜力。这超出了任何软件堆栈固有的安全风险。虽然这是一个新兴领域,但需要对现有的信息安全框架进行调整,并开发新的测试工具来应对这些风险。g)内容来源人工智能生成的内容,因为它可以轻松创建,可能会加剧错误信息。关于内容在何处以及如何生成的透明度使最终用户能够确定如何以知情的方式消费在线内容。各国政府正在寻求技术解决方案,如数字水印和密码来源。这些技术需要在正确的环境中使用。h)安全与对准研究与开发(R & D)人工智能安全研发机构之间的全球合作对于优化有限资源以获得最大影响、并与商业驱动的模型能力增长保持同步至关重要。i)AI为公益-负责任的人工智能超越了风险缓解。这也是关于提升和授权我们的员工和企业在人工智能支持的未来中蓬勃发展。民主化人工智能接入、改善公共部门人工智能的采用率、提高工人技能和可持续发展人工智能系统将支持引导人工智能走向公益的努力。 建立可信的AI生态系统 1.Accountability 为AI系统开发生命周期中的不同参与者建立正确的激励结构,以对最终用户负责 ACCOUNTABILITY 建立一个可信的AI生态系统 ACCOUNTABILITY 问责制是培育可信生态系统的关键考虑因素。人工智能开发链中的参与者需要对最终用户负责,5andthestructural incentives should align with this need.These players includes modeldevelopers,applicationdeployers6和云服务提供商(通常提供托管AI应用程序的平台)。像大多数软件开发一样,生成AI涉及技术堆栈中的多个层。虽然责任分配可能无法立即明确,但可以与当今的云和软件开发进行有用的相似之处,并可以采取实际步骤。 Design 为了全面做到这一点,应该考虑如何分配责任前期在开发过程中(事前)作为最佳实践,并指导如何在发现问题时获得补救此后(事后)。 Ex Ante -预先分配 可以根据控制级别分配责任生成AI开发链中的每个利益相关者都有,以便有能力的一方采取必要的行动来保护最终用户。作为参考,尽管开发链中可能存在各种利益相关者,但云行业7这些模型通过解释云服务提供商(提供基础基础设施层)及其客户(在上面的层上托管应用程序)分别承担的控制和措施来分配责任。 有价值将这种方法扩展到AI开发云服务提供商最近扩展了其云分担责任模型的一些元素,以涵盖AI,并将最初的重点放在安全控制上。8这是一个良好的开端,可以采取类似的方法来解决其他安全问题。AI分担责任方法可能还需要考虑不同的模型类型(例如,闭源,开源9或开放重量10),给定应用程序部署人员对每种模型类型具有不同的控制级别。中的责任 This case, for example when using open - source or open - weight models, should requireapplication deployers to download models from reputable platforms to minimize the risk oftameded models. As the most knowledge about their own models and how they are dep模型开发人员有能力以协调一致的方式领导这一开发.1这将为利益相关者提供更大的确定性,并促进更安全的生态系统。 事后-安全网 责任分担模式是问责制的重要基础 - they provides clarify on revert when issues occur. However,他们可能无法涵盖所有可能的情况。当出现新的或意料之外的问题时,分配责任实际上也可能具有挑战性。值得考虑其他措施,包括围绕赔偿和保险的概念,以更好地覆盖最终用户。 This exists in a limited form today. In clearer areas where recorrect is needed, the industry hasmoved accordingly. Some model developers12已经开始承保某些风险,例如因使用其AI产品和服务而产生的第三方版权声明。在这样做时,开发人员隐含地承认他们对模型训练数据的责任以及他们的模型如何使用。 There will eventually be other areas that are not as clear and not well - covered. This may includerisks that have proportionate impact on society as a whole, and which may only emerged as AI isused. It is therefore used to consider更新法律框架使它们更加灵活,并允许新出现的风险得到容易和公平的解决。这类似于当今实体产品的最终用户如何享受安全保护。这种努力的一个例子是欧盟提出的人工智能责任指令和即将批准的修订产品责任指令。这些指令旨在使最终用户更容易证明由启用AI的产品和服务造成的损害。这样可以确保没有任何一方在赔偿过程中处于不公平的不利地位。 最后,肯定会有剩余问题这是一个非常新兴的讨论,以及诸如无过错保险之类的替代解决方案13可以被认为是一个安全网。 数据 建立一个可信的AI生态系统数据 数据是模型和应用程序开发的核心元素。需要大量的数据来训练健壮可靠的AI模型。鉴于其重要性,企业需要明确和确定如何在模型开发中使用数据。这包括潜在的争议领域,例如公开的个人数据和版权材料,这些内容通常包含在网络抓取的数据集中。在这种情况下,重要的是要认识到相互竞争的问题,确保公平对待,并以务实的方式做到这一点。此外,开发模型需要质量很好数据,在某些情况下,代表数据。同样重要的是要确保完整性可用的数据集。14 Design 个人数据的可信使用 由于个人数据在现有法律制度中运作,一个有用的起点是政策制定者阐明如何现有的个人数据法律适用于生成AI。这将有助于以仍然保护个人权利的方式使用个人数据。15例如,政策制定者和监管机构可以澄清同意要求或适用的例外情况,并就AI中数据使用的良好商业实践提供指导。16 一组新兴的技术,统称为隐私增强技术(PETs),有可能允许数据在AI模型的开发中使用,同时保护数据的机密性和隐私性。匿名化技术等一些PET并不新鲜,而其他技术仍处于起步和发展阶段。17了解如何将PET应用于AI将是一个重要的领域。 平衡版权与数据可访问性 从模型开发的角度来看,使用培训数据集中的版权材料版权所有者的同意问题开始引起人们的关注,特别是在促进此类用途的报酬和许可方面。模型也越来越多地用于产生创意输出-其中一些模仿现有创作者的风格,并引起人们对这是否构成合理使用的考虑。18 鉴于AI训练涉及大量数据,开发方法是有价值的以清晰有效的方式解决这些难题。如今,法律框架尚未围绕这种方法进行整合。一些版权所有者已在美国和英国法院对生成AI公司提起诉讼。各个国家也在探索非立法解决方案,例如版权指南19以及开发人员和最终用户的操作规范。20 鉴于各种利益攸关,政策制定者应促进公开对话在所有相关利益相关者中,了解快速发展的生成AI技术的影响,并确保潜在的解决方案是平衡的并符合市场现实。 促进高质量数据的获取 作为组织层面的整体卫生措施,人工智能开发人员将是很好的纪律承担数据质量控制措施并采用数据治理方面的一般最佳实践,包括一致且准确地注释训练数据集,并使用数据分析工具来促进数据清理(例如,消除偏见和删除不适当的内容)。 在全球范围内,值得考虑共同努力扩展可用的可信数据集池参考数据集是AI模型开发(例如,用于微调)以及基准测试和评估的重要工具。2政府还可以考虑与当地社区合作针对其特定上下文管理代表性训练数据集的存储库(例如,使用低资源语言)。这有助于提高反映一个国家文化和社会多样性的高质量数据集的可用性,从而支持开发更安全,更具文化代表性的模型。 可信的开发和部署 建立一个可信的AI生态系统 可信的开发和部署 即使在“开源”模型的情况下,一些重要的信息,如方法和数据集也可能无法提供。 展望未来,行业必须围绕开发和