通用人工智能业务守则初稿 主席和副主席的开幕词 作为四位工作组的主席和副主席,我们现正式提交《AI法案(AIAct)》下的通用人工智能行为守则草案(“守则”)。欢迎所有参加守则大会及观察员通过专用平台上的表格于2024年11月28日12:00CET前提供书面反馈。 这个初步草案通过四个紧密合作的工作组,针对通用人工智能模型提供商和具有系统性风险的通用人工智能模型提供商的关键考虑因素进行了阐述: ●第一工作组:透明度和与版权有关的规则 ●工作组2:系统性风险的风险识别和评估 ●工作组3:系统性风险的技术风险缓解 ●第4工作组:降低治理风险以应对系统性风险 我们提出这个初稿作为进一步完善的基础。经过工作小组内部讨论的迭代过程以及来自利益相关方的额外外部输入,措施可能被添加、删除或修改。我们邀请相关利益方审查该文件并提供反馈,以帮助塑造最终版本的《代码》,该《代码》将在指导通用人工智能模型的发展和部署方 面发挥关键作用。 我们纳入了一个高层次的起草计划,概述了我们编写代码的指导原则和目标。尽管初步草稿在细节上较为简略,但这种做法旨在为利益相关者提供一个清晰的方向感,使他们对最终代码的潜在形式和内容有所了解,同时我们继续就具体的子措施和关键绩效指标(KPIs)进行深入讨论。为了进一步提供关于我们讨论的见解,我们增加了开放式问题,以突出一些未来草案中希望取得进展的领域。这也有助于指导反馈和提交,使各利益相关方能够继续有效参与。 欧盟人工智能法案于2024年8月1日正式生效,规定最终版本的代码应在2025年5月1日前准备好 。本草案旨在提供一个“未来导向”的代码,该代码也适用于2025年及以后将开发和发布的下一代模型。我们的工作始于2024年10月,包括从多元化的利益相关方收集输入并进行迭代讨论。 在制定这一初稿时,主席和副主席主要依据《AI法案》中关于代码适用范围的规定进行指导。因此,除非代码中的上下文和定义另有说明,否则代码中使用的术语应与《AI法案》中的相应术语相同。这包括《AI法案》第56条第1款中关于考虑各种现有国际方法的指示。我们未在这一初稿中包含《AI法案》的所有相关条款,但预计在未来版本中会加入这些内容。 this初稿的代码是行业、学术界和民间社会数百名参与者共同努力的结果。我们还参考了人工智能治理不断发展的文献、国际做法,以及欧盟法律指导原则(如《虚假信息行为准则》)的相关内容,并借鉴了工作组成员的专业知识和经验。 开发过程的主要特征包括: ●到目前为止,多方利益攸关方协商了近430份意见书 ●四个专门的工作小组由主席和副主席领导,这些副主席因其专业背景、经验、独立性以及确保地理和性别多样性而被选中。 ●将于2024年10月至2025年4月举行的讨论和起草会议 额外的时间用于外部和内部的咨询与讨论将是必要的,以细化和完善当前草稿。作为一组独立的主席和副主席,我们力求使这一过程尽可能透明并易于利益相关者访问,旨在尽早分享我们的工作和思考,同时确保有足够的时间在工作组内协调和讨论关键问题。我们期待您持续积极参与并提供建设性的批评。 我们欢迎于11月28日中午12:00(中央欧洲时间)之前,通过专用平台上的表格提交由行为守则全体成员和观察员提供的书面反馈。 感谢您的支持! NuriaOliver 工作组1 联席主席 RishiBommasani 工作组1 副主席 亚历山大·佩克特 工作组1 联席主席 CélineCastets-Renard 工作组1 副主席 MattiasSamwald 工作组2 椅子 MartaZiosi 工作组2 副主席 YoshuaBengio 工作组3 椅子 DanielPrivitera 工作组3 副主席 MarietjeSchaake 工作组4 椅子 AnkaReuel 工作组4 副主席 亚历山大·扎切尔 工作组2 副主席 NitarshanRajkumar 工作组3 副主席 MarkusAnderljung 工作组4 副主席 起草计划和原则 在这个阶段,这份初步草案尚未包含最终采纳版本的《代码》中将包括的详细程度,原因如下:i )我们致力于在《代码》的结构和原则上达成广泛的共识;ii)目前尚无足够的时间来制定如此详细的提案,这些提案需要在此初步草案中进行深入考虑;iii)我们将在最后更新《代码》的细节,以反映最新的发展情况,并且会根据需要持续更新。为了体现我们的方向感,尽管这份初步草案总体上具有较高的概述性,我们还是包括了一些具体条款的示例,以展示未来《代码》草案中类似条款可能采取的形式和详细程度。本《代码》中的承诺结构遵循从措施、子措施到关键绩效指标(KPI)的递减层次结构。如果其中任何一个部分缺失,特别是关键绩效指标(KPI),这并非最终决定,而是由于时间限制和此初步草案的高度概述性所致。此外,这份初步草案尚未包含关于如何审查和更新《代码》的部分内容,这部分内容将在后续的《代码》草案版本中加入。 我们还提出了以下一些高级原则,我们建议在起草《守则》时遵循: I.符合欧盟原则和价值观-措施、子措施和关键绩效指标应与欧盟的一般原则和价值观保持一致,这些原则和价值观体现在欧盟法律中,包括《欧洲联盟基本权利宪章》、《欧洲联盟条约 》和《欧洲联盟运作条约》。II.与人工智能法案和国际方法保持一致-措施、子措施和关键绩 效指标应有助于《AI法案》的适当应用。这包括根据《AI法案》第56条第1款,考虑国际方法(包括由AI安全研究院或标准制定组织开发的标准或度量标准)。III.与风险的比例-措施、子措施和关键绩效指标(KPIs)应与风险成比例,这意味着它们应当是: 条款或指标。AI办公室将监控和审查可能被规避或其他形式误规定的子措施和KPI 。 c)应当根据不同类型的風險、分发策略、部署环境及其他可能影响风险水平的因素,区分措施、子措施和关键绩效指标(KPIs)。例如,在评估和减轻系统性风险方面,相关的措施、子措施和KPIs可能需要区分故意风险和非故意风险(包括错配),并且对于不同类型的风险、某些分发策略(如开源)和部署环境,这些措施可能更加具体或严格。 IV.面向未来–子措施和关键绩效指标(KPIs)应保持AI办公室根据更优信息改进其合规评估的能力。此外,更新子措施和KPIs的过程应假设快速的技术变革可能需要灵活的监管发展和修改 。因此,应在具体要求与适应并更新规则的灵活性之间找到平衡。代码可以通过引用提供者可以监控和考虑的动态信息来源来实现这一点,例如事故数据库、共识标准、风险登记册、风险管理框架和AI办公室的指导文件。代码应力求使子措施和KPIs能够比常规情况下更快地更新。也可能有必要阐明需要一套新的子措施和KPIs的模型类型,例如用于代理人工智能系统的模型。 V.与通用AI模型提供商规模的比例-与通用人工智能模型提供商相关的义务措施和关键绩效指标(KPIs)应充分考虑通用人工智能模型提供商的规模,并在适当的情况下允许中小企业和资源较少的初创企业采用简化合规方式。对于具有系统性风险的通用人工智能模型提供商的义务相关KPIs,也应在适当的情况下反映提供商在规模和能力上的差异。 VI.AI安全生态系统的支持和发展-我们认识到通用人工智能模型的发展、采用和治理是一个全球性问题。本草案中的许多措施旨在促进不同利益相关方之间的合作,例如通过共享通用人工智能安全基础设施和最佳实践来促进模型提供商之间的合作,同时也进一步鼓励民间社会、学术界 、第三方和政府组织的贡献。这就是为什么我们鼓励利益相关方之间增加透明度,并加大努力共享知识和合作建立一个集体且稳健的人工智能安全证据基础,符合《AI法案》第56条第1款第3项和第116号附录的规定。我们还认可开源模型对人工智能安全生态系统发展的积极影响。 目录 主席和副主席的开幕词……………………………………………………………………………………………………… 起草计划和原则…………………………………………………… 目录………………………………………………………………………………………………………… 一、preamble..........................................二、通用人工智能模型提供者规则8 透明度10 措施1.人工智能办公室的文件……………………………………… 措施2。下游供应商的文件。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。附录:可接受使用政策的基本要素13 版权相关规则14 措施3。制定版权政策。 措施4。遵守TDM例外的限制。。。。。。。。。。。。。。。。。。。。。。。。。 措施5.透明度………………………………………………………………………………………………………… 三、系统性风险的分类17 措施6.分类法17 四、具有系统风险的一般目的人工智能模型提供者规则措施7.安全和安保框架21 具有系统风险的通用AI模型提供者的风险评估……………………………………………………………………………… 措施8、风险识别22 措施9.风险分析22 措施10。证据收集。23 措施11风险评估生命周期25 具有系统风险的通用AI模型提供商的技术风险缓解 ...................................................................................................................................................................................................27 措施12.缓解措施。.27措施13。安全和安保报告。.28措施14。开发和部署决策。.29. 系统通用AI模型提供者的治理风险减轻RISK.30 措施15、系统性风险所有权…………………………………………………………………………………………… 措施16。遵守和充足性评估。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。 措施17.独立专家系统风险和缓解评估。 措施18。严重事件报告。。。。。。。。。。。。。。。。。。。。。 措施19。举报保护。。。。。。。。。。。。。。。。。。。。。。。。。。。。。 措施20。通知。。。。。。。。。。 措施21.文件………………………………………………………………………………………………………… 措施22。公共透明度。。。。。。。。。。。。。。。。。。。。。。。。。。。。 结论……………………………………………………………………………………………………………………… I.前置 Whereas: a)这项行为守则的签署方认识到改善内部市场功能的重要性,同时确保在欧盟范围内为以人为本且可信赖的人工智能(AI)制定公平的竞争环境,并保护健康、安全以及《宪章》中所载的基本权利,包括民主、法治和环境保护,不受有害的人工智能影响,同时也支持《人工智能法案》(AI法案)中第1条第1款强调的创新。本守则应在此背景下进行解释。b)该守则为通用型人工智能模型和服务提供商提供了遵守《人工智能法案》第53条和第55条规定义务的指导。c)每当守则提及通用型人工智能模型时,也应涵盖具有系统性风险的通用型人工智能模型;每当守则提及具有系统性风险的通用型人工智能模型时,则不涵盖其他通用型人工智能模型。d)这些签署方认为,该守则作为指导文件,有助于通用型人工智能模型和服务提供商及其具有系统性风险的通用型人工智能模型展示其遵守《人工智能法案》的情况,但承认遵循本守则并不构成符合《人工智能法案》的决定性证据。e)这些签署方认识到报告其实施情况和本守则成果的重要性,以帮助人工智能办公室和委员会定期监测和评估本守则的有效性。f)该守则将由人工智能办公室定期审查。人工智能办公室可以鼓励并促进更新守则,以反映人工智能