广岛进程国际组织行为守则 开发先进的AI系统 在国际组织发展先进指导原则的基础上 人工智能系统,开发先进人工智能的组织的国际行为准则 系统旨在在全球范围内推广安全,可靠和值得信赖的AI,并将提供为开发最先进的人工智能系统的组织提供行动的自愿指导, 包括最先进的基础模型和生成AI系统(此后“先进的人工智能系统”)。 组织应按照基于风险的方法采取这些行动。可能认可本行为准则的组织可能包括实体 来自学术界、民间社会、私营部门和/或公共部门。 这个非详尽的行动清单作为一个活的文件进行了讨论和阐述,以建立关于现有的经合组织人工智能原则,以应对先进人工智能的最新发展系统,旨在帮助抓住好处,应对风险和挑战 这些技术带来的。组织应将这些操作应用于 生命周期,以涵盖在适用时设计、开发、部署和使用先进的AI系统。 本文件将在必要时进行审查和更新,包括通过持续 包容性的多利益攸关方协商,以确保它仍然符合目的和对这种快速发展的技术做出了回应。 不同的司法管辖区可能会采取自己独特的方法来实施这些行动以不同的方式。 我们呼吁各组织与其他相关利益攸关方协商,遵循这些行动,符合基于风险的方法,而政府发展更持久的和/或详细的治理和监管方法。我们还承诺制定 建议,与经合组织、GPAI和其他利益攸关方协商,介绍监测工具和机制,以帮助组织对 实施这些行动。我们鼓励组织支持发展 有效的监测机制,我们可以探索发展这些机制,通过做出最好的贡献实践。 此外,我们鼓励组织建立内部人工智能治理结构,并政策,包括自我评估机制,以促进负责任和 实施这些行动和人工智能开发的方法。 在利用创新机会的同时,组织应尊重 法律、人权、正当程序、多样性、公平和不歧视、民主和 在先进的人工智能系统的设计、开发和部署中,以人为本。 组织不应以破坏的方式开发或部署先进的AI系统 民主价值观,对个人或社区特别有害,助长恐怖主义, 促进刑事滥用,或对安全、安保和人权构成重大风险,以及因此是不可接受的。 各国必须遵守国际人权法规定的义务,以确保人权得到充分尊重和保护,而私营部门的活动应与《联合国指导原则》等国际框架保持一致 工商业与人权和经合组织跨国企业准则。 具体来说,我们呼吁组织遵守以下行动,其方式是与风险相称的: 1在先进人工智能系统的开发过程中采取适当措施,包括在其部署和投放市场之前和整个过程中, 识别、评估和减轻整个AI生命周期中的风险。 这包括采用不同的内部和独立的外部测试措施,通过多种评估方法的组合,如红色团队和实施测试和缓解 措施,例如,应寻求确保 系统贯穿其整个生命周期,以便它们不会构成不合理的风险。在支持此类测试,开发人员应寻求实现与数据集相关的可追溯性,流程和系统开发过程中做出的决策。这些措施应该是 记录和支持定期更新的技术文档。 此测试应在安全环境中进行,并在几个 整个AI生命周期中的检查点,特别是在部署和放置之前市场来识别风险和漏洞,并告知采取行动来解决已识别的 人工智能对安全、安全、社会和其他风险的风险,无论是意外的还是故意的。在 设计和实施测试措施,组织致力于关注以下适当的风险: >化学、生物、放射性和核风险,例如先进的方式 人工智能系统可以降低进入壁垒,包括非国家行为者和武器进入壁垒。开发、设计获取或使用。 >进攻性网络能力,例如系统可能导致漏洞的方式发现、利用或操作使用,请记住,这些能力可以 还具有有用的防御应用程序,并且可能适合包含在系统中。 >健康和/或安全风险,包括系统交互和工具使用的影响,包括例如控制物理系统和干扰关键系统的能力 基础设施。 >复制自己或“自我复制”或训练他人的模型带来的风险模型。 >社会风险,以及对个人和社区的风险,例如 先进的人工智能系统或模型可能会产生有害的偏见和歧视,或导致违反适用法律框架,包括隐私和数据保护。 对民主价值观和人权的威胁,包括助长虚假信息或损害隐私. >特定事件可能导致具有相当负面的连锁反应的风险 可能影响到整个城市、整个领域活动或整个社区的影响。 各组织承诺与各部门的相关行为者合作,评估 并采取缓解措施应对这些风险,特别是系统性风险。 做出这些承诺的组织还应努力推进研究和 对安全性、安全性、偏见和虚假信息、公平性、可解释性和先进人工智能系统的可解释性和透明度,以及提高鲁棒性和先进的人工智能系统免受误用的可信度。 2识别并缓解漏洞,并在适当情况下识别事件和模式在部署后,包括在市场上放置的滥用。 组织应在适当时使用与风险水平相称的人工智能 符合预期的系统,并监控漏洞、事件、新出现的风险和滥用部署后,并采取适当的措施来解决这些问题。组织是 鼓励考虑,例如,促进第三方和用户的发现和报告部署后的问题和漏洞,例如通过赏金系统、竞赛或奖励以激励负责任的弱点披露。组织进一步 鼓励对报告的事件进行适当的记录,并减轻与其他利益相关者合作确定的风险和脆弱性。 报告漏洞,在适当的情况下,应该是一组不同的利益相关者。 3公开报告先进的人工智能系统的能力、局限性和领域适当和不适当的使用,以支持确保足够的透明度,有助于加强问责制。 这应包括发布包含有意义的信息的透明度报告所有新的重要版本的先进的人工智能系统。 这些报告、使用说明和相关技术文件,视情况而定,应保持最新,并应包括,例如; >对潜在安全、安保和社会风险进行的评估的详细信息,如以及对人权的风险, >模型/系统的容量和性能的重大限制对适当使用领域的影响, >讨论和评估模型或系统对安全和安全的影响和风险 社会,如有害偏见、歧视、对隐私或个人数据保护的威胁,以及对公平的影响,以及 >为评估模型/系统的移动适应性而进行的红色团队的结果超越发展阶段。 组织应使透明度报告中的信息足够清晰 可理解,使部署人员和用户能够适当和相关地解释 模型/系统的输出,并使用户能够适当地使用它;以及透明度报告应得到强大的文档流程的支持和通知,例如 技术文档和使用说明。 4致力于负责任的信息共享和事件报告 开发先进人工智能系统的组织,包括与行业、政府、民间社会和学术界 这包括负责任地分享信息,包括但不限于 评估报告、安保和安全风险信息、危险意图或 意外的能力,以及AI参与者试图规避整个AI的保障措施生命周期。 组织应建立或加入机制,以开发、推进和采用 适当的、共享的标准、工具、机制和最佳做法,以确保先进AI系统的安全性、安全性和可信性。 这还应包括确保适当和相关的文件和透明度 在整个AI生命周期中,特别是对于导致重大风险的高级AI系统安全与社会。 组织应在整个AI生命周期中与其他组织协作以共享并向公众报告相关信息,以促进安全、安保和 先进的人工智能系统的可信性。组织也应该协作和共享上述信息酌情与相关公共当局联系。 这种报告应保障知识产权。 5制定、实施和披露人工智能治理和风险管理政策,以基于风险的方法为基础-包括隐私政策和缓解措施措施。 各组织应建立适当的组织机制, 披露和实施风险管理和治理政策,包括例如 识别、评估、预防和解决风险的问责制和治理流程,在整个AI生命周期中可行的情况下。 这包括披露适当的隐私政策,包括个人数据,用户提示和高级AI系统输出。预计组织将建立和 披露他们的人工智能治理政策和组织机制来实施这些 Policiesinaccordancewithariskbasedapproach.Thisshouldincludeaccountabilityand 在整个AI中可行的情况下,用于评估和减轻风险的治理流程生命周期。 应根据基于风险的风险管理政策制定 方法并在整个AI生命周期中酌情应用风险管理框架 和相关的,以解决与人工智能系统相关的风险范围,政策应该也会定期更新。 组织应制定政策、程序和培训,以确保员工熟悉他们的职责和组织的风险管理实践 6投资并实施强大的安全控制,包括物理安全,整个AI生命周期中的网络安全和内部威胁防护。 这些可能包括保护模型权重和算法、服务器和数据集,例如通过信息安全和适当的业务安全措施 网络/物理访问控制。 这还包括对网络安全风险进行评估并实施 网络安全政策和适当的技术和机构解决方案,以确保先进的人工智能系统的网络安全适合相关情况和 所涉及的风险。组织还应采取措施要求存储和 在适当安全的情况下使用高级AI系统的模型权重 具有有限访问权限的环境,以降低未经批准的释放风险和风险未经授权的访问。这包括承诺存在漏洞 管理过程,并定期审查安全措施,以确保它们保持高标准,并保持适合应对风险的状态。 这进一步包括建立一个强大的内部威胁检测程序,与为其最有价值的知识产权和商业秘密提供保护, 例如,通过限制对专有和未发布的模型权重的访问。 7开发和部署可靠的内容身份验证和来源机制, 在技术上可行的情况下,例如水印或其他技术,以使用户识别AI生成的内容 这包括,在适当和技术上可行的情况下,内容认证和 使用组织的先进AI系统创建的内容的来源机制。来源数据应包括创建 内容,但不需要包括用户信息。组织还应努力 开发工具或API,以允许用户确定特定内容是否使用其 先进的人工智能系统,例如通过水印。组织应该合作和投资在适当的情况下,在研究中推进该领域的状况。 进一步鼓励组织实施其他机制,如标签或 免责声明,使用户在可能和适当的情况下知道他们什么时候与AI系统交互。 8优先考虑研究,以减轻社会、安全和安保风险,并优先考虑投资于有效的缓解措施。 这包括开展、合作和投资支持 推进人工智能安全、安全和信任,解决关键风险,以及投资开发适当的缓解工具。 组织承诺开展、合作和投资于 支持提升人工智能的安全性、安全性、可信性和解决关键风险,例如优先研究维护民主价值观,尊重人权, 保护儿童和弱势群体,维护知识产权和 隐私,避免有害的偏见、错误和虚假信息以及信息操纵。组织还承诺投资开发适当的缓解工具,并努力 主动管理先进人工智能系统的风险,包括环境和气候影响,这样他们的好处才能实现。 鼓励各组织分享关于风险缓解的研究和最佳做法。 9优先发展先进的人工智能系统,以解决世界上最伟大的挑战,特别是但不限于气候危机、全球卫生和教育 这些努力是为了支持在联合国可持续发展 发展目标,并鼓励人工智能发展以造福全球。 组织应优先负责任地管理值得信赖和以人为中心的AI 并支持数字扫盲计划,以促进 公众,包括学生和工人,使他们能够受益于使用先进的人工智能系统,并帮助个人和社区更好地了解自然,这些技术的功能、限制和影响。组织应与 民间社会和社区团体确定优先挑战并发展创新解决世界上最大的挑战。 10推动发展并酌情通过国际技术标准 鼓励各组织为发展作出贡献,并在适当情况下使用国际技术标准和最佳实践,包括水印,以及 与标准开发组织(SDO)合作,也在开发时组织的测试方法、内容认证和来源机制, 网络安全政策,公共报告和其他措施。特别是,组织还鼓励努力制定可互操作的国际技术标准和 框架,以帮助用户区分AI生成的内容和非AI生成的内容。 11实施适当的数据输入措施和保护个人数据和知识产权 鼓励组织采取适当措施来管理数据质量, 包括训练数据和数据收集,以减轻有害偏见。 适当的措施可以包括透明度,隐私保护培训技术,和/或测试和微调,以确保系统不会泄露机密或敏感data. 鼓励组织实施适当的保障措施,尊重权利 涉及隐私和知识产权,包括受版权保护的内容。 组织还应遵守适用的法律框架。