广岛进程国际指导原则 用于开发高级AI系统的组织 组织开发先进AI系统的国际指导原则旨在 在全球范围内推广安全,可靠和值得信赖的AI,并将为组织提供指导开发和使用最先进的人工智能系统,包括最先进的基础 模型和生成式人工智能系统(以下称为“高级人工智能系统”)。组织可能除其他外,包括来自学术界、民间社会、私营部门和公众的实体 部门。 这份非详尽的指导原则清单作为一份活文件进行了讨论和阐述,以 建立在现有的经合组织人工智能原则基础上,以应对先进人工智能的最新发展系统,旨在帮助抓住好处,应对带来的风险和挑战 通过这些技术。这些原则应适用于所有AI参与者,当适用于涵盖高级AI系统的设计,开发,部署和使用。 我们期待着进一步发展这些原则,作为全面政策的一部分 框架,来自其他国家和学术界、商界和民间更广泛的利益相关者的投入社会。 我们还重申致力于制定一项国际行为守则 基于以下指导原则开发先进AI系统的组织。 不同的司法管辖区可能会采取自己独特的方法来实施这些指导不同的原则。 我们呼吁各组织与其他相关利益攸关方协商,采取这些行动,根据基于风险的方法,而政府制定更持久和/或更详细的治理和监管方法。我们还承诺在协商后制定建议 与经合组织、GPAI和其他利益攸关方合作,引入监测工具和机制帮助组织对这些行动的实施负责。我们鼓励 组织支持发展有效的监督机制,我们可以通过贡献最佳实践来探索发展。 在利用创新机会的同时,组织应尊重法治, 人权、正当程序、多样性、公平和不歧视、民主和人- 在高级AI系统的设计、开发和部署中的中心性。 组织不应以破坏的方式开发或部署先进的AI系统 民主价值观,对个人或社区特别有害,助长恐怖主义,使犯罪滥用,或对安全、安保和人权构成重大风险,并因此不可接受。 各国必须遵守国际人权法规定的义务,以促进 人权得到充分尊重和保护,而私营部门的活动应保持一致与《联合国工商业指导原则》等国际框架 人权和经合组织多国企业准则。 具体而言,我们呼吁组织遵守以下原则,与风险: 1.在整个先进的人工智能系统的开发过程中采取适当的措施,包括在其部署和投放市场之前和整个过程中, 识别、评估和减轻整个AI生命周期中的风险。 这包括采用不同的内部和独立的外部测试措施,通过组合方法,如红色团队,并实施适当的缓解措施 解决已识别的风险和漏洞。测试和缓解措施应例如,寻求确保整个系统的可信赖性、安全性和安全性 生命周期,以便它们不会带来不合理的风险。为了支持此类测试,开发人员应寻求实现与数据集、流程和在 系统开发。 2.在包括在市场上放置的部署之后的误用模式。 组织应在适当时使用与风险水平相称的人工智能系统根据预期,并监控漏洞、事件、新出现的风险和滥用 Deployment,andtakeappropriateactiontoaddressthese.Organizationsareencouragedto 例如,考虑促进第三方和用户发现和报告问题,以及部署后的漏洞。进一步鼓励组织保持适当的 记录已报告的事件,并减轻已识别的风险和漏洞,在与其他利益相关者合作。酌情报告漏洞的机制, 应该可以接触到各种各样的利益相关者。 3.公开报告先进的人工智能系统的能力,局限性和领域适当和不适当的使用,以支持确保足够的透明度, 从而有助于加强问责制. 这应包括发布包含对所有人有意义的信息的透明度报告先进AI系统的新重要版本。 Organizations应该使透明度报告中的信息足够清晰,并且可理解,使部署人员和用户能够适当和相关地解释 模型/系统的输出,并使用户能够适当地使用它,以及透明度报告应得到强有力的文档流程的支持和通知。 4.努力实现负责任的信息共享和事件报告 开发先进人工智能系统的组织,包括与行业合作,政府、民间社会和学术界。 这包括负责任地分享信息,包括但不限于 评估报告,关于安全和安全风险的信息,危险的,有意的或无意的能力,并尝试AI参与者规避整个AI生命周期的保障措施。 5.制定、实施和披露人工智能治理和风险管理政策,以基于风险的方法为基础-包括隐私政策和缓解措施措施,特别是针对开发先进人工智能系统的组织。 这包括披露适当的隐私政策,包括个人数据,用户 promptsandadvancedAIsystemoutput.Organizationsareexpectedtoestablishanddisclose 他们的人工智能治理政策和组织机制,以在根据基于风险的方法。这应包括问责制和治理 在整个AI生命周期中可行的情况下,评估和减轻风险的流程。 6.投资和实施强大的安全控制,包括物理安全,整个AI生命周期中的网络安全和内部威胁防护。 这些可能包括保护模型权重和算法、服务器和数据集,例如通过信息安全和适当的网络/物理运营安全措施 访问控制。 7.开发和部署可靠的内容认证和来源机制, 在技术上可行的情况下,例如水印或其他使用户识别AI生成的内容 这包括,在适当和技术上可行的情况下,内容认证,如使用组织的高级AI系统创建的内容的来源机制。 来源数据应包括创建内容的服务或模型的标识符, butneednotincludeuserinformation.Organizationsshouldalsofaminortodeveloptoolsor 允许用户确定特定内容是否使用其高级AI系统创建的API 例如通过水印。 进一步鼓励组织实施其他机制,如标签或 免责声明,使用户在可能和适当的情况下知道他们何时进行交互一个AI系统。 8.优先考虑研究,以减轻社会、安全和安保风险,并优先考虑投资于有效的缓解措施。 这包括开展、合作和投资支持 推进人工智能安全、安全和信任,解决关键风险,以及投资于开发适当的缓解工具。 9.优先发展先进的人工智能系统,以解决世界上最伟大的挑战,特别是但不限于气候危机、全球卫生和教育 这些努力是为了支持在联合国可持续发展 发展目标,并鼓励人工智能发展以造福全球。 组织应优先负责任地管理值得信赖和以人为中心的AI和还支持数字扫盲计划。 10.推动发展并酌情通过国际技术标准 这包括促进发展和酌情利用国际 技术标准和最佳实践,包括水印和使用标准发展组织(SDO)。 11.对个人数据实施适当的数据输入措施和保护和知识产权 鼓励组织采取适当措施来管理数据质量,包括培训数据和数据收集,以减轻有害偏见。 还应支持培训数据集的适当透明度,组织应遵守适用的法律框架。