您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[世界经济论坛]:人工智能治理联盟:简报系列(英) - 发现报告
当前位置:首页/行业研究/报告详情/

人工智能治理联盟:简报系列(英)

人工智能治理联盟:简报系列(英)

AI治理联盟简报纸系列 JANUARY2024 2024年1月 AI治理联盟简报纸系列 前言 PaulDaugherty 埃森哲首席技术和创新官 (CTIO) 约翰·格兰杰 IBM咨询公司高级副总裁 JeremyJurgens世界经济论坛董事总经理 CathyLi AI、数据和Metaverse负责人;世界经济论坛执行委员会成员 我们的世界正在经历一个多方面的转型阶段,其中技术创新起着主导作用。自20世纪下半叶成立以来,人工智能(AI)经历了重要的里程碑, 最终导致了最近的生成式AI的突破。生成式AI拥有一系列非凡的能力来创建,分析和创新,发出信号 一种范式转变,正在重塑从医疗保健到娱乐等行业。 随着人工智能的新能力推进并推动进一步创新,它也正在以指数级的速度彻底改变世界各地的经济和社会。随着人工智能带来的经济承诺和机遇,随之而来的是巨大的社会责任。各国和各部门的领导人必须合作,确保在道德上和负责任地开发、部署和采用人工智能。 世界经济论坛的人工智能治理联盟(AIGA)是一项开创性的合作努力,将行业领导者、政府、学术机构和民间社会组织联合起来。该联盟代表了对负责任的AI开发和创新的共同承诺,同时在AI价值链的每个阶段(从开发到应用和治理)都坚持道德考量。该联盟由世界经济论坛与IBM咨询公司和埃森哲合作领导。 作为知识合作伙伴,由三个核心工作流组成-安全系统和技术, 负责任的应用和转型,以及弹性的治理和监管。这些支柱强调了全面的端到端方法,以应对关键的AI治理挑战和机遇。 该联盟是一项全球努力,将不同的观点和利益相关者团结在一起 ,为有意义的长期解决方案进行深思熟虑的辩论,构想和实施战略。 该联盟还推进了关于获取和包容的关键观点,推动努力加强对学习、技能、数据、模型和计算等关键资源的获取。这项工作包括考虑如何公平地分配这些资源,特别是向服务不足的地区和社区。最关键的是,至关重要的是,通常不参与人工智能治理对话的利益相关者在桌子上占有一席之地,确保所有声音都被包括在内。在这样做的过程中,人工智能治理联盟为所有人提供了一个论坛。 在我们驾驭AI治理的动态和不断发展的格局时,AI治理联盟的见解旨在为生成AI的负责任的开发,采用和整体治理提供有价值的指导。我们鼓励来自世界各地的决策者、行业领袖、政策制定者和思想家积极参与我们的集体努力,塑造人工智能驱动的未来,维护人类共同价值观,促进每个人的包容性社会进步。 简介系列论文简介 AI治理联盟于2023年6月成立,旨在提供指导 关于负责任的人工智能系统的设计,开发和部署。自成立以来,已有来自六大洲200多个组织的250多个成员加入了该联盟。该联盟由一个指导委员会和三个工作组组成。 指导委员会由来自公共和私营部门以及学术界的领导人组成 ,并就联盟及其工作组的总体方向提供指导。 与IBMCosltig合作的SafeSystemsadTechologies工作组致力于就在开发阶段实施的必要保障措施达成共识,研究基础模型的技术层面,包括护栏以及模型和应用程序的负责任发布。在AI生命周期的每个阶段都定义了问责制,以确保监督和周到的扩展。 负责任的应用程序和转换工作组与IBM咨询公司合作,专注于评估 业务转型,实现跨行业和部门的负责任的生成式AI采用。这包括评估生成式AI用例,实现新的或增量的价值创造,并了解它们对价值链和业务模型的影响,同时评估采用的考虑因素及其下游影响。 与埃森哲合作领导的弹性治理和监管工作组专注于分析人工智能治理格局、促进国际合作以促进监管互操作性的机制 ,以及促进公平、包容和全球人工智能接入。 本系列简报是三个工作组的第一个成果,确立了AI治理联盟的基本重点领域。 在瞬息万变的时代,人工智能治理联盟寻求建立一个由来自公共、私人、民间社会和学术领域的可信声音组成的多利益相关方社区,团结一致,解决当代人工智能治理中一些最具挑战性和潜在最有价值的问题。 阅读指南 本系列文件由三份简报组成,这些简报根据联盟的三个工作组分为主题类别。 报告的每个简报也可以作为独立的文章阅读。例如,对技术维度更感兴趣的开发人员、采用者和政策制定者可以轻松地跳到安全系统和技术简报文件,以获得对人工智能领域的当代理解。对于从事生成AI的企业战略和业务影响的决策者,负责任的应用和转型简报提供了具体的背景。对于被法律占据的商业领袖和政策制定者来说,。 管理人工智能技术的道德发展、部署、使用和监管的政策、原则和实践,弹性治理和监管简报文件提供了指导。 虽然每个简报都有一个独特的重点领域,但在这些不同的多利益攸关方社区的交汇处,以及每个工作组产生的共识和知识,许多重要的经验教训。因此,本简报系列的许多要点应在 每个工作组的交集,其中发现变得累加,并在上下文和相互关系中得到加强。 主题1安全系统 和技术 主题2负责任的应用程序 和转型 主题3弹性治理与监管 1/3AI治理联盟简报系列2024 PresidioAI框架:迈向安全的生成AI模型 INCOLABORATION WITHIBMCONSULTING 2/3AI治理联盟简报系列2024 从GenerativeAI解锁值: 负责任转型指南 INCOLABORATION WITHIBMCONSULTING 3/3AI治理联盟简报系列2024 生成式AI治理:塑造全球集体未来 INCOLABORATIONWITHACENTURE AI治理联盟指导委员会 尼克·克莱格 总裁,全球事务,Meta 加里·科恩 IBM副主席 SadieCreese 牛津大学网络安全教授 OritGadiesh 贝恩公司董事长 PaulaIngabire 卢旺达信息通信技术部部长 达芙妮·科勒 创始人兼首席执行官,Insitro 薛兰 清华大学苏世民学院教授;院长 AnnaMakanjuOpenAI全球事务副总裁 DurgaMalladi 高通公司高级副总裁 安德鲁·吴 DeepLearning.AI创始人 SabastianNiles Salesforce总裁兼首席法律官 OmarSultanAlOlama 阿拉伯联合酋长国人工智能国务部长 LynneParker 副校长兼董事, 田纳西州大学AIInitiative 布拉德·史密斯微软副主席兼总裁 穆斯塔法·苏莱曼 拐点AI联合创始人兼首席执行官 JosephineTeo 新加坡通讯和信息部(MCI) 肯特·沃克 Google全球事务总裁 词汇表 人工智能中的术语是一个快速发展的主题,同一个术语可以有多种含义。下面的词汇表应该被视为当代定义的快照。 人工智能系统:基于机器的系统,对于显式或隐式目标 ,从其接收的输入中推断如何生成诸如预测,内容,可能影响物理或虚拟环境的建议或决策。部署后,不同的AI系统的自主性和适应性水平各不相同。1 因果AI:识别和分析数据中的因果关系的AI模型,基于这些关系实现预测和决策。 因果推理模型提供负责任的AI益处,包括通过公正性形式化的可解释性和偏见减少,以及模型推理和输出的上下文化。因果和生成AI模型的交叉和探索是一个新的对话。 微调:通过在更新模型的现有参数的同时进行额外的训练来调整预训练模型以执行特定任务的过程。 基础模型:基础模型是一种AI模型,可以适应各种下游任务。基础模型 通常是在庞大的阵列上训练的大规模(例如数十亿个参数)生成模型 数据,包括标记和未标记的数据集。 前沿模型:该术语通常是指AI技术中最先进或最尖端的模型。前沿模型代表了最新的发展,通常具有比以前模型更复杂,更强大的功能和更好的性能。 生成式AI:AI模型专门用于产生新的数字材料作为输出(例如文本,图像,音频,视频和软件代码),包括在应用程序及其用户界面中使用此类AI模型时。这些模型通常被构造为机器学习系统,并在大量数据上进行了训练。2 幻觉:当模型产生事实不准确或不真实时,就会发生幻觉 通常,幻觉输出以合理或令人信服的方式呈现,使最终用户难以检测。 辖区互操作性:在受不同政策和监管要求管辖的不同辖区内和跨辖区运营的能力。3 虚假信息涉及故意和故意传播虚假信息,目的是误导他人。 4 模型漂移监控:定期比较模型指标以保持性能的行为,尽管数据、对抗性输入、噪声和外部因素不断变化。 模型超参数:模型的可调参数,必须调整以获得最佳性能(与基于训练集定义的模型的固定参数相反)。 多模式AI:AI技术能够同时处理和解释多种类型的数据 (如文本,图像,音频,视频)。它集成了来自各个领域(自然语言处理,计算机视觉,音频处理)的技术,以获得更全面的分析和见解。 提示工程:为语言模型设计自然语言提示以执行特定任务的过程。 检索增强生成:一种技术,其中使用来自外部源的知识来增强大型语言模型以生成文本。在检索步骤中,从用户的查询中识别来自外部源的相关文档。在生成步骤中,这些文档的部分被包括在模型提示中,以生成基于检索文档的响应。 参数有效的微调:一种高效,低成本的方法,使预先训练的模型适应新任务,而无需重新训练模型或更新其权重 。它涉及学习附加到模型提示的少量新参数,同时冻结模型的现有参数(也称为提示调整)。 AI红色团队:一种由授权和组织的一群人模拟攻击的方法,以识别潜在的弱点,漏洞和需要改进的领域。从模型设计到开发再到部署和应用,它应该是不可或缺的。 红色团队的目标是通过展示 成功的攻击,并通过展示在作战环境中什么对防御者有效。 来自人类反馈的强化学习(RLHF):一种用于模型改进的方法,其中人类评估人员对模型生成的输出进行安全性,相关性和连贯性排名,并且基于该反馈更新模型以广泛提高性能。 释放访问-覆盖授予的不同访问级别的梯度。5 –完全封闭:基础模型及其组件(如权重、数据和文档)不会在 组织。同一组织通常进行模型创建和下游模型适配。外部用户可以通过应用程序与模型交互。 –托管:创建者通过在其基础结构上托管基础模型来提供对基础模型的访问,允许通过用户界面进行内部和外部交互,并发布特定的模型详细信息。 –应用程序编程接口(API):创建者通过在其基础结构上托管基础模型并允许通过API进行适配器交互以执行规定的任务并发布特定模型详细信息来提供对基础模型的访问。 –可下载:创建者提供了一种下载基础模型的方法 在适配器的基础结构上运行,同时保留其一些组件,如训练数据。 –完全开放:创建者发布所有模型组件,包括所有参数、权重、模型架构、训练代码、数据和文档。 负责任的采用:在组织的负责任的AI框架内采用单个用例和机会。这需要彻底 评估,以确保可以实现价值,并在负责任的框架中成功地将变更管理与定义的目标保持一致。 负责任的AI:以最大化利益并最小化其对人,社会和环境构成的风险的方式开发和部署的AI。它通常由各种原则和组织来描述,包括但不限于稳健性,透明度,可解释性 ,公平性和公平性。6 负责任的转型:组织努力和方向,以利用生成AI的机会和好处,同时减轻个人,组织和社会的风险。 负责任的转型是组织治理、运营、人才和沟通方面的战略协调和变革。 可追溯性:确定生成的输出的原始来源和事实。 透明度:在文档中披露有关来源,数据和模型的详细信息(决策,选择和过程),以实现有关模型选择的明智决策 和理解。 使用限制:将模型的使用限制在预期用途之外的过程案例/目的,以避免模型的意外后果。 水印:将信息嵌入AI创建的输出(例如图像,视频,音频,文本)以验证真实性 其出处、修改和/或传送的输出、身份和/或特征。7 尾注 1.“经合组织人工智能原则概述”,经济合作与发展组织(经合组织)人工智能政策观察站,2023年,https://oecd.ai/en/ai-principles。 2.经合组织,G7广岛生成人工智能进程(AI)迈向G7对生成人工智能的共同理解,2023年,https://www.oecd.org/publications/g7 -hiroshima-process

你可能感兴趣

hot

生成式人工智能治理模型框架(英)

信息技术
AI Verify Foundation2024-05-30
hot

人工智能治理之旅:发展与机遇(英)

信息技术
世界经济论坛2021-11-01
hot

全球人工智能治理发展报告

信息技术
赛迪2024-06-15
hot

人工智能治理白皮书

信息技术
中国信通院2020-09-28