您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Microsoft]:治理人工智能:未来蓝图 - 发现报告
当前位置:首页/行业研究/报告详情/

治理人工智能:未来蓝图

信息技术2023-05-25-Microsoftc***
治理人工智能:未来蓝图

治理AI: 未来的蓝图 2023年5月25日 目录 前言3 微软副主席兼总裁布拉德·史密斯 第1部分治理人工智能:法律和监管蓝图未来9 实施和建立新的政府主导的AI安全框架10 要求为控制的AI系统提供有效的安全制动器 关键基础设施12 基于技术制定广泛的法律和监管框架 AI架构15 提高透明度并确保学术和非营利组织对AI的访问追求 新的公私伙伴关系,将人工智能作为解决这一问题的有效工具 新技术带来的不可避免的社会挑战26 第2部分按设计负责:微软构建AI的方法 有利于社会的制度28微 软致力于负责任地开发AI29在 Microsoft运营负责任的AI30案 例研究:将我们负责任的AI方法应用于新的Bing34通 过公司文化推进负责任的AI36在 负责任的AI旅程中赋予客户权力39 Conclusion41 前言:我们如何最好地治理AI? BradSmith,微软副主席兼总裁 “不要问电脑能做什么,要问他们应该做什么。 这是我在2019年合著的一本书中关于人工智能和道德的一章的标题。当时,我们写道:“这可能是我们这一代人的决定性问题之一。“四年后 ,这个问题不仅在世界的首都,但围绕着许多餐桌。 正如人们已经使用或听说过OpenAI的强大功能GPT-4基础模型,他们经常感到惊讶甚至震惊。许多人被热情甚至兴奋。有些人担心甚至害怕。 几乎每个人都清楚的是 我们四年前注意到-我们是第一代人类创造机器的历史,这些机器可以做出以前只能由人做出的决定。 世界各国都在问共同的问题。我们如何使用这项新技术来解决我们的问题?我们如何避免或管理它可能造成的新问题?我们如何控制如此强大的技术? 这些问题不仅需要广泛而周到谈话,但果断而有效的行动。本文提供了我们作为公司的一些想法和建议。 这些建议建立在我们多年来一直在学习的经验教训的基础上。 微软首席执行官萨蒂亚·纳德拉(SatyaNadella)在2016年写道:“也许我们能进行的最有成效的辩论不是善与恶:辩论应该是关于灌输给人们的价值观和创造这项技术的机构。“ 从那时起,我们已经定义,发布和实施道德原则来指导我们的工作。我们建立了不断完善的工程和治理系统 将这些原则付诸实践。如今,我们在Microsoft拥有近350名负责任的 AI员工,帮助我们实施构建安全、旨在造福社会的透明AI系统。 改善人类状况的新机会 我们方法的进步给了我们看到不断扩大的方法的能力和信心我们已经看到人工智能有助于拯救个人的视力,在新的治疗方法上取得进展癌症,产生关于蛋白质的新见解,并提供预测,以保护人们免受危险的天气。 其他创新正在抵御网络攻击,并帮助保护基本人权,即使在国家遭受外国入侵或内战的折磨。 日常活动也会受益。通过充当副驾驶在人们的生活中,基础模型的力量像GPT-4正在把搜索变成一个更强大的工具研究并提高工作中人们的生产力。对于任何努力记住如何帮助他们的13岁的孩子通过代数家庭作业,基于AI的援助是一个有用的导师。 在很多方面,人工智能可能比之前的任何发明都为人类的利益提供了更大的潜力。自从印刷机的发明在1400年代的可移动类型,人类的繁荣已经以加速的速度增长。像蒸汽一样的发明 发动机,电力,汽车,飞机,计算机和互联网为现代文明提供了许多基石。就像印刷机本身一样, 人工智能提供了一种新工具,可以真正帮助推进人类的学习和思维。 未来的护栏 另一个结论同样重要:仅关注使用AI改善人们生活的许多机会。这也许是社交媒体角色中最重要的教训之一。十多年前,技术专家和政治评论员都对社交媒体在传播中的作用大加赞赏阿拉伯之春期间的民主。然而五年后我们了解到社交媒体,就像许多其他 它之前的技术将成为武器和工具-在这种情况下,旨在民主本身。 今天,我们年纪大了10岁,也更聪明了,我们需要把这种智慧付诸实践。我们需要及早思考对未来可能存在的问题采取清晰的态度。随着技术的发展,确保对AI的适当控制与追求其利益同样重要。我们是作为一家公司,我们决心以安全和负责任的方式开发和部署人工智能。我们也认识到, 然而,人工智能所需的护栏需要一个广泛共享的责任感,不应仅由技术公司承担。 当我们在微软采用我们的六个道德原则时AI在2018年,我们注意到一个原则是其他一切的基石-问责制。这是基本的需要:确保机器保持有效人们的监督以及设计和操作机器的人仍然对其他所有人负责。简而言之,我们必须始终确保AI处于人类控制之下。这必须是技术的第一优先级公司和政府都一样。 这与另一个基本概念直接相关。在民主社会中,我们的基本原则之一是 ,任何人都不能凌驾于法律之上。任何政府都不能凌驾于法律之上。任何公司都不能凌驾于法律之上,任何产品或技术都不能凌驾于法律之上 。这导致了一个关键的结论:设计和操作人工智能系统的人 除非他们的决定和行动要服从法治。 在许多方面,这是正在展开的人工智能政策和监管辩论的核心。政府如何最好地确保人工智能受制于法治?简而言之,什么形式新的法律 、法规和政策应该采取吗? 为公众提供的五点蓝图 AI治理 本文的第1部分提供了一个五点蓝图来解决通过公共政策,法律和法规,我们提供了一些当前和新兴的AI问题。 蓝图的每一部分都将从更广泛的讨论中受益,并需要更深入的发展。但是我们希望这可以为今后的工作做出建设性贡献。 首先,实施和建立新的政府主导的AI安全框架。成功的最佳方法通常是建立在他人的成功和好主意的基础上。尤其是当一个人想要快速移动时。在这种情况下,那里 1 实施和构建新的政府主导的AI安全框架 2 需要为控制关键基础设施的AI系统提供有效的安全制动器 3 制定更广泛的法律和监管框架 基于Al的技术架构 五点治理AI的 蓝图 4 促进透明度,确保学术和 公共访问Al 追求新的公私伙伴关系使用Al作为 5解决新技术带来的不可避免的社会挑战的有效工具 是在完成工作的基础上再接再厉的重要机会 就在四个月前,美国国家标准与技术研究所或NIST。该部门的一部分在商业方面,NIST已经完成并推出了一款新的人工智能风险管理框架。 我们提出了四项具体建议来实施和建立该框架,包括微软为回应最近与领先的AI公司举行的白宫会议而做出的承诺。我们还认为,政府和其他政府可以通过基于此框架的采购规则来加速发展势头。 第二,需要对控制关键基础设施的人工智能系统进行有效的安全制动在某些地方,有思想的人越来越多地问,随着人工智能变得越来越强大 ,我们是否可以令人满意地控制它。有时人们会担心人工智能对关键基础设施的控制,如电网,供水系统,和城市交通流量。 现在是讨论这个问题的合适时机。这份蓝图提出了新的安全要求,实际上将为控制指定关键操作的AI系统创建安全制动器 基础设施。这些故障安全系统将是一部分ofacomprehensiveapproachtosystemsafetythatwouldkeepeffectivehumanoversight,restoring,androbusttopofmind.Inspirit,theywouldbesimilartothebreakingsystemsengineershavelongbuilt 其他技术,如电梯、校车和高速列车,安全管理不只是每天场景 ,但紧急情况也是如此。 在这种方法中,政府将定义一类控制关键的高风险人工智能系统基础设施,并保证将此类安全措施作为系统管理综合方法的一部分。新法律将要求这些系统的运营商通过设计将安全制动器构建到高风险的AI系统中。然后,政府将确保运营商进行测试高风险系统定期确保 了解你的云 了解您的客户 了解您的内容 KY3C: 将“了解您的客户”应用于AI服务为金融服务开发的概念 系统安全措施是有效的。控制指定关键基础设施运行的人工智能系统将仅部署在许可的人工智能数据中心中,这些数据中心将通过应用这些安全制动器的能力来确保第二层保护,从而确保有效的人为控制。 第三,基于AI的技术架构制定广泛的法律和监管框架。我们认为,将需要一个法律和监管架构对于反映AI本身技术架构的AI。简而言之 ,法律将需要根据不同行为者在管理人工智能技术不同方面的作用,对不同行为者承担各种监管责任。 因此,此蓝图包含有关一些进入建筑和使用的关键部分新的生成AI模型。以此为背景,它建议不同的法律对在技术栈的三层:应用层、模型层和基础层。 这应该首先在应用层到人工智能的使用。这是对人们的安全和权利影响最大的层,特别是因为人工智能的影响在不同的技术场景下可能会有很大差异。在许多领域,我们不需要新的法律法规。我们需要应用和执行现有的法律和法规,帮助机构和法院发展适应新的人工智能场景所需的专业知识。 然后,将需要为功能强大的AI基础模型制定新的法律和法规,最好由新的政府机构实施。这将影响技术堆栈的两层。第一层将需要这些模型的新法规和许可他们自己。第二个将涉及这些模型所在的AI基础设施运营商的义务 开发和部署。下面的蓝图为每个层提供了建议的目标和方法。 在这样做的过程中,这份蓝图部分建立在近几十年来银行业发展起来的一条原则之上,以防止洗钱和犯罪或恐怖分子使用金融服务。“了解您的客户”或KYC原则要求金融机构验证客户身份,建立风险状况并监控交易以帮助检测可疑活动。采用这一原则并应用KY3C方法在 AI上下文了解自己的某些义务云,一个的 客户,和一个的内容. 在第一种情况下,指定的强大AI模型的开发人员首先“了解其模型所在的云”开发和部署。此外,例如对于涉及敏感用途的场景,与客户有直接关系的公司-无论是模型开发人员,应用程序提供商还是云运营商该模型正在运行-应该“了解客户”正在访问它。 此外,公众应该有权“知道AI通过使用标签或当视频之类的东西时 ,其他标记会通知人们或音频文件是由AI模型生成的,而不是ahuman.Thislabelingobligationshouldalsoprotectthepublicfromthealternativecontentandthe创造“深度假货”。这将需要制定新的法律,并且会有许多重要的问题和细节来解决。但是民主的健康和公民话语的未来将受益于深思熟虑阻止使用新技术欺骗或欺骗公众的措施。 第四,提高透明度,确保学术和非营利组织对AI的访问。我们认为,关键的公共目标是提高透明度并扩大 AI资源。虽然存在一些重要的紧张局势在透明度和安全需求之间,存在许多机会以负责任的方式使AI系统更加透明。这就是Microsoft致力于年度AI透明度报告和其他扩展步骤我们的AI服务的透明度。 我们还认为,扩大对学术研究和非营利社区的人工智能资源的访问至关重要。 基础研究,特别是大学的基础研究,对经济和战略自1940年代以来美国的成功。但是除非学术研究人员可以获得实质性的更多的计算资源,有一个真正的风险,科学和技术调查将受到影响,包括与人工智能相关的我们的蓝图要求采取新的步骤,包括我们将在整个Microsoft采取的步骤,以解决这些优先事项。 第五,寻求新的公私伙伴关系,将人工智能作为一种有效的工具来应对新技术带来的不可避免的社会挑战。One 近年来的教训是,当民主社会利用技术的力量并将公共和私营部门聚集在一起时,他们可以取得什么成就。这是我们需要借鉴的教训,以解决人工智能对社会的影响。 我们都将受益于清醒的乐观情绪。人工智能是一个非凡的工具。但是像其他技术,它也可以成为一种强大的武器,世界各地将会有一些人寻求以这种方式使用它。但是我们应该从网络中振作起来前线和乌克兰战争的最后一年半。 我们发现,当公共和私营部门 一起工作,当志同道合的盟友走到一起时,当我们开发技术并将其用作盾牌时,它比地球上任何剑都更强大。 现在需要开展重要工作,利用人工智能保护民主和基本权利,提供广泛的人工智能技能,促进包容性增长,并利用人工智能的力量来推进地球的可持续发展需求。也许最重要的是,一波新的人工智能技术提供了一个大胆思考和大胆行动的机会。在每个领域,成功的关键将是制