GEORGEMASONUNIVERSITYAISTRATEGIESTEAM&THESTIMSONCENTER PRESENT 2023年全球人工智能基础设施报告 作者: J.P.辛格·阿玛达·谢胡·卡罗琳·韦森 ManpriyaDua With 来自DavidA.Bray的前言 2023年全球人工智能基础设施报告∗ J.P.Singh1、AmardaShehu2、CarolineWesson1和ManpriyaDua21乔治梅森大学政策与政府学院 2乔治梅森大学计算机科学系 研究员 DavidBray的前言3史汀生中心杰出 建议引文:辛格,J.P.,阿玛达·舍胡,卡罗琳·韦森和曼普利亚·杜瓦。《2023年全球人工智能基础设施报告》。大卫·布雷的前言。乔治·梅森大学和华盛顿特区史汀生中心的人工智能战略团队和数字创新研究所。2023年8月。 ∗这项研究得到了一个$密涅瓦研究倡议提供138.9万美元。 请将有关此报告的查询发送至aipolicy@gmu.edu Contents 14 25 310 413 4.113 4.214 4.314 4.416 517 5.119 620 6.1比较国家人工智能基础设施:政策优先事项揭示20 6.226 6.3文档级分析:分析5个最重要的主题- 我们的国内文件中的ics33 742 843 参考书目46 表列表 1集群,主题,前10个单词和国家23 2AI文件数量排名前10位的国家26 3面向领先AI国家和欧盟的主题29 4跨文档的主要主题34 数字列表 1AI衣柜16 2基于教育和才能的主题的示例词云。每个单词的字体大小遵循算法分配给该单词在该特定主题中的概率(根据对语料库中文档的分析确定)。18 3国家人工智能基础设施:与国家相关的热图-主题分布。21 4国家AI基础设施主题词云主题1在语料库中没有太大意义,因此被省略。22 5国家内部人工智能基础设施:与国家相关的热图-主题分布。27 6国家内部AI基础设施主题词云28 7国家内部政策文件:每个国家的主题概率30每个主题8个国家计数 30 9顶部面板:数据集和治理主题词云(模型在国家内部文档中学习的5个主题中的主题1)。底部面板:数据集和治理文档云 ,将该主题在国家(国家和国家内部文档)中出现的概率关联起来,利用更大的字体明显地关联主题最多的文档 突出(概率)。35 10顶部面板:教育和培训主题词云。底部面板:教育和培训文档云。 36 11顶部面板:经济主题词云。底部面板:经济文档云。37 12顶部面板:合同主题词云。底部面板:收缩文档云。38 13顶部面板:传输主题词云。底部面板:传输文档云。39 14教育与人才方法40 1乔治·梅森的AI策略团队 乔治·梅森的人工智能战略团队提供了文化价值观和制度优先事项如何在国家和全球背景下塑造人工智能(AI)基础设施的证据,以便更好地了解比较AI环境对安全的影响。 人工智能战略由三年资助,$授予乔治·梅森大学139万笔赠款,用于研究全球人工智能(AI)基础设施的经济和文化决定因素,并描述其对国家和国际安全的影响。该团队于2022年4月15日开始该项目的工作。这是第一份年度AI基础设施报告。 该赠款是由国防部著名的Minerva研究计划授予的,该计划是基础研究办公室和政策办公室的联合计划,该计划支持社会科学研究,旨在扩大对安全的基本理解。 团队成员 目前,该团队由三名社会科学家,两名计算机科学家,一名计算机科学博士学生以及三名政治学,公共政策和哲学博士和硕士研究生组成。鉴于这个多元化的团队,这项研究反映了独特的分析创造力:团队成员在这项研究中已经合作了一年多,并学会了建立彼此的优势,以了解国家人工智能基础设施的格局,以及如何应用NLP方法以经验为基础进行比较,并将主题和国家专业知识进行文本化。阅读我们的研究团队的传记在第8节。 2前言:确保我们建立正确的基金会来评估对人工智能和社会的信任 亲爱的读者, 作为一个领域,人工智能(AI)自20世纪中期以来一直存在。1955年,U.S.计算机科学家约翰·麦卡锡创造了这个术语。1959年晚些时候,麦卡锡与马文·明斯基合作建立了人工智能项目,即现在麻省理工学院的CSAIL(计算机科学和人工智能实验室)。与麦卡锡和明斯基并行S.政治科学家赫伯特·西蒙(HerbertSimo)于1943年获得博士学位,探索行政组织的决策,并从事后来影响计算机科学,经济学和认知心理学领域的研究。1957年,Simo与AlleNewell合作开发了一个通用问题解决程序,将有关问题的信息与解决问题所需的策略分开。 所有四个人-麦卡锡,明斯基,西蒙和纽维尔-将继续获得ACMA。M.图灵奖在各自的职业生涯。在随后的近六十年中,人工智能研究开发了几种系统方法,包括:逻辑推理和问题解决算法,专家系统,统计推断和推理,决策支持系统,认知模拟,自然语言处理,机器学习,神经网络等等。 虽然人工智能有许多子类别,并且自20世纪50年代以来有许多不同的方法 ,但在过去的几年里,基于变压器架构的神经网络的一个子集彻底改变了自然语言处理,并产生了现在所谓的大型语言模型(LLM)。就在去年,ChatGPT和变体等LLM激发了公众对AI未来的兴趣、兴奋和焦虑。虽然LLM的公共,商业 ,社区和个人价值的全部范围还有待观察,但这些模型对有关预测文本,合成信息以及整个多媒体音频甚至视频输出的有效工程提示提供响应的能力捕获了公众的时代精神。 I.关于不同国家决定在哪里指导AI方法的宝贵指南针 全球权威人士对机器是否能够执行以前认为只能由人类执行的工作以及它们是否能够产生看起来像人类的内容和交互表示兴奋和担忧。正是在这个时刻,这份2023年全球人工智能基础设施报告由J。P.辛格、阿玛达·舍胡和他们的博士生非常有先见之明。通过桥接多个领域,包括最好的计算机科学,经济学,政治学和公共政策,以类似于赫伯特·西蒙-辛格和最好的作品的合作方式。 Shehu制作了一个有价值的指南针,指出不同国家决定在未来指导他们的人工智能方法。他们的报告提出了严谨和急需的见解,这些见解使人们对未来的人工智能和社会的当前热情神秘化,即: •首先,该报告分享了令人信服的证据,表明人类与人工智能相关的未来将不仅仅由美国和中国来设定——除了这两个大国之外,还有多个国家正在推行不同的人工智能战略,这些国家的人工智能政策概述了不同的目标和拟议的路径。 •其次,虽然在本报告中分析的54个国家人工智能计划中没有单一的大战略,但Sigh和Sheh在分析的国家战略中发现了类似的选择要素。研究人员将这些类似的选择元素称为“AI衣柜”,这是一个由团队中的博士生之一CarolieWesso创造的术语,将每个国家在组建量身定制的AI国家战略装备时可以做出的各种选择联系起来。 •第三国家集群在本报告分析的不同国家战略中很明显-包括欧洲联盟,东亚,西班牙领导拉丁美洲集群和英国领导英国影响力集群。这些集群是否会导致更紧密的与AI相关的商业互动,国家间的民间关系以及与国家AI战略更紧密相关的国家之间的地缘政治联系,是现在和未来需要关注的关键领域。 II.建立必要的基础,跨学科的领域组合,以解决信任,人工智能和社会 这份重要的2023年报告与人工智能的全球时代精神并列,存在于更深层次的关于国家内部和国家之间信任的重要问题环境中。2017年10月,皮尤研究中心发现,居住在美国的25岁以下的居民中,只有不到45%的人认为资本主义是社会的良好力量。当时的当代研究还发现,在类似年龄段的人群中,人们对生活在民主制度中的重要性的信任水平正在下降-不仅对美国,而且对瑞典,澳大利亚 ,荷兰,新西兰和英国也是如此。这些全球趋势融合在一起,形成了一个中心问题-即: 各国能否援引导致对人工智能和社会信任的战略?——以及一个必然结果 :各国能否鼓励对人工智能和社会的信任,同时面临对其经济和政治体系日益增长的不信任? 读者应该注意,信任可以被定义为对不被你直接控制的行为者的行为感到脆弱的意愿--这个定义对人类和人工智能行为者都有效。多项研究已经确定,信任的前身包括对个体的仁慈、竞争和正直的看法。如果对这三个方面的看法 前提是积极的,那么信任的可能性更大。如果感知是消极的或不存在,那么信任的可能性就更小。 本报告中类似的选择要素,特别是构成报告中描述的“人工智能衣柜”的一组要素,是公共和私营部门领导人评估国家人工智能战略是否具有解决提高人工智能和社会信任的挑战性问题的必要要素的重要工具。 累积起来,这个对人工智能和社会的信任问题代表了各国关于其明确目标的人工智能战略的一个重要问题。就明确的目标而言,尽管LLM及其产出已经抓住了2023年当前的公众意识,但国家、社区和网络群体可以利用人工智能来实现共享成果,而不仅仅是生成内容。请读者在看到报告中的分析和结果后,考虑人工智能和社会的更广泛的目标,包括探索如何: •人工智能能提高人类对我们现在需要做出的决定的理解吗? •人工智能能否帮助我们更好地理解我们的决策(或缺乏决策)对可能的本地和全球未来的影响? •人工智能是否可以帮助改善各个领域和不同地区的人类合作,并可能向人类提示和暗示其他人类正在进行类似项目? •人工智能能否帮助识别和协调不一致的目标和激励措施——无论是社区、地区还是全球——以开展重要的维持和平活动? •人工智能能否帮助改善公共安全、国际安全和全球应对自然和人为造成的破坏的准备? •人工智能能否帮助改善网络数字技术的运营和弹性,以实现组织和公共利益-尤其是在互联网设备不断增长的时代? •人工智能是否可以帮助改善开放社会的“基本结构”,以包括言论自由,以不同方式思考的自由,以及受过良好教育的公众在数据的数字海啸中帮助进行多元化讨论的必要性? •人工智能是否可以帮助改善教育,关注和创业活动,以解决气候变化,短期和长期粮食安全,自然资源以及90亿人口的未来可持续性等大而棘手的“毛球”问题? 这些重要问题代表了一些重要的、共同的结果,这些结果需要通过将人类社区聚集在一起的人工智能战略来探索和实现。虽然这份报告并不能回答所有问题 ,但它确实指出了不同国家在人工智能战略以及为更广泛的国际社会制定的执行宣言方面所追求的不同目标。此外,本报告既体现了跨学科团队对AI研究和AI的重要性。 教育。跨多个学科的工作对于研究和教育都至关重要,特别是当决策者,商业领袖和学生们都学习探索和推进必要的AI技术,商业,民用和道德概念,以实现更积极的未来。 III.对于Trust、AI和Societies来说,如果图灵测试是对AI的错误测试呢? 本报告代表了跨学科混合领域的先锋大会,其中包括计算机科学,经济学,政治学和公共政策的精华。最终,人工智能要成功造福国家、社区和网络人群,我们必须更多地了解人性。我们人类是自然选择压力的产物。达尔文进化论类似于“盲目的钟表匠”——因此,进化论并没有让我们准备好遇到人工智能的真正异化。对于人类来说,认为人工智能与我们想要和重视的东西相一致是有风险的,特别是当人工智能与特定结果的一致性问题仍然是几种神经网络方法尚未解决的挑战时。此外,我们人类将许多东西拟人化,包括动物,天气,无生命的物体,以及机器和现在的AI-即使这些东西根本不像我们人类那样行动,思考或行为。此外,训练AI在很大程度上取决于所使用的数据集,这意味着现有的人类数据集以及我们对AI的人类选择可能会放大一些对社会有益或有害的人性元素。这些要素包括我们每个人都拥有的相当数量的已知人类偏见,包括确认偏见,沉没成本偏见,群体偏见(aa,仇外心理),还有更多的偏见,幸运的是,这些偏见可以通过教育和经验来缓解。通过提供一个有价值的指南针阅读,了解不同国家决定在哪里指导他们未来的人工智能方法,并为汇集跨学科的混合领域来研究国家人工智能战略奠定必要的基础——辛格,Sheh和他们的学生使读者能够问我专业认为是2020年代的关键问题,特别是:如果图灵测试是AI的错误测试,该怎么办? 重要的是要记住最初的图灵测试