AI智能总结
G E O R G E M A S O N U N I V E R S I T Y A I S T R A T E G I E S T E A M & T HE S T I M S O N C E N T E RP R E S E N T 2023年全球人工智能基础设施报告 作者: J.P.辛格·阿玛达·谢胡·卡罗琳·韦森ManpriyaDua 来自DavidA.Bray的前言With 2023年全球人工智能基础设施报告∗ J.P.Singh1、AmardaShehu2、CarolineWesson1和Manpriya Dua21乔治梅森大学政策与政府学院2乔治梅森大学计算机科学系 DavidBray的前言3史汀生中心杰出研究员 建议引文:辛格,J.P.,阿玛达·舍胡,卡罗琳·韦森和曼普利亚·杜瓦。《2023年全球人工智能基础设施报告》。大卫·布雷的前言。乔治·梅森大学和华盛顿特区史汀生中心的人工智能战略团队和数字创新研究所。2023年8月。∗ 这项研究得到了一个$密涅瓦研究倡议提供138.9万美元。请将有关此报告的查询发送至aipolicy@gmu.edu Contents 1425310 4134.1134.2144.3144.416 5175.119 6206.1比较国家人工智能基础设施:政策优先事项揭示206.2266.3文档级分析:分析5个最重要的主题-我们的国内文件中的ics...............................................................33 742 843 参考书目 46 表列表 1集群,主题,前10个单词和国家..............................................232AI文件数量排名前10位的国家....................................................263面向领先AI国家和欧盟的主题.........................................................294跨文档的主要主题............................................................................34 数字列表 1AI衣柜.......................................................................................162基于教育和才能的主题的示例词云。每个单词的字体大小遵循算法分配给该单词在该特定主题中的概率(根据对语料库中文档的分析确定)。.......................................................................................183国家人工智能基础设施:与国家相关的热图-主题分布。.............214国家AI基础设施主题词云主题1在语料库中没有太大意义,因此被省略。........................................................................................225国家内部人工智能基础设施:与国家相关的热图-主题分布。......276国家内部AI基础设施主题词云.....................................................287国家内部政策文件:每个国家的主题概率30每个主题8个国家计数309顶部面板:数据集和治理主题词云(模型在国家内部文档中学习的5个主题中的主题1)。底部面板:数据集和治理文档云,将该主题在国家(国家和国家内部文档)中出现的概率关联起来,利用更大的字体明显地关联主题最多的文档突出(概率)。.......................................................................3510顶部面板:教育和培训主题词云。底部面板:教育和培训文档云。3611顶部面板:经济主题词云。底部面板:经济文档云。.................3712顶部面板:合同主题词云。底部面板:收缩文档云。.................3813顶部面板:传输主题词云。底部面板:传输文档云。.................3914教育与人才方法...........................................................................40 1乔治·梅森的AI策略团队 乔治·梅森的人工智能战略团队提供了文化价值观和制度优先事项如何在国家和全球背景下塑造人工智能(AI)基础设施的证据,以便更好地了解比较AI环境对安全的影响。 人工智能战略由三年资助,$授予乔治·梅森大学139万笔赠款,用于研究全球人工智能(AI)基础设施的经济和文化决定因素,并描述其对国家和国际安全的影响。该团队于2022年4月15日开始该项目的工作。这是第一份年度AI基础设施报告。 该赠款是由国防部著名的Minerva研究计划授予的,该计划是基础研究办公室和政策办公室的联合计划,该计划支持社会科学研究,旨在扩大对安全的基本理解。 团队成员 目前,该团队由三名社会科学家,两名计算机科学家,一名计算机科学博士学生以及三名政治学,公共政策和哲学博士和硕士研究生组成。鉴于这个多元化的团队,这项研究反映了独特的分析创造力:团队成员在这项研究中已经合作了一年多,并学会了建立彼此的优势,以了解国家人工智能基础设施的格局,以及如何应用NLP方法以经验为基础进行比较,并将主题和国家专业知识进行文本化。阅读我们的研究团队的传记在第8节。 2前言:确保我们建立正确的基金会来评估对人工智能和社会的信任 亲爱的读者, 作为一个领域,人工智能(AI)自20世纪中期以来一直存在。1955年,U.S.计算机科学家约翰·麦卡锡创造了这个术语。1959年晚些时候,麦卡锡与马文·明斯基合作建立了人工智能项目,即现在麻省理工学院的CSAIL(计算机科学和人工智能实验室)。与麦卡锡和明斯基并行S.政治科学家赫伯特·西蒙(HerbertSimo)于1943年获得博士学位,探索行政组织的决策,并从事后来影响计算机科学,经济学和认知心理学领域的研究。1957年,Simo与AlleNewell合作开发了一个通用问题解决程序,将有关问题的信息与解决问题所需的策略分开。所有四个人-麦卡锡,明斯基,西蒙和纽维尔-将继续获得ACMA。M.图灵奖 在各自的职业生涯。在随后的近六十年中,人工智能研究开发了几种系统方法,包括:逻辑推理和问题解决算法,专家系统,统计推断和推理,决策支持系统,认知模拟,自然语言处理,机器学习,神经网络等等。虽然人工智能有许多子类别,并且自20世纪50年代以来有许多不同的方法 ,但在过去的几年里,基于变压器架构的神经网络的一个子集彻底改变了自然语言处理,并产生了现在所谓的大型语言模型(LLM)。就在去年,ChatGPT和变体等LLM激发了公众对AI未来的兴趣、兴奋和焦虑。虽然LLM的公共,商业,社区和个人价值的全部范围还有待观察,但这些模型对有关预测文本,合成信息以及整个多媒体音频甚至视频输出的有效工程提示提供响应的能力捕获了公众的时代精神。 I.关于不同国家决定在哪里指导AI方法的宝贵指南针 全球权威人士对机器是否能够执行以前认为只能由人类执行的工作以及它们是否能够产生看起来像人类的内容和交互表示兴奋和担忧。正是在这个时刻,这份2023年全球人工智能基础设施报告由J。P.辛格、阿玛达·舍胡和他们的博士生非常有先见之明。通过桥接多个领域,包括最好的计算机科学,经济学,政治学和公共政策,以类似于赫伯特·西蒙-辛格和最好的作品的合作方式。 Shehu制作了一个有价值的指南针,指出不同国家决定在未来指导他们的人工智能方法。他们的报告提出了严谨和急需的见解,这些见解使人们对未来的人工智能和社会的当前热情神秘化,即: •首先,该报告分享了令人信服的证据,表明人类与人工智能相关的未来将不仅仅由美国和中国来设定——除了这两个大国之外,还有多个国家正在推行不同的人工智能战略,这些国家的人工智能政策概述了不同的目标和拟议的路径。•其次,虽然在本报告中分析的54个国家人工智能计划中没有单一的大战略,但Sigh和Sheh在分析的国家战略中发现了类似的选择要素。研究人员将这些类似的选择元素称为“AI衣柜”,这是一个由团队中的博士生之一CarolieWesso创造的术语,将每个国家在组建量身定制的AI国家战略装备时可以做出的各种选择联系起来。•第三国家集群在本报告分析的不同国家战略中很明显-包括欧洲联盟,东亚,西班牙领导拉丁美洲集群和英国领导英国影响力集群。这些集群是否会导致更紧密的与AI相关的商业互动,国家间的民间关系以及与国家AI战略更紧密相关的国家之间的地缘政治联系,是现在和未来需要关注的关键领域。 II.建立必要的基础,跨学科的领域组合,以解决信任,人工智能和社会 这份重要的2023年报告与人工智能的全球时代精神并列,存在于更深层次的关于国家内部和国家之间信任的重要问题环境中。2017年10月,皮尤研究中心发现,居住在美国的25岁以下的居民中,只有不到45%的人认为资本主义是社会的良好力量。当时的当代研究还发现,在类似年龄段的人群中,人们对生活在民主制度中的重要性的信任水平正在下降-不仅对美国,而且对瑞典,澳大利亚,荷兰,新西兰和英国也是如此。这些全球趋势融合在一起,形成了一个中心问题-即: 各国能否援引导致对人工智能和社会信任的战略?——以及一个必然结果:各国能否鼓励对人工智能和社会的信任,同时面临对其经济和政治体系日益增长的不信任?读者应该注意,信任可以被定义为对不被你直接控制的行为者的行为感到脆弱 的意愿--这个定义对人类和人工智能行为者都有效。多项研究已经确定,信任的前身包括对个体的仁慈、竞争和正直的看法。如果对这三个方面的看法 前提是积极的,那么信任的可能性更大。如果感知是消极的或不存在,那么信任的可能性就更小。本报告中类似的选择要素,特别是构成报告中描述的“人工智能衣柜”的一组要 素,是公共和私营部门领导人评估国家人工智能战略是否具有解决提高人工智能和社会信任的挑战性问题的必要要素的重要工具。累积起来,这个对人工智能和社会的信任问题代表了各国关于其明确目标的 人工智能战略的一个重要问题。就明确的目标而言,尽管LLM及其产出已经抓住了2023年当前的公众意识,但国家、社区和网络群体可以利用人工智能来实现共享成果,而不仅仅是生成内容。请读者在看到报告中的分析和结果后,考虑人工智能和社会的更广泛的目标,包括探索如何: •人工智能能提高人类对我们现在需要做出的决定的理解吗?•人工智能能否帮助我们更好地理解我们的决策(或缺乏决策)对可能的本地和全球未来的影响?•人工智能是否可以帮助改善各个领域和不同地区的人类合作,并可能向人类提示和暗示其他人类正在进行类似项目?•人工智能能否帮助识别和协调不一致的目标和激励措施——无论是社区、地区还是全球——以开展重要的维持和平活动?•人工智能能否帮助改善公共安全、国际安全和全球应对自然和人为造成的破坏的准备?•人工智能能否帮助改善网络数字技术的运营和弹性,以实现组织和公共利益-尤其是在互联网设备不断增长的时代?•人工智能是否可以帮助改善开放社会的“基本结构”,以包括言论自由,以不同方式思考的自由,以及受过良好教育的公众在数据的数字海啸中帮助进行多元化讨论的必要性?•人工智能是否可以帮助改善教育,关注和创业活动,以解决气候变化,短期和长期粮食安全,自然资源以及90亿人口的未来可持续性等大而棘手的“毛球”问题? 这些重要问题代表了一