2023年10月 人工智能月刊 (2023.10.1-2023.10.31) 植德律师事务所元宇宙与数字经济行业委员会AIGC研究小组中国科学院大学经济与管理学院孙毅教授课题组 (排名不分先后) 导读 最新行业动态 1.StabilityAI发布StableLM3B语言模型 2.Nature:ChatGPT和其他人工智能工具将如何颠覆科学出版 3.Adobe发布了新一代Firefly模型 4.Gartner:到2026年,超过80%的企业将使用生成式AIapi或部署生成式AI 应用程序 5.谷歌:保护使用生成式AI的消费者 6.斯坦福大学发布《基础模型透明度指数》 7.IBMNorthPole:新的芯片架构指向更快、更节能的人工智能 8.英伟达发布AI系统Eureka,可训练机器人完成复杂任务 9.阿里达摩院发布首个遥感AI大模型 10.讯飞星火V3.0发布 11.OpenAI正在组建团队应对AI的灾难性风险 12.高通发布PC芯片,专为AI打造 13.波士顿动力最新研究将AI模型集成到机器人 14.百度文心一言开启收费模式 最新法律与监管动态 1.科技部、工信部等10部委联合发布《科技伦理审查办法(试行)》 2.《生成式人工智能服务安全基本要求》(征求意见稿)发布,向社会征求意见 3.工业和信息化部印发《人形机器人创新发展指导意见》 4.欧盟委员会发布最新人工智能示范合同条款草案 5.加利福尼亚州州长签署《删除法案》 6.美国总统拜登发布关于安全、可靠和值得信赖的人工智能的行政命令 7.七国集团宣布同意遵守《人工智能国际指导原则》和《开发先进人工智能系统组织的国际行为准则》 8.国家金融监督管理总局提示广大金融消费者警惕利用AI新型技术实施诈骗的风险 9.习近平主席在第三届“一带一路”国际合作高峰论坛开幕式提出《全球人工智能治理倡议》 10.FTC发布消费者对人工智能表示担忧的报告 11.乌克兰发布《人工智能(AI)监管路线图》 12.印度电子和信息技术部发布《印度人工智能2023计划》报告 13.美国、新加坡就人工智能发表联合声明 14.英国人工智能安全峰会发布《布莱切利宣言》,包括中国在内的28国及欧盟共同签署 15.环球音乐起诉人工智能公司Anthropic侵犯版权 一、最新行业动态 1.StabilityAI发布StableLM3B语言模型发布日期:2023年10月2日 来源:StabilityAI 链接: https://stability.ai/blog/stable-lm-3b-sustainable-high-performance-language-models -smart-devices 摘要: 据称StableLM3B有30亿个参数(业界通常使用的70到700亿个参数),相对来说是一种紧凑的语言模型,设计用于便携式数字设备,如手持设备和笔记本电脑。与大型模型不同,模型需要更少的资源和更低的运营成本,使大多数用户都可以轻松访问它们。这不仅使它们更便宜,而且还使它们更环保,因为它们消耗的电力要少得多。同时,StableLM3B具有很强的竞争力——它超越了以前最先进的3B参数语言模型,甚至在7B参数尺度上超越了一些最好的开源语言模型。 2.Nature:ChatGPT和其他人工智能工具将如何颠覆科学出版发布日期:2023年10月10日 来源:Nature链接: https://www.nature.com/articles/d41586-023-03144-w 摘要: 尽管《自然》杂志的一项调查显示,经常使用大语言的科学家仍占少数,但许多人预计,生成式人工智能工具将成为撰写手稿、同行评议报告和申请资助的常规助手。这些只是人工智能可以改变科学传播和出版的一些方式。科学出版商已经在科学搜索工具以及编辑和快速总结论文中试用生成式人工智能。许多研究人员认为,非英语母语者可以从这些工具中获益最多。一些人认为,生成式人工智能是科学家重新思考他们如何询问和总结实验结果的一种方式——他们可以使用大语言模型来完成大部分工作,这意味着更少的时间写论文,更多的时间做实验。 加州大学伯克利分校的计算生物学家MichaelEisen预测,生成式人工智能工具甚至可以从根本上改变科学论文的性质。但是出版商担心,使用人工智能的增加可能会导致更多质量差或错误的手稿——可能会出现大量人工智能辅助的赝品。 图灵财经短评 人工智能,特别是生成式人工智能已经对社会各个方面产生深刻影响。学术界也不例外,目前来看,不论出版集团还是研究人员对人工智能的看法仍然褒贬不一。从Chatgpt横空出世以来,在学术界就引发了不小震动,不少高校明令禁止使用这类AI工具,比如香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,许多世界顶尖高校表明同样态度。随着大语言模型的发展以及国家的肯定态度,似乎对此类工具有了新的态度转变,除了上述报道,Nature还做过一项针对全球的博士后进行的调查,结果表明有三分之一的的受访者正在使用AI聊天机器人来帮助自己修改文字、生成或编辑代码、整理相关领域的文献等工作。结合日前在科技部科技监督与诚信建设司的指导和支持下,中国科学技术信息研究所牵头联合施普林格·自然(等三家国际出版集团出版的《学术出版中AIGC使用边界指南》,可以看出,如何加强AIGC在学术出版过程中的规范化使用应是未来的发展方向。此外,学术研究人员在利用工具提高效率的同时,更应该坚守学术道德。 3.Adobe发布了新一代Firefly模型发布日期:2023年10月10日 来源:Adobe链接: https://news.adobe.com/news/news-details/2023/Adobe-Releases-Next-Generation-of-Firefly-Models/default.aspx 摘要: 在全球最大的创意大会AdobeMAX上,Adobe发布了AdobeFireflyImage2Model、AdobeFireflyVectorModel和AdobeFireflyDesignModel三款模型。FireflyImage2是下一代生成式人工智能成像,为用户带来了一个新的水平的创意控制和质量。FireflyVector是世界上第一个专注于生成矢量图形的生成式AI模型,也是第一个生成“人类品质”矢量和图案输出的生成式AI模型,将Adobe的矢量图形和生成式AI专业知识直接带入AdobeIllustrator的工作流程中。FireflyDesign通过新的“文本到模板”功能,在AdobeExpress中即时生成令人惊叹的高质量模板设计。 链接: https://www.gartner.com/en/newsroom/press-releases/2023-10-11-gartner-says-more -than-80-percent-of-enterprises-will-have-used-generative-ai-apis-or-deployed-generative-ai-enabled-applications-by-2026 摘要: 根据Gartner公司的数据,到2026年,超过80%的企业将使用生成式人工智能GenAI应用程序编程接口api或模型,或在生产环境中部署支持GenAI的应用程序,而2023年这一比例还不到5%。Gartner杰出副总裁分析师ArunChandrasekaran表示:“在医疗保健、生命科学、法律、金融服务和公共部门等许多行业,对生成式人工智能的需求正在增加。” Gartner预计在十年内对组织产生巨大影响的三项创新包括支持Genai的应用程序、基础模型和AI信任、风险和安全管理。 5.谷歌:保护使用生成式AI的消费者发布日期:2023年10月13日 来源:谷歌链接: https://cloud.google.com/blog/products/ai-machine-learning/protecting-customers-with-generative-ai-indemnification 摘要: 谷歌称自己的客户如果在版权方面受到挑战,公司将承担潜在的法律风险。谷歌将从两个方面的赔偿来让用户在使用我们的生成式人工智能产品时更加放心,第一个问题涉及谷歌对训练数据的使用,而第二个问题专门涉及基础模型的生成输出。 图灵财经短评 生成式人工智能表现出强大的生产力,同时任何人只需简单了解便可熟练使用,但这也带来了诸多挑战。今年年初,全球知名图片提供商华盖创意起诉热门人工智能绘画工具StableDiffusion的开发者StabilityAI,称其侵犯了版权,此外近日北京互联网法院依法公开审理了一起AI文生图著作权案,关于版权的侵权案件已经引发了多方关注。大语言模型的训练数据大多数来源于网页数据,如果没有标注,用户大多数情况下是不了解生成结果的来源。谷歌的这项措施既是应对监管的行动,在各大厂商大模型纷纷推出的背景下,也是吸引消费者的一种手 此外,作为客户也应当发挥作用。例如此赔偿仅适用于没有试图故意创建或使用生成的输出来侵犯他人的权利;以及在使用现有的和新兴的工具,例如引用来源以帮助负责任地使用生成的输出。 段。除了政府对数字版权的立法规定外,大模型更应该增加其透明度,对数据来源应作出详尽的说明,减少此类事件发生。 6.斯坦福大学发布《基础模型透明度指数》发布日期:2023年10月18日 来源:斯坦福大学链接: https://hai.stanford.edu/news/introducing-foundation-model-transparency-index 摘要: 来自斯坦福大学、麻省理工学院和普林斯顿大学的多学科团队为评估透明度,设计了一个名为基础模型透明度指数的评分系统。该模型评估了透明度的100个不同方面,从公司如何建立基础模型,如何运作,以及如何在下游使用。团队使用100分指数对10家主要公司进行评分时,发现最高分在47到54之间,而最低 值只有12分。 大约三分之一的指标与基础模型开发人员如何构建模型有关,包括关于训练数据的信息,用于创建模型的劳动,以及所涉及的计算资源。另外三分之一与模型本身有关,包括其能力、可信度、风险以及这些风险的缓解。最后三分之一涉及如何在下游使用模型,包括公司关于模型分发、用户数据保护和模型行为的政策,以及公司是否为受影响的个人提供反馈或纠正的机会。 图灵财经短评 从目前大模型的发展来看,不管像ChatGPT这样的顶尖的算法,还是其他厂商的模型也会存在一个共性问题,那就是模型的质量取决于用于训练的数据质量。但导致不良模型可能有多种原因,除了输入的数据存在问题,还存在数据清理不到位、模型的参数设置不当等因素。因此,一旦模型出现错误却不容易找到其根本原因。这就是由模型的不透明引发的“信任危机”。 总体上说,大模型的不透明性主要有几个方面,一是一些算法的不可解释性;二是训练数据的选择及其来源的不明确;三是模型持续迭代过程不透明。从公司利益出发,大模型不透明可能是开发公司为了避免法律的约束以及保护自身的商业机密、甚至创造行业壁垒。种种原因导致很多模型是处于“保密”状态,达不到可信任的程度,斯坦福的数据显示没有一个模型能够达到及格水平,因此加强监管的同时,更需要一份权威的评估标准解决这个问题。 根据得分,排名第一的是Meta的Llama2,但分数仅为54;GPT-4分数仅仅为48,排名第三;最后一名是Amazon的TitanText,仅取得12分。 7.IBMNorthPole:新的芯片架构指向更快、更节能的人工智能发布日期:2023年10月20日 来源:IBM链接: https://research.ibm.com/blog/northpole-ibm-ai-chip 摘要: 加州IBM研究院(IBMResearch)实验室研发的一款新型芯片声称有