您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[德邦证券]:德邦金工文献精译第十二期,了解GPT:应用篇 - 发现报告
当前位置:首页/其他报告/报告详情/

德邦金工文献精译第十二期,了解GPT:应用篇

2023-08-05德邦证券啥***
德邦金工文献精译第十二期,了解GPT:应用篇

证券分析师 金融工程专题 了解GPT:应用篇 ——德邦金工文献精译第十二期 肖承志 资格编号:S0120521080003 邮箱:xiaocz@tebon.com.cn 研究助理 相关研究 1.《了解GPT:训练篇——德邦金工文献精译第十一期》2023.06.29 2.《ChatGPT能够预测股票价格的走势吗?收益可预测性和大型语言模型 ——德邦金工文献精译第十期》 2023.03.31 3.《训练语言模型以遵循带有人类反馈的指令——德邦金工文献精译第八期》2023.03.16 证券研究报告|金融工程专题 深度报告 2023年08月04日 投资要点: 2023年5月23日,微软举办了Build2023开发者大会。在该大会上,OpenAI创始人AndrejKarpthy发表了题为“StateofGPT”的专题演讲,向与会者介绍了GPT模型的最新动态。本文介绍了演讲的第二部分内容——大模型的应用。 应用GPT需要了解GPT的认知差异、使用“提示”引导GPT、提醒GPT回顾检查。此外演讲介绍了提高模型表现的方法,例如检索增强模型、约束提示技术和模型微调。很多方法都可以帮助GPT更好地理解问题,并生成更准确合理的回答。 使用GPT模型时需注意确保在提示中详细阐述任务内容,添加相关上下文信息,并使用提示工程技术来改善模型性能。对于数据量较小的情况,试用少样本示例提示;对于大模型难以完成的任务,利用各种工具和插件。处理提示和答案时,关注它们的相关性和连贯性,尝试生成多个样本,最大化提示效果后进行参数微调。最后,优先考虑使用强化学习和人类反馈(RLHF)以获得更好的效果。 OpenAI于2022年11月发布ChatGPT、2023年3月发布GPT-4后,全球多个研究机构都在积极推动大型语言模型的研究,以追赶和超越OpenAI的前沿科研成果。近期,Claude2、Llama2、ChatGLM2等第二代大型语言模型相继亮相,谷歌的Bard实现升级,新的开源大型语言模型也纷纷发布。这一系列的发展趋势清 晰地指示出大型语言模型的竞争日趋激烈,同时也体现出大型语言模型的研究正在向着更规模化和成熟化的方向发展。 大型语言模型的研究进步已推动了许多实用工具的发展,目前应用于办公、代码撰写、金融分析的生产力工具的也愈发成熟。例如,GitHubCopilot用于提高代码撰写效率,BloombergGPT提高用于金融分析效率。NewBing、Microsoft365Copilot 和WPSAI也提升了搜索和办公工具效率。此外,ChatGPTPlugins和CodeInterpreter插件更大程度上开发了OpenAI模型的应用潜力。 风险提示:数据不完备和滥用风险,信息安全风险,算法伦理风险 请务必阅读正文之后的信息披露和法律声明 内容目录 1.微软开发者大会专题演讲:StateofGPT5 2.应用GPT的注意事项5 2.1.使用“提示”引导GPT作出更好的回答6 2.2.提醒GPT回顾和检查6 2.3.提高模型表现的方法7 2.4.检索增强模型和约束提示技术8 2.5.模型微调9 2.6.有效应用GPT助手的建议9 3.近期发布的大语言模型10 3.1.Llama2大语言模型10 3.2.ChatGLM2大语言模型11 3.3.Baichuan-13B11 3.4.谷歌Bard11 3.5.Claude212 4.大模型的应用12 4.1.GitHubCopilot12 4.2.NewBing13 4.3.Microsoft365Copilot13 4.4.WPSAI13 4.5.BloombergGPT14 4.6.ChatGPTPlugins14 4.7.CodeInterpreter15 5.参考文献16 6.风险提示16 信息披露17 图表目录 图1:OpenAI创始人AndrejKarpthy在微软开发者大会演讲5 图2:AndrejKarpathy”StateofGPT”的PPT封面5 图3:人脑思考过程例子6 图4:使用“提示”进行引导:少样本提示和零样本提示6 图5:提醒GPT回顾和检查7 图6:思想树与AlphaGo7 图7:AutoGPT与ReAct7 图8:不同提示语句下模型表现8 图9:GPT工具和插件8 图10:检索增强模型9 图11:约束提示技术9 图12:模型微调例子9 图13:Llama2发布10 图14:Llama2训练参数10 图15:Llama2与其他语言模型的性能对比11 图16:ChatGLM2与其他语言模型的性能对比11 图17:Baichuan-13B与其他语言模型的性能对比12 图18:2023年7月13日谷歌Bard更新,首度支持中文12 图19:Claude2官网12 图20:ChatbotArena排行榜12 图21:2021年6月29日,GitHubCopilot诞生13 图22:2023年2月7日,NewBingAI诞生13 图23:Microsoft365Copilot13 图24:WPSAI13 图25:BloombergGPT14 图26:使用OpenAI插件AiToolHunt寻觅对口的工具14 图27:使用OpenAI插件PortfolioPilot对投资组合优化15 图28:使用OpenAI插件LinkReader和Wolfram解析文件并解题15 图29:使用OpenAI插件AFinChat分析股票新闻情绪15 图30:使用OpenAI插件GiftWrap获取礼物建议15 图31:使用CodeInterpreter进行数据分析16 图32:使用CodeInterpreter分析数据特征16 表1:GPT的优势和缺陷,以及弥补认知差异可以采取的措施6 表2:有效应用GPT助手的建议10 1.微软开发者大会专题演讲:StateofGPT 2023年5月23日,微软举办了Build2023开发者大会。在该大会上,OpenAI创始人AndrejKarpthy发表了题为“StateofGPT”的专题演讲,向与会者介绍了GPT模型的最新动态。 图1:OpenAI创始人AndrejKarpthy在微软开发者大会演讲图2:AndrejKarpathy”StateofGPT”的PPT封面 资料来源:AndrejKarpathy“StateofGPT”,德邦研究所资料来源:AndrejKarpathy“StateofGPT”,德邦研究所 这次演讲可以被划分为两个主要的部分: •第一部分,讨论如何训练一个GPT助手; •第二部分,讨论如何有效地应用GPT助手。 本文将主要专注于第二部分的内容——即如何有效地应用GPT助手。除了演讲内容本身,我们还将关注最近发布的大模型和大型模型日益成熟的应用。 2.应用GPT的注意事项 人脑和GPT架构存在认知差异。例如,当写一篇关于“加州的人口是阿拉斯加的53倍”的博客或文章时,人脑通常会经历丰富的内心独白,并结合相关资料和工具进行反复验证和纠错,如图3。然而,在训练GPT时,这些内容作为训练 数据只是标记序列——所有内心独白、思考和推理过程都被剥离出去。GPT会对每个标记花费大致相同的计算能力来读取这些标记序列,而人脑则会根据任务难易花费不确定长短的时间。本质上讲,GPT只是一个标记模拟器。 GPT的优势和缺陷,以及弥补认知差异可以采取的措施如表1: 表1:GPT的优势和缺陷,以及弥补认知差异可以采取的措施 GPT的缺陷GPT的优势弥补GPT认知差异的措施 1)没有明确的知识边界,不知道自己擅长和 1)对GPT生成的结果保持一定的怀疑和审慎。在涉及复 不擅长的领域,只是简单地模仿下一个标记1)拥有大量基于事实的知识,涵盖广阔的领域杂推理和判断的情况下,我们应该将它作为一个辅助工 具,而不是绝对依赖它的答案 2)不会对变化做出反应,不会进行检查或纠2)拥有相对较大且完美的工作记忆,因为其内2)通过与GPT进行对话式交互来获取更好的结果,例如 错,只是对标记序列进行采样 部的自注意机制可以提供上下文窗口的所有内逐步迭代地向GPT提供反馈和指导,以引导其生成更准 容给Transformer使用确、合理的回答 3)没有独立的内心独白,即思考和推理过程3)通过结合其他可靠的来源和工具,对GPT生成的内容 进行额外的验证和纠错,以确保信息的准确性和可靠性 资料来源:AndrejKarpathy“StateofGPT”,德邦研究所 图3:人脑思考过程例子图4:使用“提示”进行引导:少样本提示和零样本提示 资料来源:AndrejKarpathy“StateofGPT”,德邦研究所资料来源:AndrejKarpathy“StateofGPT”,德邦研究所 2.1.使用“提示”引导GPT作出更好的回答 大型语言模型进行推理时需要使用标记来指导其行为。为了使模型更好地理解问题,可以将任务分解为多个步骤或阶段,并模拟人类思维的内在独白。因此,需要使用更准确的表达来描述问题——使用恰当的提示(Prompts): 1)少样本提示(Few-shot):在进行提问提供几个示例模板,让Transformer 可以仿照这些模板进行回答,从而产生更好的结果。 2)零样本提示(Zero-shot):在提问时使用“让我们逐步思考(let'sthinkstepbystep)”等提示词,引导Transformer采用逐步思考的方式进行推理。这将使得Transformer降低其推理速度,并展示其工作的过程。 2.2.提醒GPT回顾和检查 当GPT进行预测时,可能会采样到不太好的标记,这时他们的推理就会陷入困境且难从错误中恢复过来。因此需要确保模型具备回顾、检查和尝试的能力。实际上,当大型语言模型获取到不佳样本并产生较差的结果时,其自身似乎能有 所察觉。例如,如果要求模型生成一首不押韵的诗,它可能会生成一首实际上是押韵的诗,但当询问它是否完成了任务时,它会意识到自己没有完成,并重新生成一首诗。然而,如果不提醒它进行检查,它就不会自动进行检查。因此,需要推动模型进行检查。 图5:提醒GPT回顾和检查 资料来源:AndrejKarpathy“StateofGPT”,德邦研究所 从更广泛的角度来看,以上过程可以类比于人类思考的两个模式:系统一和系统二。系统一是自动且快速地产生结果的模式,对应于大型语言模型;而系统二是大脑中经过深思熟虑、缓慢思考和计划的部分,对应于“自我一致性”。目前,许多研究人员正在研究一些提示工程,旨在使大型语言模型具备一些类似于人类大脑的能力。 图6:思想树与AlphaGo图7:AutoGPT与ReAct 资料来源:AndrejKarpathy”StateofGPT”,德邦研究所资料来源:AndrejKarpathy”StateofGPT”,德邦研究所 图6是Recreate方法,模型被允许使用工具,将提示的答案构建为一系列思考、行动和观察的序列,代表了一个完整的推理过程。 图7是AutoGPT方法,允许大语言模型保留任务列表并递归地分解任务。 AutoGPT是系统思考的方法,但目前效果还不够理想。 2.3.提高模型表现的方法 GPT只接受了语言建模方面的训练。GPT有时会产生一种不愿取得更好表现的特性,因为它们只是在对训练集进行模仿。为了获得更好的效果,需要给GPT 明确的指导,例如,在物理问题或类似问题的提示中,GPT无法区分一个学生完全错误的答案和一个正确的专家级答案的区别。为此,可以采取以下方法来提高模型的表现: 1)提示“确保正确答案存在”:在之前提到的“让我们逐步思考”提示的基础上,更好的提示方式是“让我们逐步思考并确保我们找到正确答案”。这样可以使GPT不必浪费时间在低质量的解决方案上。图8是来自论文的例子,该例子尝试了多种提示,最终发现“让我们逐步思考并确保我们找到正确答案”的作用非常明显,可以达到较高的准确率。 2)设定合理的背景信息:例如,可以假设GPT是