您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:如何理解ChatGPT的强势出圈和国内发展?–20230215 - 发现报告
当前位置:首页/会议纪要/报告详情/

如何理解ChatGPT的强势出圈和国内发展?–20230215

2023-02-16未知机构偏***
如何理解ChatGPT的强势出圈和国内发展?–20230215

¶ChatGPT的运作机制、技术原理ChatGPT是一个基于语言模型gpt模型的一个聊天机器人,它是用我们人工智能的强化学习来进行训练的。 它的突破性主要是在于它用了人类的反馈来去训练语言模型a通过增加人类的反馈来不断迭代人类的普通的标注,比如人类会对他所有的给出的答案做出标注,哪些答案他的回答是比较好的,就给这样的答案以排名,把这样的排名再给我们的语言模型去进一步学习b通过上万次的人类反馈的迭代,就是通过不同的语言内容来去使语言模型去不断训练,直到语言模型回答的内容跟人类想要的内容是保持一致的。 这样就形成了ChatGPT。 ChatGPT它因为是基于GPT模型的一个语言模型。 我们就要大概的先讲一下GPT模型的一个一个来由GPT模型是一个生成的预训练的transformer的模型。 transformer模型是深度学习语言模型的一个基础的框架,是在2018年6月的时候开始有第一个gpt模型a从2018年6月份OpenAi提出了第一个gpt模型,得出了关键结论就是我们说的transformer架构跟预训练模型的结合,就能够产生这种非常强大的语言模型b可以实现强大的自然语言理解。 也就是从2018年的6月份开始,这种强大的自然语言理解的模型的这个技术范式开始被确立起来。 接着在2019年2月到2020年5月分别openAI分别发布了gpt2和GPT3c到GPT3的时候已经比GPT2大一百倍,它拥有大概1,750 亿个参数。 但是它跟原始的GBT模型并没有特别本质的不同,基本原理是大概一致的。 但是它的性能比较是它发展的一个瓶颈,因为它的模型特别大d在2020年5月份提到了GPT3以后,其实一直以来它大规模的预训练模型已经基本上确立了,直到我们2022年11月底出来了。 ChatGPT的模型。 这一次进行了一个新的更新,特别是发布了它的对话模式的功能,可以放在网站上,让任何人来用对话的形式跟大模型进行交互使得它可以做到回答问题,而也能承认错误,或者是质疑不正确的一些问题,或者是拒绝不恰当的请求等等。 这样就形成了一个面向我们c端用戶去试用,非常好用的这么一个ChatGPT的一个机器人a他的工作原理就是他就是用机器学习的算法来分析和理解我们文本输入的一个含义,根据文本输入去生成相应的响应b这个模型它是在大量的文本数据上进行训练,并叠加了大量的我们的人类的一些标注的反馈,使得它能够去学习这种自然语言的模式和结构。 他是可以模拟对话或者是回答后续问题,承认错误等等copenAi为了去创建这么一种强化学习的模型,它一定要去设立一些奖励模型d奖励模型就是openAi去收集的比较多的数据,招募了很多人类的训练师。 在训练的过程当中,人类训练师就扮演了我们用戶和人工智能助手去进行交互的这么一个⻆色通过人类训练师对于人工智能助手的交互的数据去标注回答问题好坏的排序,使得ChatGPT模型通过不断的跟人类训练师之间进行对话来去,通过对话来去生产数据生产答案。 通过对答案的好坏程度的一个排序标注a使得这个模型就会根据学习的语料来去进一步的迭代他们。 他的回答的一个策略进行数字迭代以后,它的回答的训练的它的质量足以匹配人类的对话的风格b所以它的这个技术的创新点主要是在于两大方面,一大方面就是超大规模的预训练模型transform模型这么一个技术的一个技术范式,这是一个目前被学术界公认作为最前沿最优秀的一个技术的模式c第二大创新点就是在于这种标注训练方式。 人类训练师通过不断的ChatGPT模型进行对话,去标注,去排序,来使这个模型可以更好的学习到什么样的回答是人类认为比较合理的d这两个创新点就使得模型在这一次发展当中有了一个里程碑式的跨越的进展,这是一个ChatGPT的运作机制¶目前它的制约因素有几个方面首先是成本过高,有两个方面的成本,一个方面是它的开发成本会比较高,另一方面是我们企业的使用成本会比较高a它的开发成本是GPT模型它的一个发展历程,从GPT2到GPT3,它的算法模型上、技术上没有太大改变,但是它主要改变了这个模型大小。 从gpt2的一个1.17亿的个参数量,到gpt3的一个1,750亿的这个参数量,是增加了1,000倍的参数量b预训练的训练数据从我们一开始 gpt2的5个tb的训练语料,增加到GPT3,需要45个tb这样一个存储量的训练语料。 GPT3训练一次的费用大概是460万美元,这是他训练一次的费用c它整个GPT3的模型的训练的总成本是大概1,200万美元。 1,200万美元是GBD3的一个总训练的成本。所以开发的成本是它的一个主要的⻔槛。 它的开发成本非常高第二个方面就是这个模型被训练好之后,对于任何的一个企业来说,它有一个使用的成本。 使用成本主要是ChatGPT单轮的对话的平均费用大概是在0.01美元到0.2美元之间,根据用戶的使用的并发数不同,成本也不同a其次是 ChatGPT的技术局限性。 技术的局限性主要,一个ChatGPT,它只依赖于它见过的这些训练数据。 它不会对一些实时的信息,比如新闻会网络上的一些实时信息来使得他的回答更加的精准b所以目前我们在网上能够使用的ChatGPT模型,它使用的主要数据是2021年之前的,对于这个时间点之后的这个世界的信息,ChatGPT他了解是非常有限的c所以在输出的准确性上也会有所降低。 这个第一个局限性就是它不能够与时俱进,很难与时俱进第二个局限性,他的认知也是建立在我们虚拟文本,没有跟我们实时的数据库或者是去信息的连接。 比如他很难去回答一些股票今天比如a股,它的指数大概是多少这样的非常实时的问题a所以它会在这种实时性的问题上回答上会出现一些致命的错误,或者是非常不准确的答案b是目前这个ChatGPT直接使用来说会有的一些局限性。 如果是配合国内上一些专业的查询软件去进行二次开发,可能可以有效的解决这方面的一个问题第三方面的局限性就是ChatGPT目前的模型训练,它的优化方向是围绕着我们人类的标注去设计优化的,所以有可能会过度的朝着人类认知的方向去优化,这样也会影响chatGBT回答的内容的风格这可能是跟相关的人类训练师的一个偏好有关的,有些人类训练师可能是有一些个人的偏好来使得ChatGPT的训练可能会朝着那些人类训练师的偏好去有一些偏移,这也是其中的一个局限性a比如输入一个涉及CEO的提示,可能会得到一个这个人是白人男性的一个回复,目前因为很多人类训练是目前好像是假设这个人是白人男性,是CEO的一个概率会比较高b所以会产生一些负面不准确的,甚至是有种族倾向,种族歧视倾向的一些内容出来,一些可能是政治敏感,或者是不恰当的一些答案出来c这是GBD的一些局限性和成本的一个比较高的一个因素,会制约它的目前的发展¶未来的发展方向目前它的商业应用的场景是非常广泛的,只要它能够有效的克服以上提到那些制约因素,它在众多行业上都是可能会产生这种变革性的影响的,特别是在客戶服务、教育、家庭的陪护等等这些领域可能会率先落地a今年2023年可能是ChatGPT非常受关注的一年,也有可能是制约因素逐步被技术所迭代,后续克服的一年。 ChatGPT模型的出现对于这种文字模态的AI生成内容的应用也是有非常重要的意义的b未来可能会跟这种图像图形的AI生成内容的模型相结合,可以使得文字表述到图片生成的这种AI创作辅助工具来进行更多应用。 或者是能够接受这样使用成本的一些领域可能会率先的去使用c根据我目前的了解,目前很多业内的从业者对于ChatGPT还是保持一个观望的态度,一方面还是在持续的考量模型的一个回复的准确性以及它在一些领域的适配程度。 另一方面很多企业讲应用ChatGPT也是会受制于它目前的一个高成本的使用成本,所以在商业化上还是一个比较谨慎的观望态度a目前我觉我们觉得ChatGPT可能会构建一个新的技术生态,但他目前所学习的还是互联网上公开的知识,他可能还不能解决一些具体行业、企业这些个性化的问题b所以还需要企业在这种相关的行业纵深行业细分垂直行业去进行二次的训练,这可能就涉及到很高的二次训练成本。 所以可能是需要很多优秀的公司去不断的优化c能够提出一些更贴近我们客戶需求的和痛点的一些解决方案产品。 比如我们作为这种虚拟人的公司,可以针对政府、企业、医疗、银行等等某个行业当中的企业去单独形成一些垂直化的解决方案d利用ChatGPT 这些技术去进行专业私有化知识的迭代,使得它具备这种解决实际问题的这种能力。可能是ChatGPT后面的一个应用方向¶目前国内相比于我们海外的差距到底有多少?是否有追赶的机会? 1目前国内其实做这种ChatGPT类似的公司,也主要集中在大公司,或者是一些有国家政策资金支持的一些机构,学术机构,比如我们的百度,微软小冰2再包括阿里还有腾讯可能也在做。 主要是这几个大的玩家可能会有成本去训练这么一个ChatGPT这样的超大模型,这样的玩家相比于海外的差距,目前还是有一定差距的目前的差距主要集中在我们的预训练模型,它的回复能力确实自然程度上,还有包括回复的专业度上,以及内容的表述方面,相比于国外的ChatGPT模型相比还是有一定差距的a人主观去体验,还是感觉机器人的感觉会比较强,然后直接体验ChatGPT会感觉回答的内容很自然。 这是从主观体验上的一个差距b从参数量的差距应该是没有什么差距了,目前我们都是千亿规模参数量的这样一个大规模的模型,不管是国外的ChatGPT还是国内的百度,还是阿里提出的超大规模预训练模型还是我们清华提出的超大规模的预训练模型,他们的参数量上的差距已经是接近差不多了。 所以我们都国内外,国内和国外都具备训练这种超大规模模型参数量模型的能力a但是训练方法上可能还有一些技术,我们跟别人还是有一定差距的,所以后面可能主要在于训练方法,还有语料的标注上,可能是可以有更多的这样的语料b国外这种英语的语料或者是英语的训练的训练的方法可能跟国内的中文的训练方法不太一样,所以导致我们现在训练的方法,这方面的技术上还是有一定的差距c但我认为是有追赶的机会的。 只要我们在这个成本足够低,足够可以大规模商业化之前,可以把这些差距给抹平我们在这个成本可以拉到可以降低到可以大规模使用的个时间点的时候,我们也是可以跟海外的这些竞争对手去PK的一个机会。 目前使用成本还是比较高,所以导致还有一个可以追赶的时间可以让我们国内的这些公司去追赶¶什么样的契机会推动我们国内的发展?主要的参与方是什么? 其实我个人觉得目前我们的一些垂直领域的应用,或者是首先是在一些能够接受如此高昂的使用成本的一些领域,比如我们的金融是不是可以接受或者是在一些政府有相应的预算的情况下,可以让应用可以先落地。 落地以后就会产生大量的交互的数据,交互的文本就可以有大量的数据去迭代我们大规模的训练模型,使得它技术可以变得更强a同时我们的工程师也可以通过技术的手段去优化迭代它使用的成本,使得使用成本降得足够低以后我们可以大规模的ToC商业化b这样可能是我们比较好的一个契机。 所以是否能够找到一个领域或者一个行业愿意接受如此高的使用成本,可以对他来说是收益高于使用成本的。 如果它的收益高于使用成本,它就会大规模的铺开使用当它的收益已经大于它的使用成本的这么一种场景。 这样它就会可以大规模的去使用起来,就会有足够多的这样的一个资金或者是训练语料,可以有效的迭代模型a目前主要的参与方还是几个大公司,百度、腾讯,阿里,还有微软小冰,还有科大讯飞可能也是一家比较大的一个参与方b这几家是可以有预训练模型能力的一些参与方。 还有一些研究机构,比如清华的研究院,或者清华的相关的人工智能研究所,还有清华智源等等c还有一些国内新出现的一些创业公司,他可能会在一些非常垂直的方向去做一些非常垂直落地应用。 有可能是创业公司先找到了一些应用使用价值d可以覆盖它的使用成本的这么一些垂直领域。 可以在这些垂直领域先得到应用,先赚到第一桶金,后续可以逐步的复