您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[其他]:关于ChatGPT的五个最重要问题 - 发现报告
当前位置:首页/其他报告/报告详情/

关于ChatGPT的五个最重要问题

2023-03-22-其他J***
关于ChatGPT的五个最重要问题

关于ChatGPT的五个最重要问题 我们判断,如果ChatGPT不犯大错,两年之内,整个科技行业甚至人类社会都会被颠覆一遍。倒计时已经开始了。 在ChatGPT纪元中,提问题的能力和判断力也许是人类最重要的两个能力。我们这里提�五个关键问题,并且试图抛开网络上的二手观点,做�基于原理的判断。 更详细的科普文可以参考这篇:了解AIGC中的ChatGPT和LLM 其中包含如何在公司快速便捷地使用ChatGPT 针对中台业务场景的应用:ChatGPT在中台业务应用的可能性与探索 这篇文章会尽量用准确的说明与类比(如何区分准确的类比和偷换概念的类比)去解读技术。但是对于这样一个非常新、非常颠覆、大家对原理和应用都还没形成共识的技术,不了解技术细节就去打比方,难免信口开河。所以我们会先尽量无损地把需要的技术细节都盘清楚,然后再去进行抽象和提取本质。 哪五个问题? 1.是什么:ChatGPT是范式突破吗?和过往AI有什么不同? 2.会怎样:ChatGPT两年内会达到什么水准? 3.行业格局:ChatGPT以及GPT有壁垒吗? 4.如何参与:我们未来应该如何使用ChatGPT? 5.人文:人类和ChatGPT的本质区别是什么?对人类社会的冲击? 还有一个不需要讨论的重要问题:ChatGPT不会开源的,因为AGI是一个危险品。国内那些依赖开源+抄的公司可以死心了。指望原子弹开源吗? 我们搞清楚这五个问题,就能判断市面上大多数解读ChatGPT的观点,无论从技术、商业、投资,等等角度,是否靠谱了。其实就两个关键 1.对ChatGPT新能力的认知:这新能力是什么,有什么意义? 2.对“能力获取难度”的认知:ChatGPT如何获得的?难度有多大? 文章结尾我们会做一下总结。让你下次见到某大模型,可以判断这是ChatGPT的80%还是 0%。 为什么这样问? 最近到处都在讨论ChatGPT,就像A股6000点的时候所有人都在讨论A股一样。但是大家的问题主要聚焦在于自己会不会被ChatGPT取代,中国如何赶超ChatGPT,ChatGPT相关概念股票是什么,等等。这些问题很重要,但是对于ChatGPT这样一个人类高科技结晶的新物种, 不先搞清楚它“是什么”和“如何牛逼的”,那就没有办法形成自己的判断。没有自己的判断,看 ChatGPT就像看元宇宙、Web3、自动驾驶一样,觉得好像牛逼,也有一套看似点只能被别人牵着走。 所以我们先要搞清楚这两个问题。 搞清楚ChatGPT“是什么”和“如何牛逼的”是一件困难的事情,因为最顶尖的人工智能大佬们也没有达成共识。比如Meta的AI负责人,深度学习三大佬之一的LeCun就不看好,认为这就是个基于auto-regressive(自回归)的LLM(largelanguagemodel,大语言模型),从方法上来讲没有啥范式突破。只是因为OpenAI是个创业公司,大家宽容度比较高,ChatGPT在乱说话,大家也能容忍。 另一面,ChatGPT的火热就不说了,比如特斯拉的首席AI科学家就选择回到OpenAI,共建AGI(artificialgeneralintelligence,通用人工智能,也是OpenAI的追求目标);Meta的VR创始人卡马克选择离开Meta,自己开一家AGI公司。另外一篇文章截取了大佬们的赞誉 技术讲解环节:“自回归”“大语言模型”是两个关键词 自回归的意思是,我先用模型预测下一个词是什么,然后把预测�来的词带入模型,去预测再下一个词是什么,不断迭代。这是过往语言模型的通用范式。也能让各类语言类任务统一成“生成式”任务 大语言模型是因为GPT的海量数据与参数。大语言模型本身也值得技术科普一下,我们在第一个问题中展开 大佬们都认可AGI的重要意义,但是对于ChatGPT是不是有“范式突破”,是不是AGI,有重大分歧。大佬们无法形成共识,我们有两种选择,一种是做“early-adoptor”,早期采用者(特点是懂技术,有vision,想通过技术带来巨大改变),去在体验和探索中形成自己的观点;一种是做“early-mass”,早期大众(特点是厌恶风险,希望追求确定的改善),等着标准成熟,应用也有定论,再去采用。作为中台,我们需要抓住IEGearly-adoptor的身份。所以我们需要在纷杂的信息中形成自己的理解和主张。 这次讨论就想达到这个目的。数科和算法同学会保证信息的准确,知之为知之不知为不知,但是观点、主张、区别、共识,需要老板们自己推演�。 开头:ChatGPT的最基本版历史 虽然想直接开始问题,但是一定程度的技术科普还是必要的。这样能在思考问题的时候更加高效。我们着重参考两篇综述,尽量抓重点: 1.大语言模型技术精要(链接) 2.ChatGPT的各项超能力从哪里来(链接) 第一份综述主要讲了大语言模型发展中的关键技术突破,第二份综述主要讲了ChatGPT发展过程中的几个重要模型“做到了什么”和“有什么与众不同的做法”。我们把两篇文章的重点挑�来,标注一下里程碑事件,和其意义。 事件 意义 Transformer问世让深度学习模型可以“自由吸收”数据中的知识 大语言模型突破了参数和算力限制,从此语言模型也进入参数越多,数据越大,模型效果越好的时代。 LLM内战,逐渐吊打老NLPGoogle的Bert路线和OpenAI的GPT路线各有所长 GPT通过“自然语言生成任务”,兼容了几乎所有NLP问题;但是Bert比GPT2表现好。此时大语言模型已经开始吊打传统NLP模型了 GPT3问世展示in-contextlearning能力,简单调教下就能吊打精调过的很多模型 一方面让GPT模式初现一统江湖的潜质,一方面GPT3的in-contextlearning能力,展示了和过往ML的fine-tuning模式的本质区别,我们在下面单独详细展开 -InstructGPT ChatGPT的交互模式,让GPT的能力,更加贴近人类真实交互方式 在in-contextlearning基础之上,进一步降低了prompting的门槛;一定程度解决了GPT-3生成结果与用户期望不一致的非预期输🎧,大幅降低了有害的、错误或偏差的输�结果,让GPT更符合人类胃口 -GPT读代码 代码训练能力的提升是GPT3到GPT3.5的重要迭代之一,模型可从而可以生成代码和理解代码 Codex模型读了大量代码,之后的GPT3.5模型涌现�了inference的能力。不光能读懂和生成代码,对语言本身的理解和推理能力也解锁了 -RLHF ChatGPT背后的核心技术之一,让模型学习人类的偏好 全称是reinforcementlearningfromhumanfeedback,通过构建人类反馈数据集,训练一个reward模型,模仿人类偏好对结果打分,是GPT-3后时代LLM越来越像人类对话的核心技术 ChatGPTInstructGPT的亲戚,但一些优化方式也带来了ChatGPT的更泛化和准确能力,再次引爆了AIGC ChatGPT总体来说和InstructGPT一样是使用RLHF进行训练,但模型是基于GPT3.5,而且数据设置上也不同。ChatGPT是一个输入,模型给�多个输🎧,然后人给结果排序,让模型可以学习人类的排序策略,即使是一本正经的胡说八道看起来也很合理的样子。 这里面再强调一个关键点。GPT3之后,很多能力是“涌现”的。即不是线性发展,可预测的, 而是突然就有了。至于这对于OpenAI的人是早晚会发生,还是完全未预料,我们就不知道了。这几个“涌现”�的能力,尤其是inference的能力,是ChatGPT和过往AI的范式不同,也会是我们这次讨论关注的重点。“涌现”也是大语言模型很神奇的一点,这些能力我们发现模型随着数据量和模型大小的提升,就突然具备了,但是我们对这些能力怎么�现的,只有猜 想,没有共识。这篇文章有一个比较全面的总结和比较。 下图是GPT-3到ChatGPT的演变历史 这里也牵涉到了一个重要的题外话,大概是发生在in-contextlearning和instruct这一模式下。尤其是对“fine-tuning”这个词的理解。如果用过往模型的经验去想象ChatGPT的运作方式,就会产生错判。这一误解反而更容易发生对AI已经有所了解的从业者身上。 重要的题外话--很多AI从业者为什么对ChatGPT有错误理解? 过往的NLP模型是按照具体任务和具体数据来训练的。所以数据质量越好,模型效果越好。而且最好只有正确数据,没有错误数据。大语言模型有一个重要不同,是“数据越多”越好,而数据质量变成了重要,但稍显次要因素。 在一开始,大模型想要在特定任务上取得较好效果,也需要那个领域的具体数据去“fine-tune”一下。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,调节一下模型的权重,从而输�恰当的结果。这和过往模型的范式是差不多的。 而GPT-3涌现�的in-contextlearning能力(Google的PaLM大模型也有)和上述范式有本质不同,“过往的fine-tuning”需要更改模型参数。也就是说,换了个新模型,从而在新数据上表现更好。但是in-contextlearning,模型并没有变化,却能在新数据上表现更好。研究甚至发 现,你给大模型一堆范例,只要对应关系整体是对的,这时候改变具体对应的顺序,大模型仍然能输�正确的结果。这真的很神奇。一定要抓住这一点,模型没有变化,没有被重新训练,但是能“理解”新数据,并且表现更好! 接下来还有更神奇的。在GPT-Codex版本解锁了推理能力,以及InstructGPT提�了instruct这一方法,他们合体的ChatGPT在in-contextlearning的基础之上,展示�了具备inference能力的样子。我们在下一章详细展开。 1.ChatGPT是范式突破吗? 机器学习发展了这么多年,遵循同一个范式。哪怕2016年大火的AlphaGo,也完全没有脱离这个范式--鹦鹉学舌。 过往机器学习的范式--鹦鹉学舌 机器学习,包括深度学习,所遵循的范式是“datafitting”,即找到数据中的“对应关系”并应用。具体来说,就是Y=f(X),给定一些优化目标,机器学习通过学习已知X和Y的关系,即f,让我们在见到一个未知的X‘的时候,也能根据规律,总结�Y‘是什么,能最好达到我们的目标。 从信息论的角度,这样的范式,所能总结的规律,应该是在“已有X所包含信息的范畴之内”。换句话说,遇到一个新的X‘,虽然没见过,但是应该和过去的X长得差不多。用图像识别举例,如果模型只在小狗小猫的数据上训练过,是无法区分马车和汽车的。 这就很像鹦鹉学舌的机制。鹦鹉是不知道那段话的意义的,它用自己的方式去理解了这个发音,并且模仿了�来。计算机能更加精准地进行控制和编程,让这个机制发挥更大作用,比如 图像识别+搜索,就能高效找人 Matrixcompletion+用户数据收集,就能高效推荐 把游戏规则恰当转化为优化方程+问题的局部抽象+自己生成对局训练,就能下围棋 推荐算法的原理 想象一个矩阵,横着是不同的人,竖着是不同的短视频,格子里是这个人对这个短视频的兴趣指数,我们要想方设法填满这个格子,给每个人推荐最感兴趣的短视频 核心问题是在每个人都没看过99.9999999%短视频的情况下,这题怎么解 有很多种方式,传统的运营、策略,也是一些方式。现有算法的主要做法是 1.把每个视频抽象成特征 2.把每个人抽象成特征 3.通过特征对特征的方式进行泛化和填表,如果用人来理解的角度,可能是 中年男人喜欢看钓鱼(内容+画像推荐) 你同事们喜欢看老板点赞过的视频(关系链) 看过AB的人喜欢看C(collaborativefiltering) 但是记得,模型抽象�来的特征是适合机器理解,而不是适合人类理解的。用人类能描述的方式去描述机器的优化,注定是降低效率的 由此可见。过