光模块观点更新20240913_原文 2024年09月13日21:24 发言人00:00 各位投资者大家中午好,我是广发通信的手机分析师韩东。今天我们利用中午的时间,很简短的一个时间,跟大家汇报一下我们对于光模块的一个结论。因为今天因为今天凌晨这个openI是发了它的一个新模型,就openI的这个OY。 光模块观点更新20240913_原文 2024年09月13日21:24 发言人00:00 各位投资者大家中午好,我是广发通信的手机分析师韩东。今天我们利用中午的时间,很简短的一个时间,跟大家汇报一下我们对于光模块的一个结论。因为今天因为今天凌晨这个openI是发了它的一个新模型,就openI的这个OY。所以说我们就对这个OY做一个比较浅粗浅的一个解读。因为确实这个留给我们去做研究的时间还是比较有限。但是我们现在得到的一些结论,其实还是对于整个算力的后续的表现是我们认为还是比较利好的。所以说跟大家同步一下我们的这个研究的一些想法,后续我们可能再把这个研究的具体的结论,我们整理成一些文字,写成报告。我们后边可能会会通过报告的形式再跟大家做一个汇报。 发言人00:54 今天我想回答四个方向的问题。第一个方向问题就是这个OI这个模型,它是什么?它这个简单一点,因为大家今天肯定都看了很多的科普文章,这个我就不不不不详细讲,简单分析一下。第二个就是现在光模块,比如说像我们这个推荐的像中医去创新兴市场天赋,他们中长期的逻辑,市场担忧的是什么?到底是什么压制了它的估值,这是第二个问题。第三个问题就是今天凌晨发的这个OpenAI的OY到底是否回应了市场对于这个中长期逻辑的担心,第四个问题就是OY这个模型后续发展的路径的一些猜想,因为这个牵扯到这个应用端,所以说我们也是做了一些猜想,就是回答这四个问题。 发言人01:50 第一个问题,oone这个模型是什么,这个可能今天大家也读了非常多的科普文章了,其实这个论我觉得大家是相对比较一致的,就是一个可能在个别赛道,现在可能就主要是集中在这个理工科赛道的一个博士生,他去处理一些通用的,比如说其他领域的,比如说文学领域的问题,可能并没有很好啊。但是我在处理一些比较复杂的理工科的问题,反而是做的会非常好。这一块在这个模型的定义上,我就不再详细阐述。我想阐述一唯一想要阐述一个观点就是我觉得大家不用对着这个模型的一些下限做过于多的评论,比如说这个模型可能它短时间回答不出什么,我看大家有问的什么9.11和9.8哪个大,或者说一些很通用的文学问题。下限我觉得大家不用太关注,大家关注的是上限,所以这个模型能够解答复杂的问题。就是这个模型在整个的AI大模型的往后的发展中,它把这个上限抬高了多少,他把这个市场的天花板抬高了多少,这个我觉得是大家更需要关注的,这是我们回答第一个问题。 发言人03:13 第二个问题就是目前这个市场中压制光模块的估值的是什么原因,或者说光模块中长期逻辑市场在担忧什么?这个很简单,大家担忧的就是这个模型的天花板快到了,担忧这个模型不够聪明。之前前段时间大家还会担心一些这种投资回报率,或者说一些杀手级的应用缺乏。我个人感觉最近市场对这个讨论是减少的,因为大家也逐渐反应过来,因为AI它是个底层技术,我现在去讨论AI的应用,AI的投资回报率肯定是一个过早的问题。那对于海外大厂来说,我AI的投资,我今天投的一块钱可能要在两年三年之后产生回报就可以了。 发言人03:59 但这个模型的聪明程度,确实是我觉得应该去担忧的。因为如果说模型不够聪明,那后续的应用肯定就很难出来。如果说模型够聪明,其实也出现这种杀手级的应用是一个早晚的事儿。就是说模型聪不聪明,模型的天花板在哪里?这是一个这段时间市场一直担忧的问题。 发言人04:24 因为之前的像业内比较领先的OpenAI的这个一直发不出来GPT5,所以说市场一直担心,那光模块这块的估值也一直被压制,这是一个我们认为光模块的中长期逻辑大家担忧的地方,这是第二个问题。第三个问题,就是今早上发这个OpenAIOpenAI的OY是否回应了市场的这个担心,是否是解除了这个担心?我们认为是在一个很大程度上是解决了这个担心,为什么这边我们就要分成训练端跟推理端两端来看,训练端跟推理端来看,我们有一个大概的思路想分享给大家。 发言人05:05 就是oone的训练端跟推理端跟之前的像GPT4的训练推理端不太一样,我们归纳总结下来叫做授人以鱼不如授人以渔。就是说之前的GPT4,以前的这个大模型,更多的是说我在训练的时候,我就把答案或者说答案的一些初级的样本我先准备好。到推理端,我直接把答案秀出来,或者说我答案简单整理一下秀出来就行了。但是这次的OY我们认为在训练端,它其实只是训练了一个方法,我用强化学习的办法,我去训练了一个方法,或训练了一个解决问题找到答案的一个路径。并没有说我把所有的就是他训练这个数据集并没有很大,并没有把我所有的答案都都 了然于胸,更多的是教会了一个方法。在推理端,为什么推理端需要花很长的时间去思考?就是说他要沿着这个方法,沿着这个路径去找这个答案。 所以说他在推理端花的时间会很长,相当于是说把我训练端的一些的时间转嫁到了这个推理端。发言人06:22 这样的话,因为原来大家觉得在CB4以前在训练这一块,如果说训练完了,可能就没有什么训练的需求了。那推 理需求可能对整个光模块的用的比例就比较少,大家会有一些担心。但是如果说按照GPTOY的这个发展路径的话,那在推理这块的对算力的消耗是非常大的。因为这个很很简单,时间长了,就算我用的这个GPU交换机,光模块还是原来的那那一套,但是我这个占用的时间变长了。我回答一个问题,我可能要思考个比如说10秒钟或20秒钟。而且我们也知道这个openandoone它是一个具有了推理端的skinning老。就是思考的时间越长我回答的效果越好。对于同一个问题我思考十秒和思考一分钟,我回答的结果可能思考一分钟会更好。那这就对于这个推理的算力的需求的需求就会就就会非常大,这是我们总的一个想法,大家可以也一起来思考一下。 发言人07:31 然后训练端这一块,这次这个OKI的OI模型发出来之后,官方并没有给出他的一些参数量,也没有给出他的数据集,也没有给出这个训练他所用的一些集群的相关数据。也可能是因为时间太短,这个openI现在还没有更详细的信息的阐述,我们现在也不知道,但是我觉得GPOpenAI它并没有强调这些什么参数量数据集,说明参数量数据以及大概率可能跟之前的像GBT4这种水平可能差不多,甚至比他们还要小,是一个在训练端其实不太去需要很大的参数量,会有很大的算力去做的一个模型。当然了,这个训练端我觉得它有一个,很大的特点,就是他用了强化学习。 发言人08:27 强化学习这个概念,可能对于很多看TMT的研究员或者说基金经理来说还是比较熟悉的。可能对于不看TMT的可能没有那么熟悉。强化学习这个东西,它其实提出的非常早,可能之前大家比较出圈的是围棋这块的这个阿尔法go。强化学习什么是个什么意思呢?强化学习其实就是我用一些这种奖励函数,我去用这个计算的,甚至于可以比喻用蛮力去来找答案的一个过程。 发言人09:02 比如说我举个例子,比如说象棋、围棋和一些技术战略类游戏,比如说dota,那AI首先攻克的就是象棋,为什么?因为象棋的路径非常的简单,这个马走田、象走方,这个车和炮是走直线的,所以说我用强化学习的时候,我的这个激励函数的得到一些答案很清晰。因为我的目标非常的清晰,就是我要赢这盘棋,我的路径也很清晰,就是走这些子粒,所以说象棋是最先被攻克的。第二个就是围棋,围棋因为也就是基本上三百多个交叉点,我这每一步只能在这三百多家点中选。这些对于AI对于计算机来说也是一个非常简单。我就在闲暇时间去做训练就行了。 发言人09:54 左右互搏。如果说今天我左手赢了,那我左手在一些关键分歧点走的这一步棋,我就在奖励函数中就付一个比较高的值。那以后再遇到类似的情况,我就走这一步就行了。这也是强化学习。一个很大的,所以说围棋也很快被攻克了。 发言人10:10 到了一些操作路径更复杂的,你像一些这种即时战略类游戏,它可能一开始这个AI还打不还这个能力还跟人相比还是有一些差距。但是经过足够长时间的训练,足够大算力训练下,那AI可能也会比人可能能力会更强一点,这就是强化学习。所以说强化学习它其实是把这个路径,目标首先要明确,第二就规划好了路径,这是我们认为在这次openIOone中,这个最大的特点就是引入了这个强化学习,是把强化学习和大语言和这个生成式人工智能做了一个结合,这是在训练端。然后在推理端,它是引入了一个思维链的一个概念。思维链其实就是把一个复杂的问题简化,就是我比如说我问了一个非常复杂的一个物理学问题或数学问题,它是通过把这个问题简化,然后我再慢慢的回答一个简单的问题,然后再得出一个最终的一个答案。当然不是说你把所有的简单问题回答出来,到最后就能综合成一个答案,这里边就是我刚才讲了,就是在用强化学习去训练这些路径,他有的路径可能能走,就像走迷宫一样,有的路径能走通,有的路径不能走通。这就是为什么在推理端要花这么多时间的问题。因为他要反复的在去走迷宫,去看我的得到的结果是不是一个这种在奖励函数里评价比较高的一个结果。 发言人11:48 所以说推理端的要花的这个时间要比较长一点,这是我觉得在抽奖。所以说我们为什么认为这次的这个训练跟推理的关系就是受人以渔,不是授人以鱼呢?就是说我不是在训练中直接把结果准备好,我是告诉你应该怎么去找答案,我是告诉你方法,在推理端去把这个结论,去把这个答案找出来,这是我们的一个在推理上的一个思考。 发言人12:18 当然所以说因为这个特点,所以说目前的这个openIOY,我现在只局限在几个比较少数的领域。比如说在这个数学、物理、医药一些简单。因为这些领域有什么特点呢?首先这个目标导向非常明确,第二就是这个路径的选择也相对比较少。你比如说到了一些创造性的领域,比如到了文学这些领域,这个路径非常多了,这可能就是有一 些难点,这是现在欧曼所处在的这个方向,后续欧曼的发展能不能发展到一些这种创造性的领域,我觉得是一个非常有可能的一个情况。只不过他可能需要一个更大规模的一个训练和推理,这是我们回答的第三个问题是openI是否回应了市场对于这个模型天花板的一个担心。我再总结一下,我觉得是回应了这个担心的。就原来大家担心模型天花板不够大,不够高,担心模型不够聪明。 发言人13:21 目前来看OY是把一些偏理工科,就是偏一些路径相对固定的一些领域,我把他的能力的天花板是抬高了非常多,但是在一些创造性的领域还没有。但是至少是说告诉了大家的一个路径,我是通过可以通过强化学习去扩大强化学习的规模,去扩大出案例,去来逐渐的去逼近逼近一个在创造性的领域的一个天花板的一个提升。原来大家对于整个模型能力提升的这个路径是比较混沌的,现在至少是看清了一个道路,这个我们认为是非常重要的,也是回应了为什么说我们说回应了市场对于光模块逻辑的一个重要性,一个担心的这个问题。 发言人14:10 第四个问题就是欧曼后续的这个发展路径,我觉得有三个方向。第一个方向就是在本赛道内泛化,就是在比如说在数学这个赛道或在物理学这个赛道,我去饭,我原来现在可能只能回答有限的问题,后续我就回回回答这个赛道内几乎所有的问题,或者说更难的问题。第二个就是跨领域跨赛道。这个就是我刚才我刚才讲的,就是在推理端它这个模型天就是模型天花板的提升。现在我是更局限在一些路径路径比较窄的一些路径比较选择比较少的领域。那后续我能不能跨到一些这种创造性的,比如说文学这种领域,这是我觉得后续OY需要解决的一个问题。这样的话就会使整个的AI大模型往更聪明的模型往前迈进了一大步。 发言人15:02 第三个就是一些私人的AI助理。或者说第3个OOone的发展模型,我觉得可能是一些专家模型。就是以后我们在解决一些很简单问题,比如说一个很简单的文字的问题的时候,我们可能就调用这个GPT4O就行了,或者GPT4就行了。但是我们要处理