OpenAi01模型对算力影响几何?20240917_原文 2024年09月17日21:09 发言人00:00 Readytostart.Pleaseremainontheline.本次电话会议仅服务于长江证券研究所白名单客户。未经长江证券事先书面许可,任何机构或个人不得以任何形式对外公布、复制、刊载、转载、转八引用本次会议相关内容,否则,由此造成的一切后果及法律责任由该机构或个人承担。长江证券保留追究其法律责任的权利。 OpenAi01模型对算力影响几何?20240917_原文 2024年09月17日21:09 发言人00:00 Readytostart.Pleaseremainontheline.本次电话会议仅服务于长江证券研究所白名单客户。未经长江证券事先书面许可,任何机构或个人不得以任何形式对外公布、复制、刊载、转载、转八引用本次会议相关内容,否则,由此造成的一切后果及法律责任由该机构或个人承担。长江证券保留追究其法律责任的权利。嗯嗯。 发言人00:40 尊敬各位主持人,大家晚上好,我是长风云分析师黄天荣。首先的话祝祝各位领导中秋快乐,辛苦大家假期期间来收听我们的第一时间汇报。今天我们汇报的主题围绕上周五应该说上周五凌晨,就这个openI发布的最新的这个模型OY。我想这两天大家也可能陆陆续续自己学习也好看各种东西也好,就是对VOone有了一个基础的认识。这些汇报的话我们重点就讨论一下国外它到底对战略的一个影响。在讲它具体的这个影响之前,我想还是首先讲2万万本金,以及它的一个诞生的一个背景,这块我们也结合一些产业的观点展开了。 发言人01:36 第一的话讲讲我们大模型,大模型就是AI大模型就是发展到这个阶段,现在市场大家可能关注到的一些模型发展的一些瓶颈,大概就是会在哪些哪哪些方向。这个当然跟oone的诞生肯定是有有相关的。之前大家可能说大模型的这个能力的话,主要可以分为几种。一个是语言理解和表达能力,第二个是它的信息的存储,包括它的查询能力。第三个讲的是逻辑推理能力,其实在前两块领域的话包括语言表达和理解,这个其实是LM模型他们最先最先生根的一个方向。我们知道大量的我们去训练的书,训练的这些都是其实本质上都是围绕这个文字上的理解,就是因为什么所以什么,对吧?大家知道就是因为A所以B,吧?这个大概它就是一个理解的一个过程。第二个就讲到他信息的存储跟查询。这个跟训练的参数规模是相关的,跟我们的模型规模是相关的。 发言人02:57 其实模型过去在发展过程中,一直以来有一个比较大的问题就在于它的它的逻辑推理能力,它其实是比较弱的,逻辑推理的确是比较弱的那主要原因的话是因为大量的跟逻辑推理相关的一些数据,他的一些训练用的数据材料的话,它其实你占占整个训练数据里面的比例是非常低的。这个就进一步导致了什么?进一步导致我们训练出来的这个模型经常会有幻觉,就是大家业内他们叫幻觉。其实所谓的幻觉就是说你这个模型看上去好像知道,但他只是回答的答非所问,或者说他回答出来的东西或者就是说他可能比如说因为A所以B但他不知道为什么分析,也就是说他其实对自己得到的这个答案,他是没有一个没有一个深层次的认知的。因为长得有点玄乎,反正就是类似于就是说你知道这个一加一等于2,但是你不知道为什么一加一就等于2,就大概这种概念。所以的话就是基于去强化模型的这个逻辑设计能力。 发言人04:12 包括还有一个目的,就是他们产业里面提到为了有更多的这种合成的这种数据的分层。因为我们后续需要进一步扩大这个训练的这个部分的数量的话,我们可能需要去更多公司调研,添加微信号S130970去合成一些数据。这两点的话就是我们推出的这个OY他推出的这个OY的这个模型,所以这个模型的话它的首要的目的就是去强化这个模型的逻辑推理的这个能力,逻辑推理这个能力。那这个也是为未来的用这种模型进一步去发展,相当于打下一些基础。换句话说,oone如果你做的好的话,我们回过头再去 反哺这个PPT,比如说就是再进一步去反哺我们这种,所以其实本质上来说,OR还是一个底层模型,它还是一个针对底层能力的一个提升的一个模,那这里就讲到欧曼他怎么去提升这个模型的逻辑设计能力。 发言人05:25 你讲到一个概念叫叫强化学习,叫RL那么强化学习它什么意思?就是我们我们这个大模型大部分情况下它是去去搜索去寻找。比如说你你你提出来这个问题,他就他会给给给你去搜索寻找到一个答案,对不对?但是我们但是他的这个强化学习是干什么?就是说他把这个从你搜索就是从你这个提出问题,然后到搜索到迭代,不拆。成了好几步搜索的这个步骤。 发言人06:09 就说这里就是提到这里就是讲到他他提到一个概念叫BOT,叫思维链签到错了签到错了。那这个思维链是什么?就是比如说我们先去去去解释一个问题,或者最最直接的你做一道数学题。对你做到物理题的,他他从这个因为这个什么什么我们已知什么什么,所以然后他他中间有好几步,对吧?你得到最后这个结论的过程中,你应该有好几个推导的过程,对吧? 发言人06:44 我们做过数学的这种,比如说从几何几何题,大家知道中间得到这个,比如说它是一个什么什么长度,什么什么宽度,它中间应该有好几个步骤,那么这几个步骤它会以这个签到POS形式它会写出来,把它给写出来。这样的话也就是说你在大模型的他从问题到答案的过程中,它产生了很多中间的这种中间的这种OK。所以的话就是为什么我们会看到欧one的一个合理的速度会比之前的一些一个SO要慢很多。因为它在推理过程中,它形成中间的这些步骤它形成中间的步骤。也正是如此的话,你可以去理解oone它比如说针对一些特定的需要逻辑去推导的一些问题,他是知道这个答案是怎么来的,他自己是知道答案是怎么来的,所以这个就是一个他们叫强化学习强化学习。 发言人07:45 比如说你比如说举一个以前的这个例子,比如说阿富汗共他他下去对吧,他他每走一步的话,他中间可能他每走一步他中间可能需要思考很久。就比如说他需要看看我我我为什么是走这一步,而不是另外一个。他可能需要一个排列组合,它需要一个模拟后面好几步的一个走法,他的再去他再去判断我们走这一步的效率是最高的?就类似的一个过程,这个过程就是我们叫思维链这个过程。所以说oone它是第一款第一款就使用了强化学习的这个大语言模,使用强化学习大禹模型。这里的话可能很早就会听到这里的话,大家就会问你这个跟算力有什么关系?其实所以你从这里的话可能会进一步引申到我们讲这个26,就是强化剂它存在一个园林落,它存在一个园林落。 发言人08:49 那这个偏肉是怎么来的呢?就是我们当我们的问题越复杂的时候,当我们的问题越复杂的时候,它的COT它就会参与的步骤它会就更多。换句话说,你想如果这个问题它就就比如说我们做数学题它越难的问题,我们中间它可能涉及到的步骤会越多,涉及到的这个可能性会越多,对吧?这里的话就是说如果你一个他们的树状搜索这个概念,你去看它的话就是说你可能比如说你拆的你你你拆的越细的话,那就就意味着你这个树的深度越深,是吧?然后你如果提供更多的一个选择,如果你提供更多的选择的话,就是意味着你的这个分支的节点会更多,那就意味着宽度会越宽。那最终的话就会导致你的处理的速度会更慢,然后你会生成更多的头疼,你会生成更多的这种中间的这中间步骤一个扣款。进而的话你 就需要消耗更多的算力,你进来的话你就需要消耗更多的算力。所以这个就是标准mode它的一个基本的一个逻辑。 发言人09:57 就是说IL为什么会有这个102的这个说法?就是因为它可以不断的去去深化这个问题,就是说他会把问题做的越来越复杂,包括你解答的问解答问题的这个步骤,你可以做的越来越细,你可以做的越来越好啊。之前我看就看过一些对比,比如说你这个大家知道就他们欧美亚他们放出来一些数据,就是DBECO和这个OY他们去做数学题是吧,他们得到的这个他们这个最终的得分差异差的非常多。我one的话应该是远远超过这个GDSO,包括的话你去写代码,去写代码的话也是一样的,就是OY的表现会明显更出色。这个就是因为ON它其实在在我们知道模型它有分成几个部。对,一个是freetraining,就是预训练,然后post training,最后是inference,对吧?那么在inference这个环节就是这个oone的他花的这个时间以及他他的这个中间去中间消耗的这个算力,其实是远远超过VDO的。所以最终的话是可以得到一个更加精确,更加精更更加更加接近真实的一个答案,所以这个就是oone跟过去的模型完全不一样的一个点。 发言人11:27 讲了很多技术的东西,但我觉得这个翻译成大家能听懂的话就是欧曼它其实开启了一个新的范式。我要真的范畴就是说过去我们是围绕着training对吧?我们就是freetrainingposting,freetrainingposting反馈来调整。但现在我们多了一个发展的方向,就是我们去强化inference这个环节。就是我们去在inference环节去做强化学习,然后来提升这个模型的性能。所以这个就是一个新的新的一个你可以理解为它就是一个新的方向。你针对这个方向你可以继续去优化你的模型会越来越近,我们经常说他们最终的目标是达到AGIlevel的,达到一个人类的水平? 发言人12:09 那你如果过去你只是反复倒腾这个freetraining和pressure,其实我相信业内的人,他们已经发现有些品种在发已已经已经能看到这个瓶颈。可能短期来看,你可以说因为我们这我们战略局限做的不够大,或者说什么的创业成本过高了,或者说我们缺乏新的数据,导致有这个瓶颈。但是现在的话,我们在不革新的情况下,我们可以在这个inference环节去进一步去优化这个问,进一步的进一步去强化这个梦。所以的话这个其实是一个很很大的一个行业的一个变化很大的一个行业的变化。这个就是我们讲讲这个O万oone的它的这个节点逻辑,我们刚刚才已经讲了它的他的C是怎么来的,以及他怎么去影响这个算。 发言人13:03 因为有些领导他们想知道这个东西能不能量化,我们也我们也在做相关的一些产业的研究,现在这个节点上的话,你你你肯定是很难去做量化。但是我们大概是知道,你可以看到OA的这个收费其实比CO要贵很多,国外的收费比说要贵很多。所以的话你目前看到的这个OOI的成本其实是非常贵的,这是我们的理解。就是你在现在现有的这个推理的这个算力的成本下的话,OY其实可能要远远超过9。我们讲的可能不是几倍的这种差距,可能是几十倍上百倍这种差距。但是未来的话,因为我们在车里社会上更多的这种非比如CND的DPU也好,或者我们可能借助于这个lake架构进一步去降低这个处理的降低成本。 所以未来这一块,我想它应该也是一个快速下降的过程。快开放的过程也就意味着强化学习的能力的话,就是有一个未来的几代的芯片迭代。它是可以进一步展开的,它也可以进一步参与,大家可以大家训练的,大家可能是玩得起的,就大家可能有有这个经济上面可以先去实现它的一个有效性。 发言人14:34 对,那么这个是我们针对过万的一个整体一个讨论那最后的话就是给大家补充一下我们近期的一些观点。因为除了这个就对外以外的话,我们上周在那个深圳,深圳这边的话就是看到这个光博会,光博会整个的一个交流。那整个交流下来的话,我们就是提炼几点。我这边感觉到大家可能关注比较多的一个就是硅光的一个渗透趋势,硅光发展趋势趋势。我现在看头部的这个厂商其实对辉光的接受度已经非常的高了,包括明年的1.6T,从现在来看,你看200斤件它的供应商很有可能是不充足的,那如何解决这个交付的问现在最好的一个方案和方向,其实就是去用一年优惠贵方款,就采用一年最贵方法。那么就这个话就。头部厂商的这个产品验证就是已经通过了,所以的话后期一点会规划的,所以明年一点钟基本上有可能更高,要把他们推进。再往后看对公司本金60%的,他们在整个行业竞争里面行好了解,就是这个份额上面。 发言人16:09 那方面的话,我们觉得短信就是规模化的,它整个成本会取得更高的一个单一的盈利能力,所以单支的毛利净利有可能会