人工智能投资1216发言人00:00:00 主题其实叫AI下半场,应用落地赋能百业。其实昨天晚上我也看了一下GPS的应用情况。我可以看到卖海外,其实对GPT打造这个生态,每个人创造自己专注属于自己的GPT,打造各种应用的热情其实是非常高的。 人工智能投资1216发言人00:00:00 主题其实叫AI下半场,应用落地赋能百业。其实昨天晚上我也看了一下GPS的应用情况。我可以看到卖海外,其实对GPT打造这个生态,每个人创造自己专注属于自己的GPT,打造各种应用的热情其实是非常高的。整个二三年其实ChatGPT火爆,整个社交网络。其实A股我们讲也因为AI的涌入,其实市场表现相对来讲,我们讲的TMT表现相对不错。这个背后其实是很明显的,大家对于AI提升生产力这样的一个比较好的这样的一个展望。 发言人00:00:48 今天我们大概分几部分,跟线上的各位投资者汇报一下这样的一个观点。第一点就是说海外大模型的一个大概的发展情况,以及明年我们讲的这个大模型都有哪些重要的发展趋势。第二点,当然其实是围绕着它在垂直领域的落地和应用,我们讲几个我们看好的这个方向。第三当然其实就是围绕着算力等等这个新的变化和新的投资趋势,是这么一点。其实首先第一点大模型大家也都知道,其实去年的11月底发布了这个ChatGPT,两个月就用户规模超过1亿人。大家可以看到这个大模型发展的时间线其实非常的快,而且演进了非常多的大模型。 发言人00:01:41 我们往明年看,我们认为大模型的发展其实有四个方向。第一个方向是什么呢?就是参数量更大的这个方向,也就是GPT5。大家也知道其实大模型很重要的一点,实际上是伴随着它的参数量的不断增大,它的性能不断提升。第二点,当它的参数量大到一定阶段的时候,它会有能力的涌现。这两个点很关键,为什么呢?因为你越大你就越强。越强的这个过程当中,不是你过去既有能力越强,反而你会出现一些意想不到的这种超能力,是这么一点。 发言人00:02:17 所以往明年看,其实微软一直以来都在OpenAI,一直以来都在把这个GPT5作为下一阶段的一个重要发的方向。那么大家也知道这个参数量可能会要比现阶段的,比如GPT4万亿的参数量级大一个数量级,可能会在10万亿量级,为什么?当然其实我们在交流的过程当中,大家也问说有什么证据,他可能是10万亿的参数量级。 发言人00:02:44 我举一个例子,比如说微软,其实现阶段大家可以看到台湾那个新闻就已经披露出来了。微软现阶段更多的采购英伟达的GH200。这GH200跟H100的芯片有什么区别呢?GH200它是一台我们讲非常大的那种那种机器里面其实内存是非常大的。按照从内存推算,因为我们讲这个大模型在训练的过程当中,经常会出现内存溢出的问题,除了算力以外,内存和数据带宽其实是一是整个这个领域里面非常高的要求。 发言人00:03:20 GH200,你按照内存这个理论去推算,它最多可以支持130万亿参数的这样模型训练,当然这个精度是在FP16这么一个精度下,那130万亿参数当然这是理论值,我们实际值要在这个理论值打一半。那这个情况下六十多万亿参数其实用GH200,我们讲都可以进行这样的一个训练。那目前其实那个新闻也披露了,全球采购GH200的公司不多。所以这个领域里面,大家可以看到微软买GH200,其实就是为了防止内存溢出,然后去训练更大的参数量的模型。 发言人00:04:02 有一种说法说这个GPT5有大量的语音和视频数据训练,它的多模态的效果会更好。时间节点上可能会往明年的Q2到Q3这个阶段去推出,届时可能GPT5会让大家更有一些意外之喜。因为其实我再讲一点,就是说整个这个大模型其实它会有有四个阶段。比如说第一个阶段是什么呢?就我们讲的这个传统的,比如说能听懂这个语言,能回答这个问题。第二个阶段,它它可能会工具了。比如说现阶段的这个大模型,它就可以通过人工智能实现外卖预定,火车票预定,各种第三方插件。 发言人00:04:48 第三阶段,大家认为可能说这个大模型就具备一定的规划和决策能力,尤其是具备跟环境互动和感知的能力。这其实就已经开始和人类很像了。每个阶段可能这个参数量都会要大一个数量级,所以大家判断说可能在第三阶段,这个参数量级可能会对应着10万亿的参数量级,那可能GPT5我有一种说法是可能会有一些规划和决策的能力。当然再往下去演进,大模型第四阶段可能就会具备一些情感和意识,这个可能就是相对来讲终极的这个形态,当然大家可能问说什么时候大模型可能会具备情感和意识呢? 发言人00:05:31 有一种说法,这个大模型可能会类似于这个参数量有点类似于人类的神经元突触。人类的神经元有1000亿个,然后一个神经元又有1000个突触。所以我们讲人类的突触数量有多少呢?是百万亿个,可能参数量达到百万亿级别。我们大胆的展望一下,他可能会具备一定的情感和意识,是这么一点。所以这是我们讲的第一个,就是说往明年看参数量的更大的这个方向,GPT5其实是明年比较重要的一个方向。 发言人00:06:08 第二当然其实我们讲那第二我们其实讲这个领域里面,其实还在不断的我们讲大家把成本做得更低,效果做得更好。这个典型的方向架构是什么呢?其实就是我们讲的这个MOE架构。 发言人00:06:29 大家也都知道整个这个GPT4采用的这个架构,有一种说法就是混合专家模型架构,这个其实代表是什么呢?我给大家简单说一下,就是它底层是有个叫门控模型,这个门控模型决定这个训练的时候,这个知识内容到底是啊上面有八个专家模型,这八个专家模型谁学习?下面是一个门控模型,相当于领导坐在那里决定谁去干什么事儿。上面有八个专家,然后这八个专家家分别负责一摊事情。当一个问题来了之后,可能会有一个或者若干个专家去回答这个问题。那这个有什么好处呢?比如说如果过去的时候我们是一个大模型,或者我们说这一个很大的矩阵。 发言人00:07:16 比如说如果你是啊1.8万亿的参数量,那这个情况下你在里面每次进行一个token的推理计算,就需要2乘上1.8万亿次,那就是3.6万亿次的计算。有一种说法说这个GBD4其实是由一个550亿参数量的门控模型加8个2200亿的专家模型构成。这个过程当中,如果说这次问题只有一个专家回答,那实际上在里面执行的参数量只有550加2千2、2200,2750亿乘以2,大概就是我们讲的5.555亿的这个参数量。那5500亿的参数量,就5500亿次的浮点数运算和3.8万亿次的浮点数运算。对于算力的需求,它直接就降了七八倍,那是这么一点。所以这个领域里面使用专家混合模型架构又会使得它这个效果其实也没有特别明显的下降。 发言人00:08:08 理解起来其实很简单,就是术业有专攻。闻道有先后,术业有专攻。所以我们其实可以看到大模型技术变化当中,明年很重要的一点其实是打造成本更低,效果更好的混合专家模型架构。这也是国内很多的这种大模型厂商,再往后去迭代和发展,新采用的这样的一个架构。所以其实我们讲大模型的技术变化一个向着更高、更强、更大,也就是GPT5,我们讲去发展。另外一方面就向着更精炼,成本更低,效果更好这样的一个方向去发展。所以整体上其实都是为了我们让让应用能面的更普及,以及人类去探索更多的未知。 发言人00:08:55 第三点,当然其实这个领域里面还在不停的到这个生态。我们讲的尤其是这个GPTS的推出,其实GPTS其实就是一个很典型的AI的agent,就是AI的人工智能的智能体。我们讲的这个典型的智能体,一个大语言模型,加一定的记忆能力,加规划技能,加工具使用,这就是一个AIagent。这个里头你看今年我们往明年展望,OpenAI很重要的一件事情其实是打造整个大模型的这个生态,打造大模型的这个生态推出的是什么呢?其实就是这个GPTS的推出。 发言人00:09:35 GPTS大家可以看到它无需编程经验那个对话框,我不知道在座的各位投资者有多少人去使用过它首先第一个对话框就是简单的对话聊天方式,你就可以配置一些参数。然后你首先第一点,你先描述一下你这个GPT叫什么名儿。第二点你要使用什么功能,使用什么功能之后,它下面还会有一个这个。几个选项,四个选项。选项完之后你接下来就可以,比如说我们讲的这个knowledge上传你自己的专有知识库,一般是只有自己企业或者个人知道的这样的一些内容,那这样的情况下,你就可以打造一个专属的GPT。 发言人00:10:19 大家可以看到整个海外现在GPT超级长,就GPDS超级,这个GGPDS里面,当然在排在前列的肯定是OpenAI自己打造的DLE。包括一些数据分析等等。另外包括一些教育类,包括说我们一些过去的工具类,其实现在是在上面非常火。比如说一些典型的爬虫程序过去大家要做一个爬虫网络爬虫爬想自己要支持到的,支持到那个想查到内容,其实是非常复杂的那现阶段我们讲这个其实都已经可以通过这个大模型去实现。简单你只需要定义出功能,他就给你做出一个非相当不错的,我们讲的这样的一个爬虫程序。 发言人00:11:06 所以这个领域里面很重要的一点,其实我们明年的第三个趋势就是打造生态,GPTS的推出。而且GPTS这个东西还有我们讲能增加新的OpenAI的商业模式,就分成模式。就是我今天我在上面打造了一个GPS,很多人使用这些使用的人都需要给我付一点钱,然后同时这笔钱当中有一部分抽成要给opena,就有点类似于APPstore,是这么一点。所以这个领域里面,GBTS的推出,我们认为其实是整个OpenAI这里面打造生态的关键。而且在这个过程当中,他会掌握更多的数据。因为大家不要忘了,你要打造GPTS的时候有一个选项,就是你可以上传你自己的知识库,你自己的数据集。当然这个东西可上可不上传,很多人上传了。 发言人00:12:02 那对于OpenAI来讲,他就搜集到了很多很多之前其实搜集不到的这样的一个数据。比如说OpenAI将来凭借着GBTS这个产品,我们讲他对于数据的积累其实会更有优势,是这么一点,这是第三点。当然其实背后我们去去看啊,就是这个领域里面,因为数据集其实大家也都知道,数据其实是非常重要的,数据的质量体量和广度其实决定了大模型的好与坏。所以从这个角度上来讲,GPTS的推出,我们认为其实在一些专有数据上OpenAI其实多的多了一个获取数据的渠道和手段。 发言人00:12:51 这第三点,当然第四点就是说讲到明年机器人的这个大模型,其实站在因为今天其实是一个更多行业上的分享,我觉得就是说往往后看看机器人绝对是一个巨大的方向。为什么这么讲呢?因为大家可以看到你像机器人的这个大模型,其实今年也取得了不错的进展。谷歌推了robotcart推了,比如说我们讲的RTtwo的这个大模型,这两个都是机器人领域里面顶尖的大模型。虽然他们两个分属不同的路线。 发言人00:13:25 今年78月份机器人的大模型突破其实比较多。你像它的robotcat的那个路线,我们讲通过看视频来学习,参数量也不大,运动速反应速度非常快,几十亿的十几亿的参数量级,我们讲就可以实现很好的在环境的互动和感知中,不停的去提升自己的能力。这个东西将来很有可能会在工厂,包括自动驾驶领域其应用,这里其实大家也可以看到,你像特斯拉其实已经开始在这个领域里面走这个路线,明年要推这个端的大模型。另外你像这个大语言模型,像这个RTtwo,它现在能够准确的理解语义指令。我不知道大家看没看谷歌那天的这个演示当时他是在未知的环境下就有50%的识别准确率了。 发言人00:14:14 当时在桌子上摆了,比如说瓶子和巧克力,说你把这些有四个瓶的一个巧克力,说你把这个东西跟别的不一样的东西拿出来,就这么一个简单的描述,他就准确的能把巧克力拿出来。大家想一想现在来讲,这个机器人发展也是非常火速,所以你看特斯 拉前一阶段对于机器人的展示,我们讲这个东西的学习其实是一日千里的。马斯克自己在自己的自传中讲过,说自己的自动驾驶这个模型升级为端到端大模型之后,每看150万个视频片段就有非常明显的能力的提升。那大家去去理解,你想那那那他得