您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:边缘芯片–20230613 - 发现报告
当前位置:首页/会议纪要/报告详情/

边缘芯片–20230613

2023-06-13未知机构为***
边缘芯片–20230613

边缘芯片 AI的能力越来越强,特别是从去年底以gptAIGC的这个,通用人工智能这个大的模型在发展也在推动这个边缘计算,边缘AI的这个整体的一个市场的一个演进,那从市场应用角度来讲,其实目前看起来就是说那个,一开始肯定还是在,就是正常的这个电N计算的这个领域里头在这个工业智慧工业,比如说工业的这个质检工业这个产线的这个分类,然后智慧的零售,智慧的这个医疗,然这个包括车联网对吧,自动驾驶,车路协同,然后这个包括机器人,人机交互的这一块,整个市场领域,都都会,就是不管是传统的这个AI的具体发展,包括这个大模型的加持,导致它的这个出现了一些变化就是说特。 就是从人机交互就更加智能智慧智慧的这个角度来讲会就前期的话会稍微慢一点,就是说大模型对于这种终端应用开始没有显现那么多,随着这个大模型在云端的这个逐渐的这个发展,然后能力边界被挖掘到,然后这个到终端信认测这个部署的能力逐渐的这个稳定和这个确认之后的话,这个特别是到这个商业落地这个大模型对于这个云边端这个融合计算,对于这个整体的商业模式的确定都还会有一段时间,但我觉得未来会就是呈现这个加速明白明白,然后就是和您请教一下,就是其实之前我们有一些场景里面是要用到一些就这智智能边缘,边缘这种场景已经要用到一些那种那个算战例的场景了嘛,然后你刚才也提到有些新的这种场景在出现了,就是您现在观察到的话新的这种边缘终端的场景,包括比如说您刚才提到的什么智慧工业制检产业分类等等,就是哪一些是您观察到就进展比较快的,然后空间增长比较快的是这种场景是率先出现在C端还是B端OK,首先就是进展比较快,或者说量能够大一点的,可能还是ToB端的会多一些,因为ToB的毕竟各行各业,每个行业都会有些不同,然后这个碎片业碎片化也比较比较严重所以说那个要从规模化起量的话,可能还是以这个。 这个促消费的第三的会更快一些,比如说这个智能家居对吧,智能音响的这个智能音箱的这个领域可能会这个变革会更快一些,它的这个,因为它那个比如说角度这个百度音箱然后小小米的这个小音销为代表的,它的这个能够始终在线,然后始终能接入云端的这个这个站力,然然后那个对人气账户又是由语音作为这个入口的,这个是能够比较快的去改变它的这个终端或者边缘的这个这个能力,但是他其实因为刚才讲的就是说这个。 边缘芯片 AI的能力越来越强,特别是从去年底以gptAIGC的这个,通用人工智能这个大的模型在发展也在推动这个边缘计算,边缘AI的这个整体的一个市场的一个演进,那从市场应用角度来讲,其实目前看起来就是说那个,一开始肯定还是在,就是正常的这个电N计算的这个领域里头在这个工业智慧工业,比如说工业的这个质检工业这个产线的这个分类,然后智慧的零售,智慧的这个医疗,然这个包括车联网对吧,自动驾驶,车路协同,然后这个包括机器人,人机交互的这一块,整个市场领域,都都会,就是不管是传统的这个AI的具体发展,包括这个大模型的加持,导致它的这个出现了一些变化就是说特。 就是从人机交互就更加智能智慧智慧的这个角度来讲会就前期的话会稍微慢一点,就是说大模型对于这种终端应用开始没有显现那么多,随着这个大模型在云端的这个逐渐的这个发展,然后能力边界被挖掘到,然后这个到终端信认测这个部署的能力逐渐的这个稳定和这个确认之后的话,这个特别是到这个商业落地这个大模型对于这个云边端这个融合计算,对于这个整体的商业模式的确定都还会有一段时间,但我觉得未来会就是呈现这个加速明白明白,然后就是和您请教一下,就是其实之前我们有一些场景里面是要用到一些就这智智能边缘,边缘这种场景已经要用到一些那种那个算战例的场景了嘛,然后你刚才也提到有些新的这种场景在出现了,就是您现在观察到的话新的这种边缘终端的场景,包括比如说您刚才提到的什么智慧工业制检产业分类等等,就是哪一些是您观察到就进展比较快的,然后空间增长比较快的是这种场景是率先出现在C端还是B端OK,首先就是进展比较快,或者说量能够大一点的,可能还是ToB端的会多一些,因为ToB的毕竟各行各业,每个行业都会有些不同,然后这个碎片业碎片化也比较比较严重所以说那个要从规模化起量的话,可能还是以这个。 这个促消费的第三的会更快一些,比如说这个智能家居对吧,智能音响的这个智能音箱的这个领域可能会这个变革会更快一些,它的这个,因为它那个比如说角度这个百度音箱然后小小米的这个小音销为代表的,它的这个能够始终在线,然后始终能接入云端的这个这个站力,然然后那个对人气账户又是由语音作为这个入口的,这个是能够比较快的去改变它的这个终端或者边缘的这个这个能力,但是他其实因为刚才讲的就是说这个。这个这种应用大部分照算力还是在云端,本地端只是做一个接口,对于语音的这个识别降噪还有一些简单的这个语音这边还是带专测在处理这边倒不会有特别多的一个边缘侧的一些应用在边缘侧的应用可能还是要在就是工工业类的,然后这个智慧交通这边会那个用的更多,但是这个体量的话,就是可能还需要需要在一段时间才能是说由于更先进的AI大模型,这持会让它变得就是渗透力更大,然后这个可能还需要一些时间,为什么讲就是说工业这边需要就是说那个边的加持会更多呢,因为在工业里头就是说这个网络,就是说要连对外连到这个云端中心服务器的网络,要要去设计的话,是有挑战,然后成本也会比较贵,然后可靠性的话也会承担。 在一些安全的发布数据隐私然后这个网络的可靠性的安全性也都会存在一些多多上的一些问题,他们是有比较强的诉求是在这个专测和边缘侧能够去尽快的去把它的数据可靠有效的去处理那之前传统的这个基于转接网络CN网语音的RN的话,就是说这个,已经现有的这个产品已经能够去实现,但是大模型出来之后的话,这个专测和备案测的算力要增强,单测现在增强的空间是有限就是说在业里头是要这个是专测主要是这个工业的这个摄像头对吧,里面会有一些数据会议处理的一个能力,但是它基本上因为体积和功耗的限制,它不能做太强的处理,那那个就需要在边缘侧去加强它的这个能力,那边缘侧现在是高通的是最高端的LP的芯片,叫8550,大概它有40几个T的算力,那英伟达的这个杰的 or的系列的话,它其实是有200多起的这个算力,就是目前来讲就是基本上能够跑一些比较好的这个,就是能够跑,至少在沟通的这个角度上,他们已经能够跑那个10亿参数的这个大模型做AI作画,然后那个60亿的这个深层次的这个对话的模型已经也能跑只是从这个数率和效果上可能还需要再去再去优化,但是还是有一定的提升的空间。 所以在工业这边,包括这个车联网这个,车路协同,做自动驾驶这一块,都需要专测和电源侧发挥很大的作用,去降低一个延迟,在车联网这边主要是降低这个延迟就是说。自动驾驶它的那个它的那个辅助驾驶,它的每一个操控都需要机时机时延时,如果你现在碰到一个障碍物,或者说碰到一个危险的情况,他需要这个车要做一个。比较快速的处理,如果在云端这边去处理,然后它的延迟是不可靠的,这样会造成这个风险,或 者说功能就不能去使用了,所以这边是需要在这个车本身,然后到车中国在大力发展的车路系统,比如说在这个高速公路上,然后在这个这个信号灯这个路口上,或者在布置大量的这个边缘车这个算力来去,增强自动驾驶和辅助驾驶的这个能力。明白明白,谢谢,明白明白,诶专家就是想和您再追问一下,就是您刚才也提到,就是像高通现在是40套嘛,然后那个英伟达那个是200275TOP对吧,我记得是,然后就是就想和您请教一下,就是就不同的场景对这种边缘测的这个算力它是一个什么样的一个量级就是或者说还是说这个东西是根据就是我们要跑的这个模型的参数大小去去确定的,就是如果是这样子的话,那那也就是说未来可能它就是这个3D就要一直往上提升这样这样的一个趋势嘛,然后这这就引申出来另外一个问题,就是说怎么去看,在边缘侧就之前也有一些像谷歌这些厂商推出来的一些大模型里面蒸馏出来的一些小模型,就是未来边缘侧这边跑的是大模型还是小模型来这个问题,OKOK,好,这个我觉得是首先是因为你要去看应用场景那那个。有些应用场景它就是要跑大算力 的,刚才提到的这个,自动驾驶辅助驾驶这块就是要大算力,那这个200T都都不够的,现在就是说那个很多车这边它都是放了两三块的英美的二维房芯片就是说从500T到1000T这都都需要的,那到这个车车路协同的那个智慧交通的它的那个也是要接很多的传感器,摄像头,雷达,这个激光雷达,毫米毫米波雷达,也要同时处理很多的数据,所以在这个应用里头,领域里头,那电源测和端测都需要大的算力,那那个云端其实发挥在这个场景里面就是说云端这边其实发挥不了太多的作用,云端可能就是做一个这个数据的一个综合处理和调度,然后供这个整个交通,或者是那个城市的管理,来去去去做一个管理,但是。 这的计算都要都要在这边需这边来去做,那那个,但是另外的场景的话,比如刚才讲的这个智能,智能音箱,这个对于延迟其实要求并不太强的,你就跟他做个对,跟他对个话对吧,然后那个帮你回答一些问题,那那个晚一几百毫秒,晚一两秒钟其实是并没有太大关系的,那这种场景的话,在端测它的战力要求就就比较低了,那个甚至也不需要太多的边缘,然后直接丢到云端上去做,这个是这种场景,那其他的也有中间的场景,刚才讲的工业这种场景,那那个,这个边缘侧的这个要求就会比较强,边缘测的算力现在是50G,然后未癌应该是不太够的,就是说那个接入更多的模型来讲应该是不够的,那就。 这个维度是按照这个应用场景来讲,第二个就是说按照这个,刚才你也提到了,这到底是跑哪个模型是吧,你是跑那个,像不管是FacebookbookMeta,它做的那个拉玛的模型也是从这个61参数到这个一百一到三千一参数模型都有,谷歌也一样,那就是说要选择什么样的模型,要根据你的这个任务和数据量来去做的,如果你是这个应用领域里头,它是垂直的这个数据的模型就够了。 比如说这个就是一个那个跟医学相关的一个应用场景,它只要接入医学的这个相应的这个数据,然后这个模型也不需要太大,那就可以在边人侧去跑,但如果你的这个应用场景是需要一个大模型,一个通用的一个数据支持,很多数支持你都要做做一个结合,包括这个多模态的,就是除了这个语音这个文本的数字,你还。没有结合这个视频的处理,那这个整体的数据量和任务模型就会比较大,那这个就要去就在云端去用大模型来去处理上牵亿,或者是到未来是不是到外亿的这个模型要去处理,所以这是要具体来去区分的,那现在这个阶段其实是各个领域都在做自己的努力和探探探索就是说云端的这个大模型的这个大力出奇迹的,这个还是在继续在演进中,特别是国内的一些企业还是想看那个这个把这个参数量包括数据的训练集还去做大,然后大家也在继续挖掘这个大模型的这个边界,然后同时在观测边缘侧也有很多公司在叫到的这个,他要带把模型的去去交流,去做量化,这个数据量是从通用的变成这个垂直类的,这个数据量去做相应的训练和这个管理,所以大家都在做,然后最终会是。 什么形态,就是说那个那边测需要什么算力,然后这个边缘测试需要什么算力,云端是什么样算力,这个还需要,我觉得还需要各个产业界,还需要去研究,或者是那个做更多的这个处理吧,然后未来才有可能是慢慢的去进行下来,前期肯定是有很多企业再去做这个踹的这个工作,这个踹的工作,那如果他赌对了,那可能他就能够早一点的占据市场,但如果他赌错的话,有可能他的前一代的这个产品就不一定能够说那个生命周期会很长所以这个看各方的博弈吧,我觉得是这样子。 明白明白,非常清楚,然后和您再请教一下就是比如说比如说现在的这种边缘的AI芯P就是如果他要去提升这个AI的算力就跟你刚才提到,比如说什么30top40top200top,那它是就比如说是通过增加CPU的算力,还是说单独去增加一个NPO,然后是封装到那个SOC里面的,还是还是怎么样的一个形式然后一般是这样,还是说买IP呢?就是每个芯片厂商它的策略和和它的能力不太一样就是说那个,就举高通会英伟达吧,我先讲海外的这个例子,那高通的话是它有SOC的芯片里面是有这个SOC,就是机层机场的空汽吧,就是一个芯片里面结合了多种效率单元,有CPU,有CPU有npu,这一块的产品来讲,一般是用在