Q:与传统PC相比,AIPC处理器会发生什么改变? A:英特尔展示了今年12月14号将要发布的移动端PC处理器Meteorlake,英特尔将NPU集成到CPU中,Chiplet架构会封装4个Tile进去,包括CPU(用来计算),里面分为能耗核心和性能核心;在SOC里处理显示、声音、媒体、安全、电源管理、内存等,另外我们把NPU单元集成到SOC,主要用来做端侧大模型推理,同时在SOC中集成超低功耗的Ecore,(在CPU带里集成的是标准的Pcore和Ecore)。在未来如果一个指令进到CPU,我们会根据指令分成三个级别:对算力有最低要求的我们会通过超低功耗的Ecore处理,对算力有中等要求的指令通过Ecore扩处理,有高级要求的用Pcore处理,达到节电和长续航的目的。AIPC能力的增强会在SOC里体现,同时把显卡集成在GPUTile里。 Q:与传统PC相比,AIPC处理器会发生什么改变? A:英特尔展示了今年12月14号将要发布的移动端PC处理器Meteorlake,英特尔将NPU集成到CPU中,Chiplet架构会封装4个Tile进去,包括CPU(用来计算),里面分为能耗核心和性能核心;在SOC里处理显示、声音、媒体、安全、电源管理、内存等,另外我们把NPU单元集成到SOC,主要用来做端侧大模型推理,同时在SOC中集成超低功耗的Ecore,(在CPU带里集成的是标准的Pcore和Ecore)。在未来如果一个指令进到CPU,我们会根据指令分成三个级别:对算力有最低要求的我们会通过超低功耗的Ecore处理,对算力有中等要求的指令通过Ecore扩处理,有高级要求的用Pcore处理,达到节电和长续航的目的。AIPC能力的增强会在SOC里体现,同时把显卡集成在GPUTile里。IOETile集成CPU对外通信的模块,综上架构上的变化是CPU中集成了4个Tile(其中有一个Tile内置NPU),从这一代开始加入NPU用来做人工智能端侧推理。 Q:除了CPU加入NPU模块,其他硬件比如存储或者整机架构设计有没有其他变化? A:CPU换代很多技术更新包括WiFi7、蓝牙5.4标准和新的雷电口,包括PCIe5.0,大家去年、前年更换的笔记本大部分是8/16G内存 +512G/1T存储算比较高端的设置,但今年双十一,16G内存+1T硬盘成为标准配置。未来中高端笔记本为了适应更大型应用、游戏包括端侧一线的AIPC模型安装,未来中高端笔记本会上升到32G内存+2T硬盘的配置,这也是目前我们和很多ODM厂家聊下来,AIPC的推广带来的比较大的周边促进。 Q:相较于传统PC,AIPC会有哪些应用上的变化?现在Windows自带的AI能力是否会替代AIPC的部分功能? A:AIPC这一代的Meteorlake处理器(5/7/9)都会内置NPU的产品,未来购买这个系列的笔记本都可以被称为AIready的PC,是具备硬件能力了,但是不能独立应用AI,需要上层模型开发厂商和应用软件厂商支持。未来AIPC有两种应用:离线和在线。离线状态需要我们在笔记本上安装某一个大模型应用厂商训练好且压缩好的、能够安装在端侧的版本,同时PC本地还要安装一些模型需要运行的环境包括向量数据库,都需要安装在PC本地,之后才能才AIPC上使用各种类型的模型推理。相较于传统PC,AIPC一定会带来一些功能丰富,且为以前必须联网或未体验过的应用场景,我们在首发时和国外的合作伙伴做了很多调优和测试包括集成,因为每一个大模型训练的程度不同,我们要告诉这些开发厂商我们的CPU/NPU/GPU都适用于什么样的场景,模型哪些输出需要调用处理器的哪些core来做。我们第一批合作客户包括微软Windowscopilot、officecopilot、teams,以及zoom、meta,还有国外一家做直播视频的公司xsplit(他们是直播中动态生成数字直播间,同时动态优化背 景)、Adobe(其自己有云端大模型,我们也在和他们做一些大模型的尝试看有没有可能拿到本地使用)。还有一家厂商叫jimp,相当于做开源版本photoshop,目前我们已经完成这个修图软件的本地化,我们已经完全在离线端侧实现本地智能修图或者模仿所有基于AIPC的photoshop的功能。 在AIPC推出后,更多看这些AIPC和大模型的厂商是只准备做在线应用体验还是会做离线端侧版本,不管哪种我们都会帮他们做开发、调优和测试。因为微软的officeCopilot在国内无法落地,所以我们只说国外市场:因为要收单独的月使用费,目前Windows全家桶没考虑做离线版本,但即使目前只考虑做在线版本,Windows它也做过对比和测试,他拿了Intel12/13/14不同CPU的PC,去做功能的优化 和测试,结果发现他的很多功能在12/13代酷睿笔记本上也可以运行,但是如果在14代上运行会有更好的效果。比如在teams开会,如果用具备AIPC能力的CUP,会获得更好的背景声音的优化包括降噪、会议室的优化等。Windows现在越做越炫酷,视觉包会越来越大,这一代有一个Windowsstudio功能,是基于Meteor的CPU做了非常多的优化,包括智能背景变化、智能抠图、眼球追踪、超清分辨率功能,都是与Meteor联合开发了很久才发布的。我们Meteor批量上市会在1/2月份,明年618相关型号会出得差不多了。 Q:硬件层面AIPC搭载的NPU是哪些厂商提供的?硬件方面合作客户?AIPC定价和销量预期?A:NPU是英特尔自己的,英特尔在几年前收购了一家以色列的公司,这家公司主要是做视觉计算、视觉图像、人工智能处理芯片相关的公司,这公司以前产品以单独硬件形式呈现比如插在USB上类似U盘的一个东西(视觉计算棒),把这个插到笔记本上,笔记本就会具有一定推理和计算的能力,但是这种使用场景不方便,而且和CPU系统和资源调度集成的并不好,所以我们会把这个软件IP直接封装到Meteorlake的Tile这里面去。 英特尔只能规定CPU的价格,终端PC价格是品牌厂决定的,但是客观讲这代CPU会涨价,有两个原因。第一个原因是这一代的CPU是所有产品里第一个采用7nm技术的产品,所以第一批流片研发费用很高;另一个原因是CPU会集成更多功能,这一代英特尔改了命名规格,叫英特尔 (ultra)5/7/9,且现在PC市场还没复苏,担心定价过高失去中低端市场,我们会延续上一代Raptor系列会出一类RaptorLakeRefresh,类似于13.5代酷睿覆盖中低端,高端用Meteorlake去打市场,两代并存覆盖整个价位段的PC市场,避免不太好的市场碰到价格高的PC。甚至明年上半年可能会有13/13.5/14代三种机型。成交价方面,价格会有20-50美金的上涨,但是各个厂商会不一样,每个厂家选择的型号和采购量也不同,厂家最终成交价是个机密。 Q:X86架构和ARM架构在做AI端侧芯片时候的优劣势? A:如果是传统的X86架构,用CPU不管去跑人工智能的训练和推理都是非常低效的,这也是NV为什么崛起,因为GPU所有电路逻辑设计是专门去跑跟训练推理或者高性能计算相关的指令级,不会去跑别的事。而X86是一个大而全的东西,什么都能干,但是干什么都不是最好,所以英特尔也看到这个问题,因为13代去跟NPU相关的或者跟人工智能推理相关的负载,都需要外插设备的,或者我直接把相关功能甩给一张外插的显卡。但到了这一代,英特尔发现不能这么干了,因为如果一直做外插CPU,那等于把市场拱手让给了别人,而且现在显卡有禁运风险。 英特尔最大的决定就是要把X86和基于NPU的架构集中在同一个CPU封装里面,所以虽然整个CPU是X86架构,但是NPU这个模块是专门为了端侧中低负载的人工智能推理去设计的。在PC领域或者在IT领域里面,从来不是技术最领先的厂家或者技术最领先的产品获得最终的市场胜利,而是要看整个市场生态和合作伙伴支持的情况。高通这几年其实一直有PC端的CPU产品,但是一直没有做起来,原因是相比于英特尔和AMD的竞争,英特尔和AMD是同架构的竞争,但是高通和AMD+Intel就是一个异构的竞争,所以如果高通进来的话那英特尔和AMD会暂时联手先把它干掉,所以这两三年的市场上,其实高通一直在做PC的CPU,但是很难见到一款基于高通CPU的笔记本产品,我自己用过的、见过的,就是华为出过的一 款产品,就是类似于Pad一样的小笔记本,但是它那一代产品对Windows的支持包括软件生态也有一定问题,所以就没有做起来。高通重返PC市场,带来一款很新的产品,而且目前看起来算力应该还不低,并且已经获得了微软的支持和认可,但是它能不能获得所有品牌厂商的支持是一个很大的问题。 从全球市场来看,DHL三大家明年或者后年会有多少款机型基于高通的设计去做从根本上决定了这款CPU的命运。比如说联想现在是全球PC第一大厂家,占了很大的市场份额,联想可能每一代产品有200款机型在市场上,但是给高通出5/50/150款,侧面决定了高通的市场命运,虽然可以说高通在食物链的顶端,但是这个市场更多把持在ODM厂商的手里。所以高通明年或者现在正在做或者最终要做的,一方面是宣传自己CPU算力很强,另一方面更重要的是跟各个品牌厂商谈,Designin才是最重要的。这个ODM厂商比如说华为、惠普、联想、宏基,它出100款产品里面有多少款是基于英特尔架构的,有多少是基于AMD架构的,有多少款是双架构的,有多少款是英特尔独占的,这些其实才是它未来CPU命运的根本。 Q:异构是把CPU和NPU封到一起了吗?这个不是SOC而是Chiplet对吗 A:首先CPU的设计是Chiplet架构,CPU的设计从外面看是一个大的、完整的CPU的片子,但是从里面拆开看其实是四个小片子封装同一个硅基板上,这四个小片子就是我刚才讲的CPUtile、SOCtile、GPUtile和IOEtie,有一个tile就叫SOC,这个里面会有很多子系统,其中NPU就在SOC那个tile上面,这四个tile会在一起用英特尔的3D封装。以前英特尔上一代产品都是用2.5D封装,我们这一代会用3D封装,基本上现在除了英特尔有3D封装之外,另一个有3D封装的就是台积电cowos,这两家基本是对等的或者同一个级别的技术,我们用3D封装的技术去把四个小的芯片封装在同一个硅基板上,然后把它再封装成一颗大的CPU。 因为如果用2.5D需要更大面积,2.5D和3D的基本概念是一样的,只不过2.5D从硅基板到上面每一个小的tile之间会有很多硅通孔,2.5D的时候那个TSV只用来导电不传输数据的,数据还需要横向流动。3D封装的TSV既通电又传数据,这样就提高了数据传输的效率,多了0.5D简单理解就是数据可以底下往上竖着走。 Q:做AI边缘端的CPU内存这一块怎么解决?X86的内存是DDR的结构,但ARM是LPDDR6,X86这样在数据延迟上与ARM有比较大的性能差距吗? A:CPU里面是有四个tile,CPU这个tile主要是算力,SOC这个tile里面最重要的除了NPU之外,就是内存的controller和fabric,这个跟NPU在同一个tile上的,这一代支持的也是LPDDR5,下一代是6。 Q:AIPC出来对于国内的哪个环节、哪些公司比较受益呢? A:首先受益是分两方面,如果以前比如说第13代、第12代、第11代的时候受益的只有一类客户,就是跟笔记本硬件生态相关的客户,比如说做Wi-Fi、声卡、屏幕、键盘、电源模块、内存的或者国内SLD厂商,这些肯定都会受益的,Meteorlake出来之后这些厂商也会受益,但是会增加一类厂商就是国内的大模型开发商。他们受益的大前提是所有国外大模型都进不来,我个人认为未来一到两年之内端侧AIPC应用最杀手级应用就是officeCopilot全家桶,但是officeCopilot进不来,其它不管是ChatGPT还是其他都不能以合法身份进来,其实这是给国内大模型厂商留下了一个巨量的市场空间,因 为我个人感觉国内大模型市场是有极