您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:盘古大模型:交流会议纪要–20230327 - 发现报告
当前位置:首页/会议纪要/报告详情/

盘古大模型:交流会议纪要–20230327

2023-03-27未知机构点***
盘古大模型:交流会议纪要–20230327

【盘古大模型】交流会议纪要–202303盘古大模型的概况介绍: 盘古大模型主要由五个模型组成,最领先的是CV(机器视觉),然后是NLP(自然语言处理),然后还有多模态、科学计算、语音,这5个方向的发展成熟是完全不一样的。当前大家热议的ChatGPT是在NLP领域,百度的文心一言和它比较相似,但和盘古大模型是不太一样的。 (cid:0)盘古大模型的初衷主要是服务B段的客户,聚焦比较成熟的CV领域。 在NLP领域还比较薄弱, 生成性的最多能做一些个封闭场景下的客服,语义理解相关的可以做一些舆情的管控、法律司法文书的理解、审计文书的理解,但是输出性的、内容生成性的,盘古大模型之前没有将其作为一个发展的重点。 (cid:0)公司能够找到的高价值数字化赋能的场景主要是以视觉为主,所以这就是盘古大模型更多的研发项目主要是围绕着这一块来展开的原因。NLP反正力度不大,最主要的一个逻辑还是商业驱动力不足。 公司一开始做AI就没把2C作为一个重点。大模型的成本: 大模型的训练成本确实很高,GPT-3训练一次的成本可能在1200万人民币,GPT-3出现之后也给了业界一个很大的启示,是否还要继续这样“暴力美学”地走下去。现在学界有一些观点,大模型在现在的参数基础上再指数级增加对模型的性能边际效应已经减弱了,那么这就需要一些降本的方法:(cid:0)OpenAI的团队做的比较好的一件事情就是做精准高质量的标注(RLHF)。 (cid:0)专家所在的公司有一个非常重要的发展方向是做小样本训练,通过自监督的方法通多更少的标注数据来做训练。 (cid:0)盘古大模型的三层架构也能在结构上实现降本。L0层是通识性的大模型,具备鲁棒性和泛化性。L1 是行业大模型(例如煤矿、电网)、L2是针对具体场景的自动化工作流的部署模型。成本方面,大模型训练好了之后不用再重复训练,只需在L1和L2上做适应性训练,成本关系是上一层的5-10%。大模型适用的领域: HW认为应用场景比较成熟和丰富的领域是值得为其去开发L1,例如电力行业(无人机输电线巡检)、制造业的质检(机器替代人眼质检)、铁路故障隐患的监测等等。机器视觉是一个相对封闭的场景,也是纯参数驱动的,标注数据的成本也不是很高。目前盘古大模型的工业质检主要应用在消费电子领域,最早应用在了公司的南方工厂。未来如果能有更大幅度的降本,对行业将产生更大的颠覆。 HWAI的研发状态如何,会与哪些厂商合作? (cid:0)HW目前AI的研发,主要包括全栈全场景两个方面的制作,一个是HIAI,一个是EI,HW公司自己的能力是能够做到端到端的,从硬件到软件,从场景到营销,基本上都可以使用自己的产品,特别大的 合作商没有。 (cid:0)HW在半导体供应链上,战投了好几家公司,帮助公司补足半导体先进支撑的一些能力。公司在算力支撑等方面需要一些合作,HW有一些地方政府支持的项目。 (cid:0)HW的软件产品在行业化溢出的时候,有几种类型的公司是比较重要的。一个是软件开发的外包公司,HW开发力度、开发工作量比较大的环节都是用了大量的外包。另外一个是行业数字化的EI, HW之前释放了MetaERP,像外包交付的汉德、赛意等公司的能力是HW不具备的,HW一定会通 过这些公司的生态来完成业务。这里边有一个核心的商业逻辑,是HW要尽少减少自己去做交付,主要是因为现在的人效不达标,而且人力成本达到了一年10万人70多万人民币,所以很多毛细血管 级别的交付,HW需要依靠生态链来完成,第三在半导体的生态上也是需要与这些生态中的供料内部资料内部资料内部资料内部资料内部资料内部资料内部资料内 应商侧的公司供货给HW。 ChatGPT落地后,HW在这个方向是否会马上追赶? (cid:0)首先HW公司历史上基本上新的趋势很少是很快就追上来,公司发展30多年,基本上没有做到过先发。在任何领域,HW公司基本上都是做到的后发制人。包括手机、云和汽车。所以这个领域HW肯 定不会很快。 (cid:0)ChatGPT面向更多的是ToC端的属性。目前HW正在研究这个项目,但是这是一个集团级的项目,通常做出决定会比较缓慢,一两年内不太会出来。HW在AI商业化研究是一直持续存在的,公司以 前一直非常不看好。公司尽力地完成AI工程化、AI产品化,公司认为这是商业化不得不走的路线,如果采用高度项目制,一切项目制用AI去做,成本很高,不容易挣钱,因为人力成本非常高,然后项目制不可复制,因此HW才选择了面向行业的CV大模型。 (cid:0)ChatGPT发布后,它对商业化带来了很多的思考,因为它天生的商业化属性非常高。ToB直接卖API,ToC因为生产内容是直接嵌套的,而且是中国人擅长的商业化路径,可以编辑广告、电商。但 HW不会立马进入到这个ChatGPT类的AIGC细分赛道,也没有任何的项目,战略研究都才刚刚开始。 (cid:0)HW做了很多技术方向侧的研讨,公司现在也有一些判断,即中国很难在短期内出一个达到ChatGPT同等效果的产品。中国的发展方向,无论是这些大厂还是创业的公司,专家认为他们真正要 做到商业化闭环或者商业成功有个核心,需要做支持相对封闭的一个单场景,这样成功率会比较高。以及训练和维护的成本还是需要进一步的压低,不然的话这个业务基本还是聚焦在这些特别大的公司手中。 ChatGPT前期的生态圈如果建立完毕后,后面的新进入难度会不会越来越大? (cid:0)专家认为现在的难度已经非常大了。ChatGPT发布后立马就是GPT4.0,首先它的数据源头的很广,第二它的数据前期的标注的质量也非常的好,再加上它现在已经是完全多模态多语种了,其实现在的 优势还是挺大的。 (cid:0)国内现在赶出来的产品还是不太行的。而OpenAI的产品一直是边用边学,接受越来越多全球使用者的反馈,通过人类反馈帮助他提升和进步。 (cid:0)但专家认为ChatGPT的局限性是在于完整的做到某些场景的商业化闭环。ChatGPT的信息生产模式是generatedcontent,它的信息不准确,它的事实基础不可信、不可靠,所以ChatGPT很难在一 些需要事实基础比较准确的商业产品上完成闭环。第二个ChatGPT有一个很领先的属性,它的前后文是有连续性的,根据前后文来聊天,每一个问题不是独立存在的,而是有关联的。但它有个bug是前后文的逻辑关系并没有能够做到很好的连接。在逻辑问题上可能会出一些错误。 (cid:0)公司现在判断ChatGPT未来立马会改变的场景其实是企服软件,对企服软件的嵌套只是非常初级的方式,未来ChatGPT也许会重新定义生产力以及办公工作相关的企服场景,公司现在在分析未来是 不是所有的企服软件都会基于ChatGPT来开发,以及ChatGPT能不能重构企服软件的交付模式。国内AI企业如何赶上? (cid:0)公司认为中国要追存在几个必要条件,首先场景必须是多模态,第二是数据量不能再爆发式增长, GPT已经达到1700多亿了,如果再存在量级上的增长,也许不能带来这个性能本质上的提升。 (cid:0)成本的控制需要通过一些技术手段来限制语言的样本量。这个完整的商业模式可能需要ChatGPT在全球范围内的带领来探索。专家有一个预判,中国的这些创业公司做出来的产品都可能是局限于某个 或者某一些场景的,这些产品反而能够获得商业上的成功。HW为什么要做产业级、行业级的CV应用,这个也是HW根据公司的能力限制和公司的商业模式做出来的一个选择。 料内部资料内部资料内部资料内部资料内部资料内部资料内部资料内