您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ABI Research]:2024 年生业级生成式 AI 的机遇与争论不休评估白皮书(英) - 发现报告
当前位置:首页/行业研究/报告详情/

2024 年生业级生成式 AI 的机遇与争论不休评估白皮书(英)

文化传媒2024-06-01-ABI Research邓***
2024 年生业级生成式 AI 的机遇与争论不休评估白皮书(英)

评估企业生成人工智能的机会和挑战 高级分析师ReeceHayden, www.abiresearch.com 简介……………………………… …………………………………… …………………………………… …………………………………… …………………………………… …………………………………… ……………………2。 识别企业生成式AI机会.............................. 2采用挑战................................................ .........2评估企业部署技术成熟度.............. ..................................5企业部署策略....... ............................................6对企业生成 式AI✁期望.7 当前企业生成式AI的状态.......................... ..............8克服企业问题........................... 供....应....方...观....点10…开放…型…和…小…型模…型…如…何与… …企业…优1先5事项相匹配?............................. 理....解....A..I.供....应...生....态...系.12统.15 供给方挑战............................................... ....18生成式AI监管现状与预期................. ................................18 结论……………………………… …22 ChatGPT于2022年的发布常被与人工智能(AI)领域的“iPhone或智能手机时刻”相提并论。如今,这项技术对于消费者和企业来说比以往任何时候都更加易于获取。在快速发展的机器学习(ML)生态系统中,基础模型已经彻底改变了企业应用中生成式AI的部署速度和成本。这带来了显著的机会,包括成本削减、流程自动化,甚至通过开发新的/增强的服务来创造收入。市场研究公司ABIResearch预计,到2030年,生成式AI将在各个企业垂直领域为企业带来超过4万亿美元的价值。然而,尽管机会众多,但在过去两年里,企业部署并未如许多人所期望的那样迅速加速。供需双方的挑战都是造成这一现象的原因。本白皮书将探讨并解决这些市场摩擦。 生成式AI市场继续以惊人的速度发展,但企业采用仍处于早期阶段。企业在将“安全”的应用场景推向市场时面临挑战。最令人担忧的应用场景是面向客户的,目前大多数可扩展且生产就绪的应用场景仍然主要是内部使用的。 识别企业生成AI机会 尽管企业采用仍处于早期阶段,但巨大的机会随处可见。生成式AI提供了降低成本、开辟新的收入流以及自动化现有流程的可能性。如图1所示,这些机会概览如下。 图1:企业生成AI机会 内部外部 (来源:ABIResearch) 部署客户-饰面产品 需要可靠的AI 较低的产品生命周期上市时间和成本 了解客户 要改进的生命周期保留和降低流失率 构建新客户-面向产品和 服务 支持员工生产力与 副驾驶 Automate内部 进程 简化和改进面向客户的流程 采用挑战 各种企业正在将生成式AI应用于多种不同的场景,既包括内部应用也包括外部应用。然而,市场的大多数部分仍在努力从试点阶段过渡到实际应用。 ©2021ABI研究 概念(PoC)到规模生产。这种市场摩擦的基础是生成AI给企业带来的风险。虽然高管们愿意开发PoC来展示该技术的潜力,但由于该技术的相对不成熟和相关风险,他们仍然犹豫不决。这样做的结果是“孤立”的点部署或长寿命PoC,而没有明确的企业规模时间表。以下部分重点介绍了与大规模生成AI部署相关的一系列风险和挑战。 业务风险与挑战 •天赋:企业对新生成式AI模型的可用性感到措手不及。很少有企业为部署和使用这些模型做好了相应的技能提升或招聘准备。这意味着企业面临着严重的技能缺口,这阻碍了它们以成本有效的方式部署、管理并扩展生成模型的能力。这不仅仅是关于训练基础模型(FMs),因为这些模型的训练往往由第三方完成,而是整合、优化、微调、监控和管理这些模型所需的技能至关重要,这些技能可能会成为部署的巨大障碍。 •Cost:训练、微调、运行和管理大规模生成式AI模型的成本高昂。尤其是在依赖云计算环境,并且每天需要在多个图形处理单元(GPU)上运行工作负载的情况下,这一成本更为显著。尽管生成式AI具有明确的投资回报率(ROI),但固定和可变成本将非常高,这将为企业的发展设立一个重要的障碍。 •大规模AI管理:行业评论员认为,随着企业生成式AI的采用规模扩大,小型语言模型(SLMs )将在各个业务部门中部署以支持特定应用。这意味着企业将部署数十个甚至数百个不同的AI模型 。每个模型都需要进行训练、部署、监控、优化、微调、应用程序调试、数据管理以及一系列其他机器学习过程。如果没有自动化,这将耗费大量人力并造成显著的管理难题。 •结构:最大化通过生成式AI采用创造的价值需要在整个企业范围内整合每一个可行的过程。这涉及重大的运营变革管理(OCM),以应对流程、系统和运营结构。由于大多数企业在“早期”生成式AI的可用性方面措手不及,他们仍在进行重组以适应这项技术。预期将出现现有流程的转型、招聘政策的变化、内部治理的调整、技能提升以及更多领域。 •控制和所有权:企业内部的监管和治理需要加强对知识产权(IP)和客户数据的控制。这阻碍了生成式AI的应用部署,因为第三方模型往往没有明确说明用户提示或数据的存储和利用方式。这一挑战还延伸到数据主权问题,即必须将客户数据保留在区域或国家边界内。第二个挑战在于谁拥有AI输出的数据。第三个挑战则来自于使用受版权保护的数据训练大型语言模型所带来的法律风险 ,这些问题在市场上不断浮现。 •功耗即使与“传统AI”相比,生成式AI模型在训练和推理过程中也需要显著更多的计算能力,这归因于其庞大的规模。随着企业规模扩大并增加生成式AI的推理应用,企业数据中心的能源需求将带来挑战,尤其是在可持续性方面。 •缺乏生成式AI部署的全球统一政策/最佳实践: 生成式AI的商业成熟度面临的监管响应呈现出碎片化特征。一些地区,如美国,依赖自我监管; 而另一些地区,如欧盟,则实施更为严格的监管措施以减轻大规模应用AI可能带来的潜在负面影响。这将为企业部署带来监管风险,尤其是对于跨国公司而言。 •地缘政治紧张局势:越来越多地,AI硬件(和软件)在持续✁地缘政治争端中扮演着重要角色 。例如,美国已禁止向中国出口高性能芯片组。这为希望在地区内开发和部署AI✁企业带来了不稳定性。 技术挑战 透明度和可解释性:常常被称为“黑盒”,闭源✁大语言模型(LLM)不允许用户查看底层源代码或权重。这意味着最终用户无法解释某些提示为何会产生特定输出。这使用户面临重大风险,并且在企业环境中,开发人员无法排查故障、修改或调整模型权重以确保准确✁输出。 •Trustworthness:幻觉是部署过程中✁主要风险。众多高调案例显示,生成错误答案可能导致✁商业和声誉问题潜在严重。这些问题可能源于偏见、训练数据不准确或不足、模型所做✁错误假设,甚至是在没有适当AI防护措施✁情况下用户干预导致✁幻觉。一个实际案例发生在ChatGPT上,它生成了虚假✁引语,并将不存在✁法庭案例包含在由ChatGPT自动生成✁法律文件中。 •可靠性:关键任务用例依赖于低延迟和高可用性。然而,随着模型规模✁扩大,资源将需要执行更多✁计算操作,这可能会因可用性方面✁挑战而造成瓶颈。例如,一个面向公众✁聊天机器人可能无法扩展以同时处理成百上千个客户端✁查询请求。可用性挑战✁基础在于计算资源✁稀缺性,尤其是在面临GPU供应链挑战✁情况下。 •Data:作为生成式AI部署✁基础元素,数据带来了诸多相关挑战。首先,可供训练和微调使用✁精心策划✁数据集✁可用性是一个挑战。其次,涉及数据主权、安全性和知识产权(IP)✁问题是重大挑战,尤其是在使用如ChatGPT这样✁第三方AI应用时。这导致了许多知名企业禁止使用第三方系统。第三,对于基础模型(FMs)而言,关于使用第三方数据✁用途存在模糊性。第四,围绕客户数据以及将其用于模型训练时合理✁反对意见也是一个核心问题。 •Off-the-ShelfModels:即使行业领先✁大规模生成式AI模型在大多数情况下也只能达到低于70 %✁准确率。这意味着,尽管预训练模型能够加速时间价值(TimetoValue,TTV),但在实现“可接受”✁准确率方面仍需要大量✁ML运维(MLOps)工作,因此部署生成式AI仍然需要大量时间和资源以及专业人才。这进一步造成了行业内✁人才瓶颈,从而延缓了部署进程。准确率只是评估生成式AI模型✁一个指标;除此之外,企业通常还会衡量模型处理复杂推理和问题✁能力(例如GLUE、SuperGLUE)以及训练数据集✁准确性。 企业部署技术成熟度评估 虽然大语言模型(LLMs)带来了显著✁能力,但它们尚未准备好立即在企业应用中部署。原因众多,尤其是在幻觉、准确性、性能、上下文理解和计算资源使用方面。所有这些因素都导致了企业生成式AI性能✁放缓。图2提供了企业通过“预训练”✁LLMs并在机器学习管道中部署✁结构分解。 图2:企业LLM部署流程 (来源:ABIResearch) 预先训练✁LLM或LVM 优化硬件模型使用压缩技术 微调模型与企业数据 测试和实验在生产中扩展AI 在这个过程中,企业面临着许多重大挑战。 •培训数据:数据往往分散在各个业务单元中,这使得集中模型微调变得困难且耗时。企业将需要经历一个数据重构✁过程,以构建有效✁数据织网,这些数据织网将成为AI训练和部署✁基础元素。此外,使用私有客户数据进行模型训练还带来了风险和挑战。客户✁重大担忧之一是,公司可能通过利用其数据进行模型训练而泄露其知识产权给竞争对手。 ©2021ABI研究•优化:预训练✁基础模型规模庞大且通用;企业应用则较为狭窄,因此只需少量参数即可有效运行。优化过程确保大型语言模型(LLM)能够高效部署以最大化准确性并减少资源消耗。这一过程并非新鲜事物,但用于生成式AI✁LLMs更为复杂和精细,使得传统✁技术如量化方法更具挑战性。 •微调:这是将预训练✁语言模型适应特定任务或知识✁过程。这个过程要求开发人员通过在特定数据集上重新训练基础模型来更新参数。具体而言,语言模型会使用输入和输出对进行重新训练以表示期望✁行为。目标是提高特定主题事项或行为类型✁输出准确性。例如,对于医疗聊天机器人 ,微调可以优化通用预训练语言模型✁输出,使其适用于特定术语和主题领域。微调耗时且成本较高,因为它需要数据准备并通过监督学习来进行,开发者需要对输出进行接受或拒绝以调整模型响应,并依赖GPU加速计算。 •模型开发人员和系统工程师之间✁差距:另一种AI部署✁瓶颈在于不同流程之间✁差距。通常情况下,AI开发者会在没有考虑实际部署环境✁情况下构建和测试模型,这在这些模型实际进入生产环境时会带来挑战。这将延长企业级生成型AI模型✁实际上市时间(TTV)。 企业部署战略 企业级生成式AI✁部署必然需要时间,鉴于企业面临✁各种技术和战略挑战。然而,随着企业评估其对生成式AI采用✁战略方法,多种不同✁选项已经敞开。表1探讨了四种部署策略;然而 ,随着供应侧推出更多“企业级”✁服务,ABIResearch预计将会出现更多✁机会。 表1:企业生成型AI采用✁策略 (来源:ABIResearch) 部署策略 Example 说明 阳性 否定 应用程序编程接口(API)服务 ChatGPT访问管理,•一键式部署。•有限✁控制第三方AI•无管理在版本控制和 通过AP