您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[IDC&亚马逊云科技]:2024生成式AI白皮书:五大关键要素解锁生成式AI全新机遇 - 发现报告

2024生成式AI白皮书:五大关键要素解锁生成式AI全新机遇

2024-03-04-IDC&亚马逊云科技表***
AI智能总结
查看更多
2024生成式AI白皮书:五大关键要素解锁生成式AI全新机遇

执行概要 从基础模型到落地的生成式 AI 应用,需要经过模型训练、模型定制、模型部署、模型推理等环节。各个环节上的行业参与者均面临着不同程度的基础设施、数据集成、应用场景选择、安全与隐私以及负责任 AI 方面的挑战: 大模型提供商在训练基础模型的过程中,数据准备工作复杂而耗时,训练基础设施的管理与优化有较高的门槛,且算力成本高昂。对于生成式 AI 应用开发者而言,需要为应用场景选择最为适配的模型,也需要集成来自不同存储库、不同格式的数据,还需要保障用户数据隐私、模型安全以及生成内容的安全。对于生成式 AI 应用使用方而言,识别应用场景、利用自有数据与大模型进行交互的过程中如何保证数据安全,如何确保模型生成内容所问即所答,都是其挑战所在。 整体来看,能够帮助生成式 AI 新生态里的产业参与者加速生成式 AI 应用落地的解决方案,必须具备五大要素: 高性价比的基础设施、丰富而灵活的模型选择、使用私有数据实现差异化定制、开箱即用的生成式 AI 驱动的应用和负责任的 AI。关于部署方式,现阶段用户更倾向于从云端开始部署:一方面大模型尚处于早期,模型能力不断突破,云服务能够助力用户快速使用到最新的模型能力;另一方面,使用云服务也可以助力用户降低基础设施搭建与运维的时间成本,因此云服务商成为各类玩家构建和部署生成式 AI 应用的首选合作伙伴。 开启云上生成式 AI 之旅: 有必要尽快将生成式 AI 融入企业级战略,确定是自建模型还是使用模型定制功能来发挥企业的差异化优势。在参考外部诸如提高生产力、增强用户体验以及优化业务流程成功实践的同时,筛选确定自身应用场景。端到端构建生成式AI 应用,则从为应用场景选择模型开始,参考当前的成功实践,选择适当的模型定制路线进行模型的适配与调整,将经过评估验证的模型集成到企业应用系统,并设立评估指标,对应用进行持续迭代。 亚马逊云科技助力释放生成式 AI 潜力: 亚马逊云科技致力于不断降低机器学习使用门槛,面向生成式 AI,公司提供丰富的算力选择与高效的加速训练与推理;在海外区域推出 AmazonBedrock助力轻松构建并规模化生成式 AI 应用,以及企业级生成式 AI 助手 AmazonQ;高度重视为用户提供负责任的 AI 策略支持。此外,公司也在持续建设端到端的数据基座,以支持生成式 AI 的数据集成需求。至今,超过�万家客户利用亚马逊云科技 Amazon Bedrock 进行生成式 AI 创新。 CONTENTS �.� 生成式 AI 落地不及预期�� 构建生成式 AI 应用的现实挑战�� �.� 生成式 AI 三类主要参与者�.� 数据准备耗时,训练成本高昂�.� 数据集成复杂,模型适配难,安全要求高�.� 应用场景筛选难,数据隐私安全顾虑,缺乏成功部署实践�������� 云服务助力构建生成式 AI 应用��03 �.� 落地生成式 AI 应用的五大关键要素�.� 具备成本效益和领先 AI 应用的云服务加速构建生成式 AI���� 从云端开始构建生成式 AI�.� 制定融入生成式 AI 的人工智能战略����04 �.� 规划生成式 AI 应用场景�� �.� 端到端构建生成式 AI 应用�� 亚马逊云科技助力企业解锁生成式 AI 潜力�� �.� 高性价比且丰富的基础设施加速训练与推理�� �.� 丰富的模型可选,可基于私有数据差异化定制�� �.� 生成式 AI 驱动的应用程序�� �.� 亚马逊云科技注重负责任的 AI�� �.� 端到端数据基座打通壁垒,让所有应用可治理、可管控�� 第一章 生成式 AI 应用:热度高、落地慢 随着生成式 AI 应用快速进入市场,以及越来越多大模型的不断面世,����年已经成为生成式 AI 的元年:不同区域、各行各业、不同领域的人们开始尝试在工作和生活中使用生成式 AI,以探索各种可能性。于企业而言,生成式 AI 也已经成为从董事会到基层员工都在探讨热议的话题,一些领先的企业甚至已经利用生成式 AI 技术实现了业绩增长。 �.� 近六成企业开始拥抱生成式 AI 在����年第四季度的生成式 AI 用户调研中,IDC 发现,已经有近六成的企业开始拥抱生成式 AI,超过三成企业开始制定潜在应用场景,仅有�%的企业还没有任何举措。 ��%的企业表示已经投资生成式 AI,并且有相应的预算计划。这些预算可能来自����年已有的规划,也有些是针对生成式 AI 新增的预算。 ��% 的企业表示已经做了一些初步的测试与概念验证,但还没有明确的投资计划。 ��%的企业表示正在制定潜在应用场景,但还没有进入试点阶段。 仅有�%的企业表示目前还没有任何举措。 �.� 生成式 AI 落地不及预期 在已经开始尝试生成式 AI 的企业中,应用场景遍及企业各个业务流程,包括客户服务类应用、支持运营决策类应用、提高员工生产力的应用、辅助产品设计的应用、支持营销的应用等。其中,高管最为关注且最希望从中获取价值的前三大应用为:智能客服类应用、支持财务和运营决策的应用以及专注于提升员工生产力的应用。在实际探索中,预计能优先落地的场景主要是生成式 AI 支持数字化营销领域的应用,支持财务、运营决策类的应用,以及智能客服类应用。 在应用范围方面,即使已经上线的应用,范围也都比较局限,以单点应用为主,如基于大模型升级的智能客服;当前,单个项目的应用可能也就局限于小部分客户群体或者不足百路的坐席中。 在落地时间方面,五成以上的企业认为各个领域的应用落地时间都需要在��个月以上,这远远长于企业期望的�个月的时间。 综合来看,模型生成结果的准确性、人才技能稀缺、部署的成本等,都影响了生成式 AI的规模化落地。深入探索企业生成式 AI 的实践,发掘落地前、中、后的全链路问题,让企业能够理性选择技术方案、大胆尝试应用场景,才能真正实现以生成式 AI 带来差异化竞争优势。 科技行业正处于开创性时刻,生成式 AI 使预测变得更加容易,甚至可能更加普惠、价格更加亲民。企业将把生成式 AI应用到更多全新的领域,带来众多商业模式和竞争战略的改变。IDC 预计,生成式 AI 将在未来 �� 年内为全球 GDP 增加近 �� 万亿美元。然而,高关注度、高预期并没有带来相应的落地进展。厘清生成式 AI 应用落地的路径,寻找能够加速应用落地的解决方案,是行业参与者的当务之急。 构建生成式 AI 应用的现实挑战 相比上一代 AI,生成式 AI 应用的开发需要重新在各种大模型之间进行选型适配,对于用于模型训练的数据的安全性要求更高,在模型定制环节的工作有更加多样性的选择,也因此形成了全新的生成式 AI 应用产业生态。而生态上的所有参与者,今天也面临着诸如数据、算力、成本、模型适配、安全隐私等挑战。 �.� 生成式AI三类主要参与者 从基础模型到集成到企业系统中的生成式 AI 应用,简单说就是对基础模型进行定制、调整,再进行推理的过程。其中,基础模型的训练,对于数据、算力以及技能、人才的要求都很高,因此只有少部分企业专注于模型的训练,即模型提供商。更多的企业选择依托基础模型,使用自有数据进行调优、采用提示词工程(Prompt Engineering)的方法,以提升模型生成内容的准确性;或者使用检索增强生成(下文简称:RAG)的方法以充分利用企业自有知识使模型更好地理解上下文的语境,给出更相关的答案⸺这两类群体为生成式AI应用开发者。行业应用解决方案商则是将生成式AI应用集成到现有的系统中,开发出 AI 赋能的行业应用;大部分行业用户也更倾向于采用融入生成式 AI 能力的行业应用,来实现智能化升级。 大模型提供商⸺基础模型训练 大模型提供商从零开始构建基础模型,参数量达到百万、千万甚至亿级别,典型厂商如 Anthropic 、Al�� Labs、Meta、cohere、OpenAI、Stability.ai、智谱华章、百川智能等。当前阶段,通常只有科技巨头、头部创企才有能力自主进行大模型训练,这些大模型也是生成式AI应用创新的重要源头。从模型的供给侧来看,随着大模型提供商的逐渐发展和壮大,参数量的不断增加,这些模型应用到生产环境中的准确性也相应的越来越高,过去不可能达到的预测准确度也开始成为可能。 生成式 AI 应用开发者 从基础模型得到最终应用,需要将特定领域数据引入基础模型进行再次训练 / 调优,才能获得理想的效果。如前所述,当下有三种方式可以实现模型的定制:调优,提示词工程,检索增强生成(RAG)。生成式AI应用开发者可以基于市场上的商业化或者开源模型,采用专有数据对模型进行调整,来构建特定场景下的生成式 AI应用。各行业的解决方案商可以采用基础模型基于领域数据训练领域大模型,行业企业则可以使用模型定制功能开发企业专属应用,市场上也涌现出越来越多的AI原生企业采用大模型开发出各种创新的应用。 生成式 AI 应用使用方 将大模型驱动的生成式 AI 应用程序,部署到企业现有的系统中。采用构建好的生成式 AI 应用,可以将其应用在内部知识问答、自动邮件生成、代码补齐等场景中,也可以集成在诸如新药研发、预测性维护、广告推荐、智能营销等行业垂直应用中。 �.� 大模型提供商的挑战:数据准备耗时,训练成本高昂 现阶段,作为生成式 AI 应用创新的源头,模型提供商在模型训练环节面临着一系列关键挑战,比如数据准备耗时、计算存储网络需要提升性能、训练成本高昂、生成内容需要减少幻觉且需要符合监管等。 数据准备耗时耗力:相比中小模型,用于大模型训练的数据有三个特征⸺数据量大,对数据质量的要求更高,对数据安全的要求更高。在数据准备环节,模型提供商在海量数据清洗、关键数据脱敏等环节需要消耗大量时间精力。为确保建立负责任的 AI,也需要对用于模型训练的数据进行大量的审核工作。因此,缩短数据清洗时间,提高数据准备工作效率,是当前的迫切需求。 基础架构管理与优化门槛高:大模型参数量往往达到千亿、万亿级别,用于模型训练的数据会达到千百万个数据点。训练过程中,无论大小文件的存储、海量小文件的读取,还是算力集群的稳定性、数据的高速写入写出,都要求团队具备专业的基础架构相关技能。 用于训练的基础设施成本高昂:大模型的单次训练通常会用到千卡甚至万卡级别,因此计算所需要的算力相比以往中小模型时代大幅提升。如何在保证计算性能、稳定性的前提下,降低整体成本,是大模型提供商的迫切需求。 确保模型效果不断提升:能够确保大模型走向市场的前提在于模型生成内容的准确性,以及怎样确保模型少一些幻觉,实现“所答即所问”,这也是模型提供商重点投入的方向。此外,未来� ~ �年,如何能够确保大模型效果持续提升,也是大模型提供商的当务之急。 �.� 生成式 AI 应用开发者的挑战:数据集成复杂,模型适配难,安全要求高 生成式 AI 应用开发者是打通最后一公里、实现技术规模化复制的重要环节,然而当前生成式 AI 的应用开发,也面临着诸多挑战。 模型选择与评估耗时且无参考依据:一方面,今天的大模型应用仍然处于早期,企业中的应用场景纷繁复杂,开发人员需要花时间去尝试,以便为应用场景选择效果最优的模型;另一方面,在同一个应用中可能会用到多个模型,而不同模型的 API 也存在较大差异。如何能在模型选择与评估环节提高效率,是生成式 AI 应用开发的首要挑战。 模型适配与调整门槛较高:从基础模型到能上线的生成式 AI 应用,离不开对于模型的调优,或者其他模型定制功能来发挥大模型的差异化优势。而大部分企业在这方面并没有任何储备。对于采用 RAG 的用户,在将来自企业内外部数据做成外挂知识库的过程中,需要选择专门的数据库来存储知识,这一数据库既可能是全新的向量数据库,也可能是具备向量引擎能力的传统数据库。对于微调模型的用户,模型调优环节需要对模型结构有基础的了解,调优也会带来一定的算力要求。即使只是采用提示词工程的方式来使用大模型,也需要有专业的提示词工程师。上述这三种方式,当前