研究 GenAI驱动的转换 通过GenAI在各个级别为您的公司取得成功做好准备 管理摘要 GenAI驱动的转换 通过GenAI在各个级别为您的公司取得成功做好准备 生成性人工智能(GenAI)显然已成趋势。不仅如此,它正在对商业的方方面面带来深刻的变革——实际上是一种转型。本研究追溯了人工智能(AI)从20世纪30年代初步起步到如今迅速崛起的历史 。即使在最初的hype开始消退之际,其在推动自动化、提升产出质量以及提高生产力方面展现出的巨大潜力依然令人惊叹。 研究还将讨论今天正在形成,并且未来将继续形成的那些塑造这项变革性技术emergence的力量。通过超过100名顶尖管理者的意见,研究突出了预期将获得最大收益的领域和业务职能,随后提出一个关键问题:公司是否已经准备好迎接未来的变化?如果还没有准备好,他们又该如何最好地进行准备? 后者成为了罗兰·贝格深入探讨自身在生成式人工智能(GenAI)领域经验的核心,并概述了多个富有洞察力的案例研究,同时提供了多种实用指南,以帮助公司迅速适应自身的组织结构,从而在全企业范围内实现持久的利益。 2|罗兰贝格 Contents P41/GenAI推动的转型-每家公司都需要了解的关键驱动因素和因素 本章简要追溯了人工智能从历史发展至今的历程,并概述了能力、成本和监管这三大关键驱动因素将极大地影响其未来的发展轨迹。 P12 2/GenAI的预期影响-行业专家的见解 本章概述了不同行业从业者从生成式人工智能(GenAI)中期望获得的利益,并探讨了他们的组织是否已经足够成熟以充分利用这项技术带来的全部收益。 P16 3/转变您的组织-使其正确 本章介绍了并讨论了四项关键原则,以帮助业务领导者以战略、协调的方式在整个企业范围内渗透适合的通用人工智能(GenAI)。案例研究——包括我们自身的GenAI发展历程——增添了实际洞察,突显了该方法的价值。 P28 4/实用建议-现在是时候采取行动了! 本章总结了本研究的主要内容,提供了有关如何开始GenAI旅程的实践建议。 图像AI生成的封面 GenAI驱动的转换|3 GenAI推动的转型-每家公司都需要了解的关键驱动因素和因素 本章简要追溯了人工智能从历史发展到当今的历程,并概述了能力、成本和监管这三大关键驱动因素将对其实未来的轨迹产生重大影响。 F 新兴的技术创新拥有互联网和个人电脑所赋予的变革力量,重塑并革新了我们的世界。然而,现在一个新的时代正在到来:一个由生成式人工智能(GenAI)定义的时代。GenAI也有潜力以我们难以想象的方式重新定义我们的生活。利用最新的人工智能技术开发的程序已经在许多方面展现出类似人类的行为。一些专家甚至将今天发生的变化比作工业革命,后者大规模地取代了手工劳动。然而,GenAI的独特之处在于它带来的变革速度令人难以置信。 其今日的爆炸性增长源于20世纪30年代以来的早期人工智能概念。在此期间,人工智能的发展是一个迭代过程 ,每一次新技术的进步和商业化速度都远快于前一代技术。例如,生成式人工智能产品ChatGPT标志着技术扩散速度的质变:而Facebook和Instagram分别用时十个月和2.5个月达到一百万用户,ChatGPT仅需五天,且仅用两个月时间就达到了一亿用户。这种快速市场渗透在任何领域都是前所未有的。所有迹象表明,当前的技术进化速度将更快,新一代的人工智能和生成式人工智能模型将以几乎断断续续的频率进入市场。 激发商业界的兴趣在于承诺实现前所未有的生产率提升 ——这一承诺正日益得到实证支持:斯坦福大学、哈佛大学和麻省理工学院的研究表明,使用生成式人工智能 (聊天机器人)的人在生产率方面显著优于非人工智能用户。在业务流程中整合生成式人工智能明显提升了效率、提高了产出质量并支持了创造性问题解决。 为了帮助我们理解这一复杂且有时令人费解的技术未来的发展方向及其对未来每一个业务领域的深远影响,罗兰贝格开展了对领先专家和高管的深入调研。这些讨论使我们识别出三个关键因素,这些因素对生成式人工智能(GenAI)的增长和传播产生了重大影响:AI模型的能力、与之相关的成本以及监管环境。 调查方法 罗兰贝格对各类大型云计算服务商、语言模型提供商、科技初创企业、行业专家及企业领导人进行了广泛的延伸访谈。 然而,仅凭速度无法解释为什么生成式人工智能(GenAI )会成为如此巨大的全球热点——尤其是考虑到许多企业领导人坦承他们尚未真正理解该技术本身及其深远影响。 我们还调查了超过来自不同行业的100名经理和高管。我们想了解快速发展的生成性人工智能(GenAI)对组织可能产生的影响,以及公司应该如何应对。本报告详细讨论了这些互动所得的见解。 能力 模型训练的改进 使Genai工作-具有更多的计算能力和更多的培训数据每个新模型或版本都在不断增加的数据量上进 行训练 生成AI模型的能力高度依赖计算能力:可用的计算能力越强,可以使用的训练数据越多,生成的模型和结果质量也越高。因此,用于训练模型的数据量是衡量进展的一个良好指标。图A说明了这一点,对比了Meta的Llama2模型与更新且更先进的Llama3模型所使用的训练标记(参见术语表),后者处理了显著更多的数据。同样的情况也适用于Google的PaLM模型。尽管最新的闭源大语言模型(LLM)的具体数据尚无确切估计(参见术语表),但据信GPT-4的训练数据量约为13万亿个标记,Google的GeminiUltra的数据量则在20万亿到40万亿个标记之间 ,Anthropic的模型数据量与此类似。A 克劳德3Opus在40万亿令牌。 培训令牌[bn] 7.5x 2,000 4.6x 780 15,0003,600 推动运行这些AI模型所需的庞大数据中心所需的动力使得像NVIDIA这样的GPU生产商在2023年和2024年成为了突出的表现者。超大规模云计算提供商也完全致力于发展这项技术,例如AWS(亚马逊)计划在未来基础设施上投资约1500亿美元以支持AI驱动的未来。同样,GCP(谷歌)和Azure(微软)也在全球范围内投资建设新的数据中心。 Llama2Llama3 来源:Meta,谷歌 PaLMPaLM2 从单一模式到多模式 除了单纯的体量之外,训练数据的类型也发生了重大转变。传统上,大多数大型语言模型(LLMs)主要是“单模态”模型,主要基于大量文本数据集进行训练。然而,2024年出现了“多模态模型”,如GPT-4o,这些模型不仅能够处理和生成文本数据,还能处理和生成音频、图像甚至视频数据。通过这种方式结合多种来源的数据,可以提供更为相关和准确的信息,并具备更好的上下文意识 ,因为模型能够更好地辨识和解释不同数据之间的关系 。 类型的数据。它还能够在多种通信模式下创建更加引人入胜、直观且类似人类的用户体验,从而为工程、销售、营销和客户关系等领域带来了许多令人兴奋的应用场景。 放大上下文窗口 与多模态的出现相关,诸如OpenAI的GPT和Google的Gemini等领先语言模型在“上下文窗口”方面取得了显著进展,“上下文窗口”是衡量处理能力的一个指标,表明模型在一个单一交互中能够高效处理多少信息。从GPT-3.5Turbo到最新的版本之间, GPT-4Turbo和GPT-4o模型为例,OpenAI实现了上下文窗口容量八倍的增长。然而,Google的顶级语言模型甚至将这些进步远远甩在后面,boasts一词在此处应翻译为“宣称”以保持原意,因此: GPT-4Turbo和GPT-4o模型为例,OpenAI实现了上下文窗口容量八倍的增长。然而,Google的顶级语言模型甚 “让至我将们这一些起进的步理远由远…甩…在后”面,宣称其上下文窗口容量增加了63倍。 扩B大的训练数据和计算能力反过来显著提升了如OpenAI的处G理P能T力和。Anthropic的Claude等大型语言模型的推理能力 。这些模型现在展示了高度复杂且接近人类水平的理解 能力和上下文分析能力,并在许多标准化测试中甚至超过了人类的表现。每次新的模型迭代或更新都显示出在语言理解、数学和编程方面增强的能力。尽管未来的发展是否能够再现GPT-3.5Turbo与GPT-4模型系列之间以及Claude2与Claude3Opus在编程方面的显著进步尚不确定,但持续改进的模型架构和训练方法很可能会使下一代AI模型更接近根据常见评估指标获得满分。 B最新的GenAI模型可以处理更多的数据对于流行的LLM,上下文窗口越来越宽 上下文窗户的 受欢迎的LLM['000令牌] 8x 32 16 63x 1,000 32 128 2,000 GPT-3.5GPT-4GPT-4 Turbo32kTurbo& GPT-4o 双子座 1.0Pro 双子座 1.5Pro1M 双子座 1.5Pro2M1 1试验阶段 来源:OpenAI,Google AI代理商作为游戏的变化 AI尚未在严格意义上拥有自主性,但AI代理(参见术语表)已经增加了额外维度。虽然大型语言模型目前在解决明确定义的问题方面表现出色(如总结大量文本),但在处理高度复杂的问题时却达到了极限。然而,AI代理现在展示了优化这种性能的能力。一个AI代理是一种能够根据其环境、输入和预设目标(半)自主地执行任务的计算机程序。这类代理在解决特定问题方面比基本方法更为有效。 大型语言模型(LLMs)的能力使这种管理成为可能。高级AI代理通过所谓的代理图(参见术语表)进行管理,这些代理图实际上是结构化的、相互连接的专业代理网络,能够协作以应对复杂的任务目标。通过使用基于图的代理 ,组织可以开发出更为复杂且更具适应性的AI解决方案,这些解决方案能够处理复杂的任务,从而可以应用于更广泛的复杂业务流程。良好的设计指导原则是定义图的方式 ,使得每个子任务既不至于太小而无法利用GenAI的一般化能力,也不至于太大而导致负责该子任务的代理没有足够的能力。 成本考虑因素 芯片价格重磅 高性能图形处理单元(GPUs)是数据中心用于训练大型语言模型(LLMs)和运行生成式人工智能(GenAI)解决方案✁关键组件,这些GPU非常强大但成本也非常高昂 ,目前每块GPU✁价格高达4万美元。这自然会增加为训练和开发LLMs而付出✁成本。然而,这也促使大型企业用户必须认真考虑他们是否有能力自行训练和微调模型。尽管如此,由于大多数公司既不自己训练LLMs也不运营自己✁数据中心,他们只需支付相对较低且正在下降✁使用费用(大LLM提供商正在进行激烈✁定价竞争,详见下页),因此尚不清楚技术提供商是否以及愿意将自身✁高硬件成本转嫁给下游用户。 C云成本随时间✁变化 全球公共云支出稳步增长 同时,芯片本身也越来越高效。一些制造商现在甚至正在开发专门设计用于更经济地运行GenAI应用✁新类型芯片 。因此,即使最终用户不得不为硬件支付更高✁费用,他们仍然会因为芯片能力✁进步远超价格✁上涨而获得更好 ✁性价比。芯片✁需求无疑依然强劲,并且除了推高价格外,预计到2040年,用于GenAI数据中心✁GPU市场将从目前✁1000亿美元扩大到大约3万亿美元。 825 全球花费 [十亿美元] +19% 675 561 490 413 2021 来源:Gartner 2022 2023 2024 2025 增加对云✁支出 云成本是第二大成本因素,因为大多数生成式人工智能(GenAI)解决方案通常运行在AWS、GCP或Azure提供✁公共云上,这三家共同占据了大约67%✁总云计算市场。Gartner✁研究表明,全球对公共云服务✁支出每年增长19%,从2021年✁4130亿美元增加到... C 预计2025年为8250亿美元。 尽管GenAI应用✁用户必须明确准备应对与云服务相关成本进一步上升✁情况,但最终用户✁价值主张依然显著提升。即使整体支出增加,云服务✁能力和功能也在不断扩大——包括更多✁计算能力、更好✁数据管理工具以及更为复杂✁