海外企业应用生成式AI意愿强烈,2024年AI预算预计大幅增加。OpenAI的首席运营官Brad Lightcap预测2024年是AI的应用之年,目前已有超过60万人注册使用ChatGPT企业版,而1月份只有大约15万人。埃森哲2024财年Q2收到生成式AI咨询的新订单金额超过6亿美元,也展现出B端对AI强烈的应用意愿。知名投资机构a16z的调查显示,2023年企业在基础模型API、自托管和微调模型方面的平均支出为700万美元,预计总支出将在2024年超过50亿美元,同时许多企业正在将AI支出分配给经常性的软件项目而不是一次性预算。 云服务与企业AI采购紧密挂钩,首选模型与云服务提供商密切相关。据a16z调查,大多数企业选择通过API方式访问AI模型,少部分采用自托管方式运行模型。企业倾向于通过现有云服务提供商购买模型,云服务提供商与企业首选模型之间存在高度相关性,如Azure用户更倾向于选择OpenAI,亚马逊用户则更偏好Anthropic或Cohere。在使用API访问模型的企业中,超过一半使用其云服务提供商托管的模型。海外科技大厂微软、亚马逊以及IBM的近期财报也都反映了AI与云服务的协同效应。 企业内部开源/闭源多模型并行运用,数据安全、定制化考虑驱动开源模型应用。当前丰富的商业闭源和开源大模型生态为企业提供了很大的灵活性,大部分企业开始转向同时测试和使用多个模型,做到紧跟模型能力排行的变化和减少对单一供应商的依赖。OpenAI在企业生产环境中占主导地位,同时开源模型生态也正在蓬勃发展,60%的企业AI领导者表示,如果开源模型性能匹配,他们愿意增加使用或转向开源。企业选择开源模型主要考虑到可控性和定制化能力,同时企业更关注模型在内部基准上的能力,微调的开源模型可以性能接近闭源模型同时成本更低。 企业对AI内部使用降本增效感到兴奋,对外部用例仍然较为谨慎。企业在应用AI时仍存在两大顾虑:1.大模型的幻觉和安全问题。2.部署AI可能带来的公关问题,尤其在敏感的消费行业(如医疗保健和金融服务)。企业将文本摘要和知识管理等纯内部场景推向生产环境的速度远高于合同审查等涉及人工审核的敏感场景,或外部聊天机器人和推荐算法等面向客户的场景。当前最受企业欢迎的AI应用场景要么集中在内部生产力,要么经人工审核才能面向客户。如Salesforce将AI和CRM服务结合,SAP将AI应用于供应链管理等领域,C3.AI、Palantir和大数据公司Databrick将AI用于数据分析和各行业流程优化等。我们认为,随着大模型能力提升,未来AI将在B端进一步渗透,为企业发展注入新的动能。 建议关注:算力侧:中科曙光、浪潮信息、海光信息、利通电子、高新发展、中际旭创、新易盛、工业富联、朗科科技、云赛智联、寒武纪、万马科技、神州数码、浙文互联、软通动力、恒为科技、润建股份、拓维信息、烽火通信等。 AI相关:金山办公、大华股份、中广天泽、福昕软件、海康威视、昆仑万维、拓尔思、科大讯飞、万兴科技、润达医疗、开普云、漫步者、紫天科技。 风险提示:AI技术迭代不及预期风险;经济下行超预期风险;行业竞争加剧风险。 海外企业应用生成式AI意愿强烈,2024年AI预算预计大幅增加 以大语言模型为代表的生成式AI的发展和应用已经成为推动企业创新和增长的关键因素,特别是在海外市场,众多企业对于采用生成式AI技术展现出了浓厚的兴趣和强烈的意愿。 2024年4月5日,据财联社报道OpenAI的首席运营官Brad Lightcap在接受彭博社采访时预测:2024年是AI的应用之年,已经看到了巨大的势头。Lightcap透露,尽管OpenAI面临着来自Anthropic、Cohere以及其最大投资者微软的竞争,这些公司都在争取企业客户,但ChatGPT企业版的需求正在急剧增长。目前已有超过60万人注册使用ChatGPT企业版,而今年1月份的注册用户数量仅大约为15万人。 2024年3月21日,埃森哲2024财年Q2报告中指出,公司收到生成式AI相关的企业IT咨询订单量巨大,本季度生成式AI的新订单金额超过6亿美元,财年上半年的新订单金额达11亿美元。 根据知名投资机构a16z在2024年3月发布的市场分析报告,在其2023年采访的数十家公司中,基础模型API、自托管和微调模型的平均支出为700万美元。被采访的几乎每家企业都看到了生成式AI应用的早期成果,并计划在2024年将支出增加2倍到5倍,以支持将更多工作负载部署到生产环境。这一预算的大幅增加,无疑将为AI技术的研发和应用带来更多的资金支持和资源投入,从而推动AI技术更快的发展和更广泛的应用。 到2024年底,模型的API调用和微调的总支出将增长到50亿美元以上,而企业支出将构成这一机会的重要组成部分。a16z估计模型API(包括微调)市场在2023年底的收入约为15-20亿美元,包括通过Azure在OpenAI模型上的支出。鉴于整体市场的预期增长和企业的具体迹象,到年底,仅这一领域的支出就将增长到至少50亿美元,市场规模庞大且快速增长。 同时值得关注的变化是,2023年企业对生成式AI的大部分支出来自“创新”预算和其他典型的一次性资金池。然而在2024年许多企业正在将这笔支出重新分配给经常性的软件项目,只有不到四分之一的受访者表示今年的AI支出将来自创新预算。a16z也开始看到一些领导者将他们的生成式AI预算用于节省员工人数,尤其是在客户服务领域。 如果这种趋势继续下去,这预示着未来在AI上的支出将大幅增加。 图表1:企业生成式AI预算的来源分布 对于企业而言如何衡量AI的投资回报率也尤为重要。目前,企业主要通过提高人工智能产生的生产力来衡量投资回报率。虽然企业依靠NPS(净推荐值)和客户满意度作为良好的替代指标,但他们也在寻找更切实的方法来衡量回报,例如创收、节省、效率和准确性提高,取决于具体用例。在未来2到3年内,投资回报率将变得越来越重要。 图表2:企业如何衡量在大语言模型支出上的投资回报率(ROI) 我们认为,根据海外企业情况,当前我们正处于企业广泛应用AI的转折点,企业对于AI的强烈应用意愿和预算的大幅增加,预示着AI技术在全球范围内的应用将会更加广泛和深入,同时将也为企业自身的发展和AI技术的持续进步带来积极的影响。 云服务与企业AI采购紧密挂钩,首选模型与云服务提供商密切相关 据a16z报道,其采访的大部分企业在通过API的方式访问AI模型,占比72%,少部分通过自托管的方式运行模型,占比28%,主要是出于对开源模型部署的需求。 许多企业通过其现有的云服务提供商购买了模型,这有利于避免冗长的采购流程,因此企业的云服务提供商和首选模型之间的相关性相当高:Azure用户通常更喜欢OpenAI,而亚马逊用户更喜欢Anthropic或Cohere。在使用API访问模型的72%的企业中,超过一半的企业使用其云服务提供商托管的模型。 同时,近期海外科技大厂的云服务业务增长情况也充分展示了AI与云计算共振的现象: 1)2024年1月30日,微软公布最新2024财年Q2财报,微软的智能云业务营收同比增长20%,达到了259亿美元,其中Azure和其他云业务的营收同比增长30%。微软董事长兼CEO纳德拉表示:“公司已经从谈论AI转向了规模化应用AI。通过将AI技术渗透到技术堆栈的每一层面,微软正在赢得新客户,并帮助推动每个行业的新利益和生产力的提高。”。 2)2024年2月1日,亚马逊公布2023年Q4财报,AWS部门四季度销售额同比增长13%,达到242亿美元。”亚马逊首席执行官安迪·贾西表示:“AWS对客户和功能交付的持续长期关注,加上Bedrock、Q和Trainium等新的生成式AI功能,引起了客户的共鸣,并开始反映在我们的整体业绩中”。 3)IBM的2023年财报指出:围绕当今时代最具变革性的两项技术:混合云和人工智能,IBM完善了其产品组合,扩大了我们的合作伙伴生态系统,并提高了整个IBM的生产力。 IBM的客户正在使用watsonx(IBM的旗舰人工智能和数据平台)用于客户服务、实现无数代码行的现代化,并自动化企业任务以提高员工的工作效率。新watsonx平台的需求不断增长,watsonx和生成式人工智能的业务从第三季度到第四季度大约翻了一番。 我们认为,海外众多科技大厂通过将云服务与大模型应用相结合,在提升自身云服务的竞争力的同时,也降低了企业部署模型的门槛,进一步推动AI技术在更多行业的创新应用,为全球企业的发展转型带来新的活力。 企业内部开源/闭源多模型并行运用,数据安全、定制化考虑驱动开源模型应用 如今,无论是商业闭源大模型还是开源大模型都相当丰富,主要的科技大厂和初创公司都在加速推出自己的大模型产品,同时开源社区中也涌现出多种规模和能力各异的开源大模型选择。这给企业带来了前所未有的灵活性,让他们可以根据具体需求组合使用不同模型,获取最佳的性能和性价比,而不会过度依赖任何单一供应商。与此同时,模型生态系统的快速发展周期也迫使企业紧跟最新进展,灵活调整组合策略,从而确保始终利用行业最先进的模型能力。据a16z在2024年3月的报道,在6个多月前绝大多数企业都在试验1个模型(通常是OpenAI的模型)或最多2个模型,但目前企业偏向于同时测试甚至在生产中使用多个模型。 图表3:企业使用的模型提供商数量和占比(包括测试和生产环境) 据a16z调查数据,在企业的生产环境应用中,目前OpenAI的大模型使用率仍然占据主导地位。 图表4:企业使用的主要模型提供商 开源模型生态正在蓬勃发展。a16z估计2023年的市场份额为80%–90%的闭源,其中大部分份额归OpenAI所有,但同时其采访的60%的企业中的AI leader指出,当微调的开源模型的性能大致匹配时,他们有兴趣增加开源的使用或切换。从2024年开始,企业的模型使用预计将向开源模型倾斜,一些企业明确的目标是闭源和开源各50%的比例,高于2023年的80%闭源/20%开源的比例。 a16z指出企业选择开源模型的主要原因包括可控性(专有数据的安全性和理解模型产生某些输出的原因)和定制化(针对给定用例进行有效微调的能力),成本并不是首要考虑因素,这反映了当前企业领导的观念,即生成式人工智能创造的超额收益可能会远远超过其价格。同时出于监管或数据安全方面的考虑,企业不愿意与闭源模型提供商共享其专有数据,那些知识产权是其商业模式核心的公司尤其保守,虽然一些企业通过自己托管开源模型来解决这个问题,但其他人指出他们正在优先考虑具有虚拟私有云(VPC)集成的模型。同时大多数企业认为模型性能正在趋同。虽然大部分技术社区专注于在公共基准上比较不同模型的性能,但企业通常更专注于将微调的开源模型和微调的闭源模型的性能在他们自己的内部基准上进行比较。尽管闭源模型通常在外部基准测试中表现更好,但开源模型往往更容易根据特定用例进行微调。比如一家公司发现,经过微调,Mistral和Llama的性能几乎与OpenAI一样好,但成本要低得多。因此开源模型和闭源模型的性能差距在缩小,这为企业提供了更广泛的选择。 大多数企业在设计应用程序时,都会考虑设计成仅需更换API即可轻松切换模型。企业采取这种做法,一方面是企业从云时代吸取了减少对供应商依赖性的教训,另一方面是市场发展如此迅速,坚持使用单一供应商显得不太明智。 我们认为,随着模型生态的不断繁荣和技术的日益成熟,企业在AI领域的选择变得更加多样化和灵活,AI技术也已成为企业竞争力的关键。通过明智地选择和利用开源和闭源模型,企业将能够更好地把握发展机遇。 企业对AI内部使用降本增效感到兴奋,对外部用例仍较为谨慎 据a16z报道,企业对AI的内部用例感到兴奋,但对外部用例仍然更加谨慎。原因在于企业对生成式AI仍存在两大主要顾虑: 1)大模型的幻觉和安全问题。 2)部署AI可能带来的公关问题,尤其是在敏感的消费行业(如医疗保健和金融服务)。 a16z指出