您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[abiresearch]:为明天的 AI 准备基础 - 发现报告
当前位置:首页/行业研究/报告详情/

为明天的 AI 准备基础

信息技术2023-01-31abiresearch惊***
AI智能总结
查看更多
为明天的 AI 准备基础

每个人工智能投资都必须是 前瞻性业务DECISION1 AI2 环境3 AI4 OFTOMORROW4 投资7 未来预测的特征 AI基础设施8 基础设施11 愿景13 LAYER14 兼容性14 关键损失和建议 对于最终用户15 OUTCOMES15 买入16 每个人工智能投资都必须是前瞻性的商业决策 2020年代将成为人工智能(AI)的十年。通过适当的投资,该技术有望在各种信息技术(IT )和运营技术(OT)用例中广泛部署。普华永道的全球AI研究:利用AI革命估计,到2030 年,AI将为全球经济贡献15.7万亿美元。 毫不奇怪,主要AI参与者进行的多项AI采用研究表明,许多企业已经大幅增加了AI预算 与前几年相比。但是,大多数投资决策都是由AI的广泛承诺驱动的,而没有关注具有遗留足迹的大型组织中的具体实施障碍。因此,许多企业冒着创建孤立,松散集成和专有系统的风险。 本白皮书旨在揭示人工智能的不同方面及其各自的计算需求,表明人工智能投资必须基于长期的业务成果和价值。 为 明天的AI LianyeSu,研究总监MalikSaadi ,战略技术副总裁 CONTENTS 受英特尔公司委托。 Takeaway3:Focusonsolutionprovidersandchipsetsuppliersthatembraceopenness,freedomofchoice,trust,和安全16 Takeaway4:杠杆支持来自生态系统合作伙伴16 案例研究:英特尔17 多模态是AI的未来 在深入研究基础架构要求之前,有必要对当今的AI进行概述。正如今天所实现的那样,AI通常集中在四个主要应用程序上,如图1所示。 图1:当今AI的主要类别 语言 所有自然语言处理(NLP)任务,如机器翻译、情感分析、语 音增强、语音合成和唤醒词检测。 愿景 用于访问控制的面部识别,光学字符识别(OCR),存在检 测,计算摄影中的主题和景观检测以及公共安全和交通优化中的视频识别。 表格 来自各种传感器的信息,包括压力、温度、振动、旋转、 加速度、力和声学,用于监测机器状态、预测设备性能和跟踪重要资产。 图 通过特定关系相互连接的数据,例如社交网络图,或者是过 程中的顺序和演示特定模式,例如电子商务消费或在线搜索数据。 多模式AI 用于推荐系统,会话AI等的两个或三个数据源的组合。 (来源:ABIResearch) 人工智能应用程序,如机器人过程自动化(RPA)和光学字符识别(OCR),已经在自动化平凡和重复的工作流程,帮助员工在当前任务中表现更好,并帮助企业遵守法律要求。但是,这些应用程序中的AI模型专注于使用上述四种数据类型之一的高度结构化的工作负载:语言,视觉,表格或图形。因此,未来AI模型的很大一部分将更加通用,利用四种数据类型中的大多数(如果不是全部)。 这些AI模型是为各种任务而设计的。他们可以依靠来自各种数据源,记录和档案以及个人明确同意的个人信息的培训来改善学习,决策和经验。然而,在这一愿景成为现实之前,行业需要开发更强大的多模式学习模型来实时处理各种数据。这些模型还需要得到高性能异构计算架构的支持,以实现广泛的任务和功能,从消耗大量处理资源的数据收集和结构化到实时推理和其他需要超低延迟和高精度的关键任务。 人工智能实施环境的多样性 AI技术供应商和开发人员也在利用新的AI技术和边缘计算技术,在从云到边缘的所有设备上部署AI。一方面,云服务提供商(CSP)正在利用可扩展和超大规模的数据中心来开发和部署高性能的视觉,语言和图形模型,这些模型的大小不断增加。另一方面,企业正在寻找嵌入在设备和网关中的AI模型,以改善延迟,保护隐私并减少对云基础设施的依赖。 微型机器学习(TiyML)通过在传感器和电池供电设备中引入超低功耗AI推理来进一步推动边界。神经架构搜索(NAS)等软件功能以及知识蒸馏,修剪和量化等新模型压缩技术将使AI开发人员和实施者能够为其目标环境创建最优化的模型。 所有这些进步意味着AI模型将出现在计算连续体的每个节点中,从超大规模数据中心到区域数据中心,本地服务器,边缘计算网关,设备和传感器。所有这些位置都使企业能够在计算能力,延迟,连接和监管方面将AI部署在最佳位置。此外,下一代电信技术的到来,如5G和。 Wi-Fi6还允许传输大量数据以进行训练和推理。虽然目前并非每个地方都有这样的基础设施,但随着云人工智能巨头 、电信服务提供商、工业公司和边缘计算公司在未来几年继续建设相关基础设施,这种现实将会改变。因此,AI开发人员将广泛引入基于新技术,异构硬件和低延迟连接的AI模型。 图2:边缘到云计算连续体 (来源:ABIResearch) 传感器 超大规模数据 中心 区域数据中 心 国家/地铁数据中 心 无线接入网 (RAN) 本地服务器 网关 设备和 大规模数据中 区域数据中心, 国家或城市级 使网络运营商能够 位于客户所在地 连接到多个设备 具有互联网连接和 心,可在集中 包括hyperscaler 数据中心,包括 将客户资产连接到 的服务器 并执行 链接到公共和/或私 位置支持所有 骨干网 hyperscaler 网络的设备。还托 支持所有业 设备管理和配置。 有数据中心。 类型的工作负 并将服务扩展 骨干和服务 管多访问边缘计算 务 载。 到企业中。 扩展到企业中。 服务器。 工作负载。 云中心 边缘中心 隐私和安全增强的AI 除了经典的AI和一些机器学习(ML)模型外,当今的大多数深度学习(DL)模型都是缺乏透明度的黑匣子。AI开发人员并不完全了解DL模型中所有单个神经元、层和参数,它们共同产生最终输出。所有这些组件的作用及其相互影响在很大程度上仍然无法解释。 展望未来,AI开发人员将使AI模型更加透明。在大多数情况下,数据和AI开发平台将被设计为向用户解释培训和 测试数据,所有AI训练和推理过程背后的逻辑,以及潜在的偏差,漂移和其他差距。在某些情况下,AI模型可能被设计为向最终用户解释自己。透明度和可解释性将使AI模型能够在高风险环境中使用,因为它们可以承受审查和评估。 此外,AI开发人员可以通过限制数据传输到云并在边缘部署AI模型来增强AI系统的安全性。通过在边缘保存和处理原始数据,最终用户无需担心他们的数据被恶意行为者劫持。同时,担心将个人可识别信息(PII)存储在云中的消费者将不再需要担心,因为此类数据将在边缘设备和本地服务器中进行处理。 为明天的AI做准备 当我们将今天的AI状态与明天的AI愿景进行比较时,会出现一些明显的特征,如图4所示。 图3:AI演进和技术挑战和要求 AI的今天明天的AI和要求 (来源:ABIResearch) 技术挑战 专业和孤立 无论是小还是大 边缘云或边缘 黑色盒子 多任务和完整一体化 NAS、模型压缩和AutoML解决方案的持续改进 具有强大AI芯片组的多模态学习模型,可实现实时推理 大小多样and 资源 设备 受益于计算节点日益多样化和高数据带宽的联合学习模型 边缘到云连续体 数据和AI开发平台,可以解释预测,可视化行为并解决偏见 透明和可解释 为了真正实现未来的人工智能,企业显然需要继续投资于正确的人工智能基础设施和方法。 新的学习技术 AI的发展将受到新AI技术的出现的影响,例如联合学习,多模式学习,图形DL,强化学习和元学习。这些AI技术使用完全分布式,高度定制的计算环境来学习和处理多个任务。解释上下文信息,理解不同因素之间的联系以及从其他AI模型中工作和学习的能力为AI改变企业运营方式创造了巨大的机会。他们将准备好处理比人类员工所能处理的更复杂的任务。 Table1:AI的主要趋势及其商业影响 (来源:ABIResearch) 新的AI技术 Descriptions 强度 技术平台要求 联合学习 联合学习是一种分布式机器学习方法,其中多个用户 联合学习为边缘设备提供高质量的ML模型,而无需集中数据。 稳定且无处不在的连接骨干, 协作训练模型,而无需将数据移动到单个服务器或数 该技术部署在各种环境中,包括智能手机、医疗保健和金融,允 AI计算发生在 据中心。相反,每个计算节点将执行相同的模型,在 许访问来自不同用户、机构或数据库的数据集,同时帮助遵守所 本地和云环境。云和不同边缘节点之 本地数据上训练这样的模型,从而在每个节点中计算 需的隐私和保密法律。 间频繁的数据交换和同步,以确保模 并存储模型的本地版本。 型是最新的。 多式联运 多模态学习可以同时处理 基于多模态学习的AI可以模仿人类 可以摄取的数据库 学习 各种数据类型(图像、文本、语音、数字 通过摄取不同的数据源进行决策。作为 各种数据源和AI 数据)使用多种算法。多模态AI 结果,它在许多方面通常优于单模态AI 处理不同的模型 可以一起解释这样的多模态信号 现实世界的问题,如客户服务,客户 数据模态和执行 并根据上下文做出决策 参与和病人护理。 实时推理。 理解。 钢筋 强化学习是一种ML训练方法 强化学习已被广泛采用 强大的AI计算平台 学习 在制作时奖励学习代理 模拟训练和再训练自主行为 在云中精确 期望的行为和惩罚它时 交通管理用车辆和机器人,材料 和逼真的渲染 不想要的。通常,钢筋 处理、路线优化和空间管理。 真实世界的环境。 学习代理可以感知和解释 除了物理系统,软件也可以 或者,一个高度优化的, 它的环境,采取行动,并学习 使用强化学习对数据驱动进行训练 无监督自学习 刺激、活动和 产品或流程优化,如供应链 终端设备中的模型。 通过试验和错误,其行动的结果。 优化、原型设计和生成设计。 GraphNeural GNN是DL神经网络,旨在执行网络(GNN)对存 GNN非常适合分析涉及众多因素的特定问题。例如,信用卡 硬件和软件针对GNN进行了优化 储在图数据库中的数据进行推理。图 客户的信用风险需要了解当前的信用评分、信用历史、就业 ,因为GNN需要更长的时间来训 数据库连接特定的数据点(节点)并以图形的形式创建 、收入和其他社会经济因素。其他用例包括推荐系统、分子 练。 关系(边),然后用户可以通过查询来提取这些关系。 细胞结构研究、阅读理解和社会影响预测。 AI可以理解每个数据点之间的相互依赖性并提供相关的预测。 元学习 元学习是指从其他AI算法的输出中学习的ML算法。这 元学习仍处于萌芽状态,因此很难预测该技术的影响力和影响 超高性能硬件和软件,因为 些模型可以通过自适应过程跨一系列相关预测任务进行 力。尽管如此,如果当前的预测 元学习是最先进的 学习, 是准确的,元学习模型可以快速学习,需要更少的培训时间和更 ML技术,如强化学习和迁移学习 允许他们加快学习过程,同时学习多个功能。 少的资源来设计和开发。这将节省大量的时间并加快上市时间。 。 更重要的是,它们允许企业根据业务需求进行扩展和扩展,而无需扩展和培训员工队伍。其中一些技术,如联合学习和强化学习,已经被云AI巨头和大型公司采用,用于在大规模推荐系统、欺诈检测和虚拟辅助中设计先进的AI模型。另一方面,元学习和GNN正在慢慢成熟,并出现在一些有趣的用例中,比如药物设计、机器人训练和疾病诊断。 优化的AI基础架构 近年来,人工智能技术提供商通过积极推出创新产品和服务,逐步降低了进入壁垒。图形处理单元(GPU)和专用集成电路(ASIC)正在被用于AI训练和推理。如今,越来越多的通用中央处理单元(CPU)可以支持AI推理和训练。预训练语言模型的引入使开发人员可以构建复杂的应用程序,例如语音识别和机器翻译,而无需从头开始训练模型。自动机器学习(AtoML)提供了方法、工具和技术,通过自动化AI工作流程,让非AI专家更轻松地进行开发。 毫不奇怪,所有这些进步都导致了对AI芯片组的巨大需求。根据ABIResearch的人工智能和机器学习市场数据(MD-AIML-109),到2022年,全球AI芯片组市场