您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[量子位]:类脑计算深度产业报告 - 发现报告
当前位置:首页/行业研究/报告详情/

类脑计算深度产业报告

信息技术2022-10-28-量子位阁***
类脑计算深度产业报告

类BCoramin脑p-uintsinp计gired算Com/pu神ting经/Neu形rom态orph计ic算 Q深bi度tai产Ind业ust报ryI告nsightsReport 1 引言 近年来深度神经网络(DNN)取得了令人瞩目的进步,但与人脑相比,DNN在信息处理的效率(速度和功耗)上表现仍不够好。在人脑中,信息以连续的方式快速处理,而DNN系统中所处理的是一幅幅静态图像,而且计算密集。 在传统DNN中,计算、存取数据时的“内存墙”问题,导致大量数据搬运中产生额外功耗以及延迟。此外,精确计算也是DNN的另一特征——即便是无价值的输入,也会全部参与计算,导致计算资源浪费且计算效率低。 相反,人脑中神经元以脉冲的形式进行信息传递。每当神经元发出脉冲信号时(被激活),脉冲信号会传输到所连接的神经元进行处理。若未能达到触发阈值,神经元则处于非激活状态,并且存储对过去输入的记忆,因此人脑采用的是一种稀疏的、空时域信息处理机制。 人脑作为一个极度优化的系统,在高并行工作时功耗仅为20W左右——大脑中约870亿个神经元高度非线性地工作,每个神经元在外部和内部都与其他神经元有多达10,000个连接,在内部承载着数十万个协调的并行过程。这样庞大的网络却有如此低的能耗,使得人类大脑在处理复杂问题时具有绝对优势。 如今,人工智能的发展主要依靠庞大的数据量和精确计算。在冯诺依曼架构下,庞大的数据量意味着计算机承担着频繁且大规模的运算,随之而来的就是功耗极速上升。随着各国碳中和脚步加快,高能耗甚至需要企业付出额外成本。尽管我国没有明确碳排放超标的惩罚措施,但庞大计算量产生的用电成本、维护成本就不是一般人工智能企业可以支付起的。因此,人工智能的“可持续发展”一定是建立在功耗成本可控的基础上。 如何将计算机的功耗控制在合理范围内呢?借鉴人脑特性自然成为研究人员共同关注的方向。 相比于当前最先进的系统,模仿大脑运行机制的硬件系统具有高效和低功耗特点。模仿大脑行为的神经网络被称为神经形态网络,其代表为脉冲神经网络(SNN),也是目前类脑研究的核心。这种被称为“第三代神经网络”的出现,可以弥合神经科学与机器学习之间的鸿沟,使用神经元模型进行信息编码和计算,借鉴生物脑稀疏的、空时域信息处理机制,充分发挥神经网络的效率。 模仿大脑神经结构和工作原理而创新出来的神经形态计算被称为类脑计算。欧洲的HBP(人脑计划)曾指出,“未来10-20年内,谁要引领世界经济,谁就必须在这个领域领先”。 目录 技术篇 04概述 05脉冲神经网络 06技术生态 10研究进展 12技术难点 价值篇 14直接价值 16间接价值 产业篇 17行业现状 19玩家分析 23潜在商业化路径 25行业关键驱动因素 技术篇 概述 人工智能的发展途径 当前,人工智能的发展有两个主要路径,一个是沿计算机科学发展而来的深度学习途径,另一个是沿着模仿人脑发展而来的类脑计算途径。 •深度学习途径 这个方向的发展主要通过FPGA或ASIC方式设计芯片模块,或采用分布式存储的整体架构来提高计算的能效比和速度。 架构设计主要以高效支持当前的深度学习为优化目标,通过大规模的并行计算提升计算密度,从而获得性能提升。典型代表包括谷歌的TPU、Graphcore的IPU、阿里的含光800等。 这类芯片通常面向特定领域的专门应用,需要大量的数据训练神经网络,其较长的设计迭代周期也增加了芯片的开发应用成本。 •类脑计算途径 这个方向是以模拟人脑神经网络计算为基础而发展出的一种新型芯片,通过模拟神经元和突触的典型特征,如存算一体、脉冲编码、异步计算、动力学模型等特点,希望通过这些模拟从而达到更高的智能水平。典型代表包括IBMTrueNorth、IntelLoihi和基于ARM架构发展而来的SpiNNaker。 定义 总体来说,类脑计算可分为狭义和广义两类: 狭义的类脑计算是模仿大脑神经结构和工作原理而创新出来的神经形态计算(如SNN芯片设计)、SNN类脑模型、脑仿真、STDP学习方法和类脑智能应用,学术界称其为Brain-likeComputing(也称做NeuromorphicComputing)。 广义的类脑计算是借鉴脑的结构和工作原理,但又不局限对脑的模拟(SNN),还包括融合传统的人工神经网络(ANN)等具有更多类脑特征的异构神经网络,是一种融合当前计算机科学和神经科学的计算发展途径,学术界称其为Brain-inspiredComputing。 •人脑特性 结构:人脑由大量神经元通过突触连接在一起,每个神经元通过接受发送脉冲、建立新的突触,从而构建起一个庞大的计算网络。 工作机制:生物神经元主要由树突、轴突和胞体组成。树突负责收集其他神经元传来的信息并通过电流的形式将其传给胞体,胞体相当于一个中央处理器,树突传来的电流引起胞体膜电位变化,当膜电位超过一定阈值时,神经元将发出一个脉冲信号,通过轴突传给其他神经元。只有当膜电位达到放电阈值才会激发神经脉冲传递信息,大部分的神经元在活动周期中都处于静息状态,从而实现大脑的超低功耗高效运转。 •类脑计算如何模仿大脑的计算机制 与传统冯诺依曼架构下的计算机相比,人脑无法高效地进行精确的数值计算,但人脑的优势在于智能和高效。例如,自动忽略非必要信息,从而减少能耗;在处理信息的同时能够对其进行加工、理解、抽象和归纳。此类功能在识别物体,对视频、音频数据的理解等场景中均有体现。 类脑计算就是以人脑为蓝本,实现新一代计算体系结构,主要思路是以事件触发(Event-driven)为运算机制,基于脉冲神经网络来仿真人脑,从而构造新型计算系统。 脉冲神经网络(SNN) 脉冲神经网络是受生物启发的新一代人工神经网络,以脑科学为导向,沿着脑模拟方向发展,以0/1脉冲序列表达信息流,编码里包含了时间信息;另外,神经元内部具有动力学特征,具有事件驱动、稀疏发放等特点。 主要特征 •时序性(与ANN最大的区别) 通过脉冲编码将输入信息转换成脉冲序列信号,并在信息传递过程中维持脉冲之间的时间关系。因此,神经元具有微观的记忆特性。 •事件驱动(事件驱动是实现稀疏计算的根本基础) SNN中的神经元不会在每个信息传递的周期都被激活,只有当神经元膜电压积累到特定的电压阈值时才会放电(发放脉冲)。神经元激活后,会发放一个脉冲信号传递给其他神经元,其他神经元会根据这个脉冲信号增加或减少膜电压。 关键要素 任何脉冲神经元的设计都要考虑三个问题:神经元模型,更新连接权值的机制和神经元互联结构。 •大脑中神经元模型与网络结构在人出生之时已基本形成,且在人的成长过程中几乎不会发生大的变化。变化主要体现在成长过程中与外界环境不断交互,获取新知识并与已有知识建立联系,从而提升问题解决和环境自适应能力。 •基于脉冲神经网络的仿脑特性,其学习规则的构建处于次要位置,而对学习机制的模仿是脉冲神经网络发展和应用的关键。 •如何找到一个兼具生物合理性和计算效率的脉冲神经元模型,以及如何建立脉冲神经元模型与AI任务之间的关系,是类脑计算领域的核心问题。 目前学术界和产业界对于类脑计算的探索及前沿应用主要围绕SNN及其扩展的神经网络展开,因此我们将关注聚焦在SNN上。 ANNvs.SNN 近10年内,深度学习在图像识别、自然语言处理、语音识别和专家系统等方面取得可以匹敌人脑、甚至超越人脑的成果。但另一方面,当前的深度学习也面临诸多挑战,如需要充足的数据、完整的知识、确定的静态问题、容错性比较差等。而脉冲神经网络通过融合受生物启发的、高效的神经信息处理机制,有望实现更稳定鲁棒的信息表征、更高效节能的生物可塑性网络。 深度学习网络模型和脉冲神经网络模型能够彼此形成互补。深度学习模型的计算准确率高,研究生态较完善;脉冲神经网络的鲁棒性较好,计算能效比较优。但脉冲神经网络处于刚起步阶段,算法模型还不成熟。 ANN SNN 信息流 神经元状态(连续状态值) 脉冲序列(01脉冲序列) 计算方式 逐层、精确计算 稀疏计算,事件驱动,时序性 ANN SNN 特点 •大量手工标记的输入数据•静态数据处理•不具备可解释性 •持续学习•动态数据处理•具备生物可解释性 适用场景 •语音识别•图像识别 …… •交互式机器人•各类对于低功耗和实时性有需求的AIoT场景•高速动态视觉场景…… 优势 •可模拟复杂模型,完成大规模运算•准确率高 •生物合理性强•能耗极低•具备自主学习能力•成本低 不足 •高能耗、高成本•训练效率低,数据依赖•仅适用单一场景 •计算复杂度高•目前能够模拟的神经元数量有限,目前仅适用小规模计算场景 技术生态 技术生态概述 类脑计算的技术生态由软件和硬件两部分构成。其中软件主要包括:神经元模型、训练算法、仿真框架、数据集。硬件主要包括类脑芯片和新型存储器件和类脑系统。 •在软件方面,如何提升围绕SNN的生态是未来发展的必经之路,重要的方向包括完整且易操作的工具链开发、成熟的SNN训练算法、高效的时空域编码、及高规模的神经系统仿真和模拟等。 •硬件方面侧重于建立脑仿真平台,参照人脑神经元模型及其组织结构、神经突触特性来设计芯片。 软件 •神经元模型 脉冲神经网络是类脑计算的核心,对其结构基础、功能优化等方面的探索,有助于科研人员更好地认识大脑、理解生物智能的本质并以此构建新一代人工智能模型。 脉冲神经网络模型最大的特点是:以具有精确放电时间和事件驱动特性的脉冲作为信息计算的载体。以下是在业内影响较大的模型: 神经元模型 原理 定位/特点 H-H(Hodgkin-Huxley)模型 通过研究乌贼神经元细胞膜上的离子电流和电导,用等效电路模拟神经元的形成和膜电压的变化 •目前最接近生物神经元的模型•模型复杂,难以在硬件上实现对网络的实时仿真•计算成本高昂 LIF模型 从生物电子学的角度对生物神经元进行模拟,使用电子转移模拟生物神经系统中的离子转移 目前使用最广泛的神经元模型之一 Izhikevich模型 使用二阶微分方程描述细胞膜的动态特性,在受到刺激后,膜电位由静息电位转变到激发脉冲状态,通过分岔机制使神经元产生兴奋 •目前最简单的模型,且兼具H-H模型的生物真实性与LIF模型的计算效率•能够仿真生物神经元最突出的20种脉冲发放模式 SRM模型 实质是对LIF模型的泛化,该模型也是根据神经元电压阈值来判断是否产生脉冲。不同的是LIF模型中的参数依赖于电压,SRM模型中的参数依赖于上一次输出脉冲的时间 •包含对于不应期的模拟•更具通用性 注:不应期是指在兴奋发生后的最初一段时间内,不论施加多强的刺激也不能使细胞再次兴奋。 •训练算法 类脑计算的算法核心是借鉴和学习人脑的多尺度、多类型的可塑性及神经网络结构,来完善人工智能算法。 当前脉冲神经网络领域尚不存在公认的核心训练算法。在生物合理性及任务表现之间的权衡,以及采用不同的神经元模型和编码方式,均会造成训练算法多样化。 现阶段瓶颈:脉冲神经网络所具有的离散脉冲发放机制所带来的的优势是低功耗和低延迟;然而正是由于离散的发放机制导致其无法满足连续可微的条件,也因此使得传统的神经网络训练方法无法直接用到脉冲神经网络中。 解决途径: 1.基于直接训练的脉冲神经网络构建方法; 2.基于传统的人工神经网络训练和转换的脉冲神经网络构建方法(间接学习); 3.其它方案:串联学习、以及最新的代理训练。 依据训练过程中是否使用标签信息,可将脉冲神经网络算法概括地划分为有监督学习和无监督学习,有监督学习又分为间接有监督学习和直接有监督学习。在模型算法提升上,研究人员通过提供增加神经元复杂程度的技术能力,缩减神经科学与人工智能之间的鸿沟。 脉冲神经网络学习算法 描述 特征 无监督STDP算法 STDP学习规则根据神经元发放脉冲的先后顺序,调整神经元之间连接的强弱 •通过局部调整规则学习,容易在神经形态芯片上进行分布式实现,并具备在线