近日,华为全资子公司哈勃科技投资有限公司最近投资了深思考人工智能机器人科技(北京)有限公司。 深思考人工智能机器人成立于2015年08月17日,是一家专注于类脑人工智能与深度学科技的AI公司。其核心团队由中科院自动化所、软件所、计算所、微电子所等中科院院所、清华大学一线青年AI科学家(博士33名)与领域顶级专家、行业研究专家组成。深思考人工智能机器最为突出的技术是“多模态深度语义理解技术”,可同时理解文本、视觉图像背后的语义,主要面向场景为智慧医疗大健康和智能汽车。 华为的这一举动让大家的目光格外关注类脑芯片。 目前已为大众所熟知的主流AI芯片架构包括:GPU,FPGA,ASIC,而类脑芯片由于其极强的学习能力也被抱以极高的期待。本文将就国内外类脑芯片介绍发展情况。 类脑芯片的由来 类脑芯片作为人工智能芯片中的一种架构,它模拟人脑进行设计,相比于传统芯片,在功耗和学习能力上具有更大优势。类脑芯片的研究就是基于微电子技术和新型神经形态器件的结合,希望突破传统计算架构,实现存储与计算的深度融合,大幅提升计算性能、提高集成度、降低能耗。 “神经形态计算”或者说“类脑芯片”的概念最早可以追溯到20世纪80年代,当时传奇的加州理工学院研究员Carver Mead提出设计集成电路来模仿神经元细胞的组织。 由于神经形态研究的持续深入,针对应用的系统正在进入市场:基于神经形态运算的智能传感器及处理器可以提供不依赖于云的超低功耗、实时传感器信息本地处理,并利用事件驱动运算、“永远在线”的特性满足物联网设备和边缘计算应用对语音、身体信号监测、手势识别、物体检测、位置跟踪等需求。 传统的计算芯片主要基于冯•诺依曼结构。在这种结构中,计算模块和存储模块是分开的。CPU在执行命令时需要先从存储单位读取数据,这就产生延时及大量的功耗浪费。而人脑的神经结构由于其强大的处理能力,动态可塑的性质,较低的能量消耗便成为了模拟对象,类脑芯片就此诞生。 目前几乎所有的人工智能系统都需要进行人工建模,转化为计算问题进行处理再进行深度学习,而人脑却可以自动感知,进行问题分析和求解,决策控制等。因此类脑芯片也有望形成有自主认知的水平,可自动形式化建模。 
追溯类脑芯片的真正落地 追溯类脑芯片的真正落地,还要从TrueNorth说起。TrueNorth 是 IBM 潜心研发近10 年的类脑芯片。美国 DARPA 计划从 2008 年起就开始资助 IBM 公司研制面向智能处理的脉冲神经网络芯片。 2011年8月,IBM公司通过模拟大脑结构,首次研制出两个具有感知认知能力的硅芯片原型,可以像大脑一样具有学习和处理信息的能力。这两颗类脑芯片原型均采用45纳米绝缘体上硅CMOS工艺制作,包含256个神经元和256个轴突(数据传输通道)。其中一个芯片包含65356个学习突触,它能够发现新的神经元连接路径,可通过经验进行学习,并根据响应对神经元连接路径进行重组;而另一个芯片包含262144个可编程突触,可以根据预先设定,通过强化或弱化神经元之间的连接,更迅速、更高效地处理信息。类脑芯片的每个神经元都是交叉连接,具有大规模并行能力。但因技术上的限制,被IBM戏称为“虫脑”。 2014年8月,IBM公司推出名为“TrueNorth”的第二代类脑芯片。它使用了三星的28nm的工艺,包括54亿个晶体管和4096个处理核,相当于100万个可编程神经元,以及2.56亿个可编程突触。其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。 “TrueNorth”的每个处理核包含了约120万个晶体管,其中少量晶体管负责数据处理和调度,而大多数晶体管都用作数据存储、以及与其它核心的通信方面。此外,每个核心都有自己的本地内存,它们还能通过一种特殊的通信模式与其它核心快速沟通,其工作方式非常类似于人脑神经元与突触之间的协同,只不过,化学信号在这里变成了电流脉冲。IBM把这种结构称为“神经突触内核架构”,如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。 16年,IBM又公布了与美国空军研究实验室、美国陆军研究实验室、以及劳伦斯•利物莫国家实验室在TrueNorth芯片应用方面合作的最新成果,包括手指识别、情绪识别、图像分类和对象追踪等。 2017年,英特尔发布了Loihi芯片,它采用了一种新颖的方式通过异步脉冲来计算,同时整合了计算和存储,模仿了大脑根据环境的各种反馈来学习如何操作的运作方式,可以利用数据来学习并做出推断,随着时间的推移也会变得更加的智能,并且不需要以传统方式来进行训练。 Loihi采用的是异构设计,由128个Neuromorphic Core(神经形态的核心)+3个低功耗的英特尔X86核心组成,号称拥有13万个神经元和1.3亿个触突。 与 TrueNorth 和Loihi不同, 高通公司开展研究的是Zeroth “认知计算平台”,曾在业界引起了巨大的震动。原因就在于它可以融入到高通公司量产的 Snapdragon处理器芯片中,以协处理的方式提升系统的认知计算性能,并可实际应用于手机和平板电脑等设备中,支持诸如语音识别、图像识别、场景实时标注等实际应用并且表现卓越。 据《科技日报》报道,在今年的7月16日,底特律举办的美国国防部高级研究计划局(DARPA)电子复兴峰会上,英特尔公司展示了其最新的可模拟800多万个神经元的Pohoiki Beach芯片系统。 该全新神经拟态系统包含多达64颗Loihi芯片,集成了1320亿个晶体管,总面积3840平方毫米,拥有800多万个“神经元”(相当于某些小型啮齿动物的大脑)和80亿个“突触”。英特尔介绍说,该芯片系统在人工智能任务中的执行速度要比传统CPU快一千倍,能效可提高一万倍。 中国十分重视类脑研究 中国也十分重视类脑研究,不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。 中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。 同时,国内也出现了专注类脑芯片研发的初创团队,像西井科技、清华的天机芯、AI-CTX、浙大的达尔文芯片等。 清华大学天机芯 清华大学类脑计算研究中心施路平团队研发的新型人工智能芯片“天机芯(Tianjic)”。这是世界首款异构融合类脑芯片,实现了中国在芯片和人工智能两大领域《自然》论文的零突破。 “天机芯”已研发到第三代。据悉,第三代芯片将是14纳米或者更小,功能比第二代强大很多,有望在明年初完成研发。商业化应用也已经提上日程。 2015年问世的第一代“天机芯”110纳米,只是个小样(DEMO);2017年制成的第二代“天机芯”28纳米,由156个功能核心FCore组成,包含约4万个神经元和1千万个突触。这也是登上本次《自然》封面文章的芯片。与当前世界先进的IBM的TrueNorth芯片相比,二代“天机芯”功能更全、灵活性和扩展性更好,密度提升20%,速度提高至少10倍,带宽提高至少100倍。 浙大的达尔文芯片 日前,脉冲神经网络类脑芯片“达尔文2”以及针对该芯片的工具链、微操作系统日前在杭州发布。该芯片主要面向智慧物联网应用,单芯片支持的神经元规模达15万个,在神经元数目上相当于果蝇的神经元数目,是目前已知单芯片神经元规模居全国前列的脉冲神经网络类脑芯片。 据了解,类脑芯片“达尔文2”由浙江大学牵头研发完成,杭州电子科技大学与华为中央研究院分别参与了芯片研制与算法和应用场景研究工作。“达尔文2”采用55纳米工艺,单芯片由576个内核组成,每个内核支持256个神经元,神经突触超过1000万,通过系统级扩展可构建千万级神经元类脑计算系统。 “达尔文2”是继该研究团队于2015年发布的首款脉冲神经网络芯片“达尔文1”之后,经过4年科研攻关完成。 西井科技DeepSouth芯片 西井科技是国内研究类脑强人工智能的公司,目前西井已推出了自主研发的拥有100亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的5000 万类脑神经元芯片(DeepSouth)两款产品。DeepSouth 是一款可商用化的芯片,它能模拟出高达 5000 万级别的“神经元”,总计有 50 多亿“神经突触”。据西井CEO谭黎敏称,该芯片除了具备“自我学习、自我实时提高”的能力外,还可以直接在芯片上完成计算,不需要通过网络连接后台服务器,可在“无网络”情况下使用。能耗方面,DeepSouth 在同一任务下的功耗仅为传统芯片的几十分之一到几百分之一。 产业化路上的挑战 类脑智能研究已取得了阶段性的进展,但是目前仍然没有任何一个智能系统能够接近人类水平,下一阶段类脑芯片的研究重点是增强神经计算电路模块的通用性,降低设计、制造的难度;此外,还需要迫切解决类脑计算芯片的功耗问题,比如探索超低功耗材料以及计算结构,为进一步提高类脑计算芯片的性能奠定基础。 类脑芯片材料的缺失 目前类脑芯片研制的挑战之一是在硬件层面上模仿人脑中的神经突触,在设计人造突触时通常用施加电压的方式来模拟神经元中的信息传输。但这种技术存在一个难题,由于大多数由非晶材料制成的人造突触中,离子通过的路径有无限种可能,难以预测离子究竟走哪一条路,造成不同神经元电流输出的差异。科学家们研究了基于CMOS和忆阻器实现人工神经网络,但对忆阻器的逻辑完备性、计算复杂度、级联、可重构等性能要求很高,从忆阻器理论出发,神经元模型中的钙离子和钾离子通道由易失性忆阻器构成,对忆阻器的频率依赖严重,满足类脑芯片的单晶硅和忆阻器等材料技术仍有待突破。 对脑的观测和认识不够 类脑芯片的研究在于直接在微芯片上模拟生物神经元和突触的属性,做到这一点面临的主要挑战。类脑芯片的架构是模拟人脑的新型芯片编程架构,这种芯片的功能类似于大脑的神经突触,处理器类似于神经元,而其通讯系统类似于神经纤维,通过这种神经元网络系统,计算机可以感知、记忆和处理大量不同的情况。因为人脑是由140亿个脑细胞组成,每个脑细胞可生长出2万个树枝状的树突用来计算信息,人脑神经细胞功能间每秒可完成信息传递和交换次数达1000亿次。用半导体材料模拟脑细胞和突触的功能来设计芯片,由于人类对于脑的研究远远不够,这样的芯片在性能上远远达不到“人脑”的要求。 类脑芯片的研究门槛高,人才和企业队伍缺失 类脑芯片技术有很多难点,它本身有着很强的技术门槛,据不完全统计,目前从事类脑芯片研究队伍(包括企业和研究机构)不到一百家,整个团队仍不强大,全球研究这门技术人才远远不够撑起整个产业。必须承认的是,类脑芯片是一门涉及电子、人工智能、材料、神经学等多学科的综合技术,对顶层设计人才的全面要求很高,目前行业很缺这样的人才。未来也需要更紧密的产学研结合,培养顶层设计人才。 类脑芯片的工程化难题 因为类脑芯片的脉冲神经网络特性决定了异步电路是脉冲神经网络神经元间大量互联以及通讯的最有效形式,对于某些需要复杂模型的SNN网络,模拟运算以及数模混合电路会是最优的解决方案。当前类脑芯片在走向应用的过程中面临着工程化的难题。对于不同的应用,类脑芯片处理器的产业化进程会有所不同,这对于中下游企业而言,芯片在不同场景下的兼容性和性能也会有所不同,目前尚未出现真正产业化的通用类脑芯片。 小结 类脑芯片距离人脑也还有相当大的距离,毕竟人脑里的神经元个数有上千亿个,而现在最先进的类脑芯片中的神经元也只有几百万个,连人脑的万分之一都不到。因此这类芯片的研究,离成为市场上可以大规模广泛使用的成熟技术,还有很长的路要走,但是长期来看类脑芯片有可能会带来计算体系的革命。 |