te
览潮网> 原创> 让AI成为人,清华全球首款类脑芯片登《自然》封面

让AI成为人,清华全球首款类脑芯片登《自然》封面

览潮网 8月2日讯(记者唐刚)特斯拉CEO埃隆·马斯克想,打不过AI,就成为AI吧。最近,马斯克脑机接口技术取得突破性新进展的新闻一度刷屏。紧接着,Facebook又为脑机接口掷下一枚风暴级棋子。

马斯克想让人成为AI,另外一些人则想让AI成为人。

据清华新闻网报道,清华大学施路平团队最新研究成果——类脑计算芯片“天机芯”近日发布。该芯片是世界首款异构融合类脑芯片,也是世界上第一个既可支持脉冲神经网络又可支持人工神经网路的人工智能芯片。

为验证该芯片的处理能力,施路平团队设计的一辆无人自行车,不仅可以识别语音指令、实现自平衡控制,还能对前方行人进行探测和跟踪,并自动避障。

目前,该成果已在Nature(《自然》杂志)作为封面文章发表,实现了中国在芯片和人工智能两大领域《自然》论文零的突破。

清华类脑计算天机芯

近日,清华大学类脑计算研究中心施路平教授团队发布了一项最新研究成果——类脑计算芯片“天机芯”。该芯片是面向人工通用智能的世界首款异构融合类脑计算芯片。

基于此研究成果的论文“面向人工通用智能的异构天机芯片架构”(Towards artificial general intelligence with hybrid Tianjic chip architecture)作为封面文章登上了8月1日《自然》(Nature)杂志。

最新一期《自然》封面图

据了解,天机芯片采用28nm制程,由156个FCores组成,面积为3.8×3.8毫米,包含大约40000个神经元和1000万个突触,可以同时支持机器学习算法和类脑电路。能够提供超过每秒610千兆字节(GB)的内部存储器带宽,以及运行人工神经网络的1.28TOPS的峰值性能。在生物启发的尖峰神经网络模式中,天机芯片实现了每瓦约650千兆每秒突触操作(GSOPS)的峰值性能。与GPU相比,天机芯片的吞吐量提高了1.6-100倍,电源效率提高了12-10000倍。

“天机芯”(Tianjic)有多个高度可重构的功能性核,可以同时支持机器学习算法和现有类脑计算算法。

天机芯片单片(左)和5x5阵列扩展板(右)

据介绍,当前,人工智能芯片代表性工作可概括为两个主流方向:深度学习加速器 (支持人工神经网络) 和类脑芯片(主要支持脉冲神经网络)。由于算法和模型的差别,当前人工智能芯片均只支持人工神经网络或者脉冲神经网络,难以发挥计算机和神经科学两个领域的交叉优势。

天机芯片则通过资源复用,只需3%的额外面积开销即可同时运行计算机科学和神经科学导向的绝大多数神经网络模型,支持异构网络的混合建模,形成时空域协调调度系统,发挥它们各自的优势,既能降低能耗,提高速度,又能保持高准确度。

2015年,施路平团队设计出第一代“天机芯”,经不断改进设计,2017年第二代“天机芯”问世。相比于当前世界先进的IBM的TrueNorth芯片,2017年流片成功的第二代“天机芯”密度提升20%,速度提高至少10倍,带宽提高至少100倍,灵活性和扩展性更好。

施路平介绍,早在2012年,清华大学就瞄准未来人工智能发展的前沿,通过人才引进布局类脑计算。2014年清华大学依托精仪系成立了联合了七个院系的类脑计算研究中心,施路平为类脑计算研究中心主任。

基于自主研发的天机芯片,类脑计算中心还研制出第一代类脑计算软件工具链,可支持从机器学习编程平台到天机芯的自动映射和编译,开发出第一代类脑计算系统,并利用类脑自动行驶自行车建立一个异构可扩展人工通用智能开发演示平台,利用一块天机芯片展示了自行车的自平衡、动态感知、目标探测、跟踪、自动避障、过障、语音理解、自主决策等功能。

语音控制“直行和加速”

什么是类脑计算?

类脑计算,是指仿真、模拟和借鉴大脑生理结构和信息处理过程的装置、模型和方法,其目标是制造类脑计算机和类脑智能,相关研究已经有二十多年的历史。

与经典人工智能符号主义、连接主义、行为主义以及机器学习的统计主义这些技术路线不同,类脑计算采取仿真主义:结构层次模仿脑(非冯·诺依曼体系结构),器件层次逼近脑(神经形态器件替代晶体管),智能层次超越脑(主要靠自主学习训练而不是人工编程)。

当前计算机技术面临着两个重要瓶颈:(1)摩尔定律失效;(2)“冯诺依曼”架构导致的能效低下。

随着集成电路的规模越来越接近物理极限,人类若想进一步提升计算机的性能,必然要考虑新的计算机架构。

在“冯诺依曼”架构中,运算单元和存储单元分离,使得大部分能量和时间都消耗在数据的读取和存储过程中;并且数据处理是基于串行结构,即同一时刻只能执行一个任务。这与人脑处理信息的方式差别巨大。

在进行学习和认知等复杂计算时,人脑的功耗只有20瓦;而目前最先进的计算机模拟人脑功能,功耗也高达800万瓦以上,速度比人脑要慢1000倍以上。究其原因,是因为现代计算机一般使用固定的数字化的程序模型,同步、串行、集中、快速、具有通用性地处理问题,数据存储与计算过程在不同地址空间完成。而与之形成鲜明对比的是,人的大脑会重复利用神经元,并突触、异步、并行、分布式、缓慢、不具通用性地处理问题,是可重构的、专门的、容错的生物基质,并且人脑记忆数据与进行计算的边界是模糊的。

鉴于此,当前借鉴人脑发展的类脑计算技术,被认为是应对当前挑战的重要方案。“类脑计算”本质来说,即利用神经计算来模拟人类大脑处理信息的过程,被认为“下一代人工智能”的重要方向,也是当前人工智能领域的热点方向。

类脑计算让人工智能走得更远

传统人工智能虽然给经济社会带来巨大变化,但它也存在一些发展瓶颈。比如当前的人工智能系统有智能没智慧、有智商没情商、会计算不会“算计”、有专能无全能。会扫地的机器人不会擦桌子;服务机器人很难准确理解客户的情感、意识和需求……

这些瓶颈与机器学习本身的缺陷相关:机器学习不灵活,需要较多人工干预或大量标记样本;人工智能的不同模态和认知功能之间交互与协同较少;机器的综合智能水平与人脑相差较大……要突破这些瓶颈,就需要新一代的智能技术革命,于是科学家们将期待投入到类脑智能上,希望智能技术可以从脑科学和神经科学获得启发。

人工智能遇到瓶颈怎么办?回过头来再向人脑学习。

人类大脑大约有1000亿个神经元,它们如何连接以及连接错误导致精神错乱或是出现严重的神经性疾病,当前人类并没有弄清楚其中的奥秘。

作为宇宙中最复杂的系统之一,大脑研究已成为科研界下一个必争之地。自2013年起,美国、欧洲、日本、韩国等相继启动大型脑科学项目。

2013年4月2日,美国总统奥巴马宣布启动脑科学计划(BRAIN Initiative),欧盟、日本随即予以响应,分别启动欧洲脑计划(The Human Brain Project)以及日本脑计划(Brain/Minds Project),国内科研圈亦对此反响强烈。

2015年,“中国脑计划”终于有了上线的时间表。

2015年4月18日下午,清华大学类脑计算研究中心揭牌仪式暨第一次学术委员会会议在信息技术大楼多功能厅举行。清华大学校长邱勇表示,类脑计算是接近人脑信息处理的方式、打破现有架构的束缚、具有学习能力的超低功耗的计算系统,市场蕴藏巨大。国家正在筹备的中国脑计划分为脑科学和类脑研究两部分,邱勇希望清华大学的相关工作能为该计划的最终确立起到推动作用。

2015年10月24日,在深圳国际基因组学大会上,根据中国科学院神经科学研究所所长、中国科学院外籍院士蒲慕明的报告介绍,“中国脑计划(China Brain Project)”不久会公布。

2018年3月22日,北京脑科学与类脑研究中心(下称“北京中心”)宣布在北京正式成立,北京市政府和中国科学院、军事科学院、北京大学、清华大学、北京师范大学、中国医学科学院、中国中医科学院8家单位共同签署了《北京脑科学与类脑研究中心建设合作框架协议》。北京大学理学部主任饶毅教授和北京生命科学研究所资深研究员罗敏敏担任研究中心联合主任。

北京中心成为中国脑科学研究项目的首批具体项目之一,是继欧盟的人类脑计划、美国的大脑计划以及日本的脑/思维计划后的又一重要脑计划项目。

专家表示,脑科学具有多学科协同的大科学和工程性质,它的发展必将深刻影响人类文明社会进步、经济发展和国家安全。

2000年获诺贝尔生理学与医学奖的埃里克·坎德尔曾经有过一个精彩的总结,他说:“心智的生物学研究并非只是前景远大的科学探索,也是重要的人文方面的追求;它架设起自然科学和人文科学间的桥梁。这是一种新的整合。其成果不仅将使我们更好地认识神经、精神疾患,也将加深对我们自身的了解。”

类脑人工智能技术正在快速推广到互联网、金融投资与调控、医疗诊断、新药开发、公共安全等一系列关系到国计民生的重要领域,将引发新一轮产业革命。甚至在国防安全上,脑机接口和人机智能交互等技术开辟了新的军事前沿领域,“认知战”、“心理战”等将形成新的战略威慑力量。

更多数字经济相关信息,请关注公众号“通信信息报”(ID:txxx-news)

0

一周热门