互联网+ 电子商务 智能家居 地理信息 高端装备 信息安全 3D打印 工业4.0 人工智能 光伏 新能源汽车 消费品 集成电路 移动支付 汽车 数据中心
2018智能制造生态建设论坛
当前位置:首页 > 产业动态 > 战新 > 高端装备 > 正文

01专项总师、清华大学微电子所所长 中国半导体行业协会副理事长魏少军:人工智能芯片发展要找准突破点

发布时间: 2018-04-12 11:32     来源: 满天星

  2018年4月12日,2018中国半导体市场年会在南京隆重举行。峰会以“芯时代、芯机遇、芯发展”为主题,多方面为中国集成电路产业的持续稳步发展提供“芯”思路和“芯”动力。01专项总师、清华大学微电子所所长 中国半导体行业协会副理事长魏少军在大会上发表了主题演讲。
  以下为演讲实录:
01专项总师、清华大学微电子所所长 中国半导体行业协会副理事长 魏少军
  尊敬的周子学理事长,各位同事,各位朋友,大家上午好!
  刚才理事长讲了集成电路要找到发展的突破点,人工智能是这两年非常火热的一件事情,大家可以看一下这张图,这是去年的一个图,2016年人工智能初创企业的数量全球范围是非常多的,融资额也是非常高的,并购的数量也在高升,股权融资的数量也达到了几百家,右边可以看到空间非常巨大。去年的数据没有拿到,应该讲去年的数据只会比前年的数据更火爆,尤其在中国更是如此。最近大家听到了很多关于人工智能芯片方面的消息,有些企业融资已经拿到了百亿元人民币以上,称为独角兽,不但我们的企业很开心,政府也很开心。只是我们到底应该怎么看这件事情,存在不同的看法。
  前两天有几家投资公司和我聊,看到人工智能这么火爆,也想投,问我能不能投。后来我说你有途径投进去吗?他说可能还有吧。我说那你赶快投,只是你千万不要当最后一棒。为什么这么说?因为人工智能现在太热了,热到我们自己很害怕的程度。我和大家分享一下我自己的看法。首先,我们看看人工智能为什么在最近一段时间崛起,其实有三个基本要素。人工智能早在上世纪50年代,1956年美国在一次讨论会上提出来的,那次讨论开了两个多月的会,只留下了人工智能这个词。到了1980年美国又举办了国际研讨会。到了1983年出现了机器学习一词。到了2016年提出了深度学习的概念。之所以能够引起热烈的反响,主要是因为2016年出现了一件事情,就是Alpha Go赢了李世石,也赢了柯洁。这件事情给我们很大的振动,原因在哪儿?为什么机器能够战胜人类棋手,关键就是它具备了自己学习的能力。李世石第一盘赢了以后,Alpha Go这个时候棋力已经提升了很多,柯洁和它下的时候,它的能力又进一步提升了。这就是机器学习让我们感到非常吃惊的方面。说明机器智能在不断发展,而它的发展超出了我们最初的想象。
  我们看看在几十年的历史当中,为什么以前发展不快,现在发展这么快,主要是三个具体要素。第一个是概念的提升。第二个要学习就要有经验和数据,所以大量的数据出现了。人工智能伴随着大数据在共生,没有数据人工智能也不大可能成为现实。而最重要的我认为就是它的算力提升,这个就和今天紧密相关了,因为这个算力的提升主要是集成电路。所以三个基本要素促使了人工智能再次崛起。
  谈到芯片,我们说人工智能的发展是绕不过这个话题的,如果今天有人敢说人工智能可以绕开芯片,我觉得他一直生活在过去。之所以能够提出人工智能,其实智能化是非常重要的方面,当我们谈到智能化的时候,我们对这个概念其实存在不同的看法,比如说我们经常会把智慧、能力两者总和称为智能。他们讲人工智能讲的是不是人工的智能,而是人工的智慧,因为智慧和能力两者代表了两个事件的不同方向,如果我们把感知、存储、处理、决策以及到最终的执行看成一条链条的话,我们看到了存储、处理、决策这个中间所谓有计算、分析、判断、经验所组成的东西,这点是我们讲的智慧的核心,前头两端都是能力。我们在讲智慧和能力的时候,我们比较容易把两者结合到一起,我们现在虽然讲人工智能,其实讲的是人工智慧的问题。
  关于智慧我们就无法避免谈到人类大脑,这里面有一个关于人类大脑的基本数据,大家可以看一看,我们的大脑大概有140亿个神经元,我们的传输速率很慢,我们大脑皮层还是比较大的,所以总的计算能力比较大。芯片采用了电传输,每秒钟30公里,可以获得比人脑强很多倍的计算能力。但是它的功耗巨大无比,24兆瓦,需要一个小型的电站,占地面积720平方米,重量5吨。所以我们看人脑非常精密,人的逻辑是靠堆积,我们短期内很难超过人脑,因此讲到人工智能的时候出现了两个不同的分支,一个分支就是加速,另外一个分支就是真正超过人脑的计算。这个人是个法国人,他现在是人工智能方面的大专家,他用一个非常简单的公式来概括人工智能,说预测+规划等于推理,也就是不需要人类,让机器学会自己构建模型。就要让计算机学习观察,所以训练机器如何学习是他的重要工作。右边这个人是加州理工学院的教授,他最早提出了摩尔定律,他在80年代提出了神经拟态这个术语。实际上两条路代表了人工智能发展的两个不同的路线。
  我们看看左边以训练为基础是主流的发展,最典型就是利用机器计算能力构建平台,它确实有非常强的计算能力,从这种计算能力看的话,GPU的计算能力比CPU计算能力高很多,存储也是高了四倍。尽管我们说从全部图形处理器芯片市场来看英特尔占了榜首。如果看到封闭式的存储的话,Nvidia占了榜首。我们看到机器学习算力是最重要的要求。当然像FPGA、TPU也在发挥作用,FPGA开发了新的加速性能,比CPU+软件性能提升5到10倍,功耗下降80%。TPU不需要机器学习,而是进行性能提升,性能提升的同时可以看到功耗下降了,下降到GPU环境下的10%。我们看靠网端来训练人工智能的发展今天有很大的收获,但是有些人和我说他们也想做网端,我就劝他们别做。
  另外一个就是IBM,IBM的芯片发表取得的巨大的轰动,集成了54个硅晶体管,内置了4096个内耗,功耗只有65毫瓦。这个计算机比人类大脑的功能强大十倍左右,功耗也很大,千瓦可以接受,这样的芯片出现以后,很可能出现一类全新的机器人,很可能是具有相当人类的陪伴机器人,我们需要人类来陪伴,子女都在外面,如果有机器人能够陪伴,价值又合理,我想这个市场会非常不错。欧洲发表了一个项目,也是用先进的机器学习。这些发展与真正人脑或者人的智慧,或者人工智能有多大差距,我现在还不是特别清楚,我们还需要进一步分析一下这之间我们要实现人工智能,什么是最关键的要素。
  我想人工智能芯片发展面临两个重要的现实。第一个就是算法不断演进,新算法层出不穷。我们算法三个月到半年就会有新的出现。第二个,我们找不到统一的算法,一种算法对应一种应用,很麻烦,对我们做芯片的人来说压力非常大。当然我们希望利用我们已有的知识来看人工智能芯片的话,不管怎么变,我们需要一个所谓的学习引擎,这个学习引擎比较高能效、通用的,不管怎么做都要深度学习。
  这里面相应几个观点我们要来看,一个就是人工智能需要专用的神经网络,可能可以一时半会解决个别问题,长远来说发展通用的神经网络来说很重要,我们能不能通过学习引擎的标准化让学习的神经网络计算仿真化。第二,我们毫无疑问面临一个巨大的挑战,就是计算量和存储量的应用问题,在上世纪末的时候,那个时候的神经网络还是比较简单的,比如说DNNS,很少的计算量。但是今天我们面临的是大概是200亿次运算,我们要处理的参数是1.4亿次。到了2015年,那个时候要处理的参数达到了1.5亿次,要上百亿次的运算,这个时候我们的学习引擎如果没有足够高的计算能力和能量效率是无法形成的。当然,刚才我们看到加速是在网端做的,最终能够成为半导体最开心的是终端的应用,因为终端数量巨大,我们希望终端最好能够快一点,我们做半导体的很开心。我们把人工智能从云端向终端的迁移,就提出了更高效率的计算,要每秒完成多少万亿次运算,一瓦的能量支持多少,这样的计算能力其实在终端比在云端要求更高。所以这点我想做人工智能也好,不做人工智能也好,这几个关键点必将产生影响。
  因此有了应该具备的要素。第一个是可编程性。我们的架构是动态可变性,既然架构可变,所以架构一定要实现高的计算效率。要有高能量的效率,每秒要做到十万亿次的运算,对某些应用来说功耗要小于毫瓦,对一些应用来说识别速度要大于每秒25分,要是低成本的,要体积性,要可以用好。我们这些做法不是我们的理想架构,什么是理想的架构,或者说人工智能的发展突破点在哪儿,这里有两个点,除了技术层面之外,首先我们要找清应用,应用创新是带动AI芯片发展的关键力量,这个我们比较清楚,我们可以搞人脸识别、语言识别、人工智能的监控、智能的交通、智能的驾驶、智能的陪伴等等这些都是需要人工智能的。但是我们自己要回答的时候就发现不那么简单了,我们首先问哪些应用真的需要,如果我们把今天的智能驾驶、智能汽车、人脸识别、语音识别拿掉之后,我们还能说出来吗?即便我们知道,AI帮助解决什么问题,更重要的是什么样的AI是我们每天都需要的,如果不是每天都需要的,那一定不是我们要的东西,比如说今天丢了手机那种感觉,我们只有这种感觉的时候我们才能说AI是我们每天都需要的。
  这张图中间蓝色部分是全产业链的,右边讲的是网端的应用,我们看到垂直的玩家,都有谁呢?谷歌、Face book、百度、阿里巴巴,这些大的互联网公司,当然也可能介入芯片,比如说谷歌和IBM都进入了芯片。如果不进入芯片,他们就要有提供商,这些人是谁?英特尔等这些公司,包括软件、硬件在内的。你看看左边,左边更看重的是终端,这些终端企业就没有右边网络企业这么财大气粗,因此他们更多的是终端的提供商,终端的提供商要提供包括硬件和软件在内的人工智能的架构,以及相应的开放数据,包括华为、三星、小米、苹果、VIVO、oppo,这些人可能做芯片,也可能不做芯片,如果不做芯片就要掌握芯片的提供商。由于是终端就要和后台打交道,所以又跳到右边。做AI芯片的人来说非常难受,我们在最下面左下角,我们要提供我们国家目前最热的这些AI芯片发展商的名字,因为我们看不见他们的未来在哪儿,因为很可能他们会集成手机的芯片商,我们就要不断问自己我们做出什么样的芯片的时候,才能让我们长期存在下去,这就提到了架构问题。
  我们说架构创新是AI芯片发展的基础,我们看到的这个图,从前面的感知、传输,到后面的处理、分析,我们的感知不是单个的感知,中间是传输动力,我们这样做的过程当中,我们把人脑的概念复制上去,这样的系统总结起来是相当复杂的,需要复杂灵活的架构,运行数据、运行软件等等,这样去看的时候,我们发现数据是非常多的。我们人可以总结相应的流程,虽然很机械,大概是这样的。如果见到某个人,比如见到周总,我会看到这个是周总,先抽取特征,我认识他还是不认识,我要看自身的记忆当中有没有他,也可能我认识他,我就去和他打招呼。然后通过打招呼这个过程,进一步架构。但是也有可能我不认识他,我在大脑当中说这个人是周总,我不认识他,进一步加深他的印象。这个过程是自然的过程,我们现在谈到各种对事沿的处理靠什么完成,靠计算,我们今天讲计算无处不在,当然这个计算不是传统意义上狭义的计算,而是广义的计算。
  对于这样一种所谓的处理方式,我们说你去真正处理的时候,我们最好能够知道自己是怎么去完成计算的,很可惜这点我们做不到,我们能考虑的还是用软件、硬件的方式来出现,因此对软件提出了具体要求,比如说自主学习,要持续形成经验,能够持续改进和优化,要思维逻辑的推理,要能做出真正的判断和决策。对硬件来说,我们更多要求支撑软件的运行。因此最好的办法就是软件控制下硬件的发展,因此我们说实现智能的核心是软件,我们希望能够找到一个新的架构,就是软件中心架构。这个概念提出我们在十年前就提出了,这个到底有没有道理。去年7月份,美国提出了叫电子振频计划(音),通过材料、架构和设计三种希望能够实现对美国电子设备能力的支撑,什么支撑,2025到2030年的支撑。这个里面提出了软件定义硬件的概念,内容就是通过建立在运行时可重构的硬件和软件,实现具有ASIC的性能。什么是可运行,可配置时间是300到1000纳秒,我们现在很落后,可能10倍以上都不行。这样的架构我们十年前找到了,但是这样一种架构并不是针对全流程来考虑的。FPGA是SDC吗?一个是FPG是细粒度的,所以需要配置信息量很大,需要的配置时间就很长,这种情况就是静态编程。全部东西都装进去,不能只装一个,面积效率很低及每个LUT只能实现一位运算,面积效率5%。能量效率更低了,无效功耗巨大,需要特别调整,而且需要电路设计的技术才能完成。我一个学生前两年到了谷歌,就是为了完成FPGA的应用,这不是我们希望看到的芯片的方式。
  什么样的方式能够形成理想的硬件?这里面有一个软硬件的对比关系,一个软件出现的时候及它的硬件价值和软件结构中间如果是一一对应的,计算效率一定会高。但是非常遗憾的是软件巨大,我们就把软件分块了,一块扔过去,根据他们的依赖关系,然后第三块、第四块,不断扔过去的时候硬件在不变化架构的功能,实现你所需要的性能。因此我们说对这样一个软件定义芯片的模式,我们的架构和功能一定可以动态按照软件的需求进行重构。从这个角度来说,我们需要找到新型的架构,就是可重构计算芯片的架构,这个架构可以把软件一块一块扔到数据通道当中,数据通道根据需求配置我们的硬件,然后来进行,这就要求所谓数据通道和控制单元完全可编程的。做到这一点不容易,我们通过十年能做到,在今天和明天的会上,还会有同事会和大家作相关的交流。
  这样的情况下和经典计算比较有很大的不同,比如说传统架构当中是冯诺一曼等效架构,我们现在了换成了函数化的硬件架构。传统架构中是应用适应计算结构,现在是计算结构适应应用。在传统架构当中要高度服务于硬件,但是我们现在冗余,带来了完全不同的两种思路。我们通过在人工智能发展当中发现了一点很有意思及我们把这个架构用到人工智能芯片当中去,或者用这种架构开发人工智能的芯片会怎么样样,我们通过对人工智能应用的识别定义我们所采用的所谓深度学习的神经网络,这个网络再定义我们芯片的功能,这样的话会带来意想不到的人工智能体系,我们开发了一系列的芯片,叫THINKER。
  在THINKER当中,我们看到任何一个运算单元当中都可以支持不同的神经网络的运算,这些神经网络运算可以编程,可以不断变化,按照神经网络和结构来自由变化。不仅如此,我们还可以在平面上把多个神经网络不同部分在一个平面完成,使得性能进一步优化。这里面给出三个不同的芯片,其中Thinker1是前年做的,形成所谓每瓦1万亿次---5万亿次的运算,这样的运算相当高。第二个就是所谓在人脸识别的过程中,用的是28纳米的工艺,功耗小于1毫瓦,对人脸识别高于人,在人脸识别上6个毫秒,比苹果手机识别快很多,功耗只有12毫瓦。右边我们看到ThinkerS,语音识别的,可以做声音的识别,工作的特定主要是低功耗,只有200多个微瓦,用17号电池可以不断电连续工作一年多的时间,这项技术是今年年初被MIT全球最新杂志上作了详细报道。
  过去的时间当中我们已经有上百项的发明专利,论文将近200篇,得了一系列的奖,也出版了一系列的出版。我们现在正在探讨怎么把可重构计算变成下一代新的发展模式。我们知道FPGA的总裁最近来中国了,他报告了他们最新的成果,虽然很不错了,但是不是我们现在要做的。我们和紫光做的工作就是打破一种想法,构建新的东西。
  人工智能的发展一定带来很多机遇,但是我们要冷静看待AI的发展并没有像那么美好,需要很长的时间。这张图是去年7月份的,我把人工智能的地方都用红线划出来的,第一波峰上升又下降,也就意味着可能未来两到三年我们会出现下降,任何发展还是有风险的。由于不存在通用范围,所以确定应用成为发展AI芯片重要前提,目前还没有找到AI杀手级的应用,我们还存在一些风险,有可能越来越重。第二个是我们的架构创新,一个重要问题是能否出现像通用CPU那样独立存在的AI处理器,这个问题留给我们的听众,留给我们的企业家朋友,如果存在应该是什么,我希望存在,我也坚持存在,但是不知道怎么样。但是如果不存在,怎么样,如果不存在的话,那今天所有AI芯片的工作就只能以IDM的方式被集成了,今天从事AI芯片研究的设计公司将何去何从,这是一个非常残酷的问题。我希望这个问题能够得到大家的回答,当然我还是坚信不管什么结果,AI的发展一定需要一批先驱,他们的出现是历史发展的必然,也是AI发展最令人钦佩,也最令人动容的伟大实践。谢谢大家!

收藏