随着移动互联网时代的开启之后,PC市场就开始出现了持续多年的连续下滑,再加上错失移动市场的机遇,Intel遭遇了不小的挫折。而随着万物互联,大数据时代的到来,数据开始变得越来越重要。“数据是未来的石油!”这曾是Intel前任CEO科再奇常说的一句话。
为了抓住“数据红利”,早在三年前,Intel就提出了要从处理器制造商身份转型为数据公司。
“很快我们的‘以数据为中心业务’占比将会超过‘以PC为中心的业务’,这将是Intel历史上最成功的转型。”在3月28日,以“万有IN力,数立未来”为主题的“2019Intel中国媒体纷享会”上,Intel公司全球副总裁兼中国区总裁杨旭非常肯定的说到。
挖掘“数据红利”的关键
我们都知道,第三次工业革命是由计算机及信息技术驱动的,那么第四次工业革命的核心驱动力将会是什么?有人认为是人工智能技术。
但是,人工智能技术在半个多世纪之前就已经开始出现,而近些年人工智能能力的释放,归根结底还是得益于数据的爆炸式增长。所以,从某种程度上,我们可以说,数据才是驱动新工业革命的源动力。
根据IDC的数据显示,2011年到2018年全球数据的爆发量增长了18倍。到2025年,全球智能互联设备将超过1500亿台,将产生175ZB的数据量。其中,中国将会有800亿台智能互联设备,产生的数据量将达到48.6ZB。
Intel公司市场营销集团副总裁兼中国区总经理王锐表示,随着数据的爆发,以及数据红利被更深度的挖掘,以数据为关键生产资料的数字经济将蓬勃发展。
行业报告显示2017年全球数字经济的总量已经达到近13万亿美元,已经占到全球GDP的16%。这一比例将在未来三年内继续增长到超过50%。
但数据经济开启的未来也才刚刚开始,绝大部分数据还未转化成商业价值。
因为,目前数据产生的速度和规模,远远超过了我们的处理和计算能力。再加上未来更加多样化的数据形态和计算场景,如何将海量的数据充分利用起来,挖掘“数据红利”,使其成为推动产业发展的驱动力,则成为了一大难题。
杨旭表示:“要解决这个问题,很多关键性的技术都必须要创新,比如人工智能、5G、云计算、物联网、网络传输、存储和内存等众多技术都需要突破。这样才能在‘智能 ’时代,深挖数据红利能够为产业创造增值空间,进而加速数字经济落地。”
从“以晶体管为中心”到“以数据为中心”
众所周知,摩尔定律是Intel创始人之一的戈登·摩尔(Gordon Moore)于半个世纪前提出来的,其主要内容为:“当价格不变时,集成电路上可容纳的晶体管数目,约每隔18-24个月便会增加一倍。”
在摩尔定律诞生之后几十年,半导体制程技术的发展也基本遵循着这一定律向前推进。
作为摩尔定律的主要推动者,一直以来,Intel也是持续引领着半导体制程技术的发展。
但是,随着现在晶体管越来越小,到未来的5nm/3nm,已经越来越逼近物理极限,摩尔定律的维系也越来越困难。再加上此前Intel的10nm工艺遇阻和多次跳票,也使得外界“摩尔定律已死”的声音不断。
但是在Intel看来,摩尔定律实际上是两个层面的:
一个是把晶体管做小,每隔18-24个月,单位面积芯片上的晶体管密度增加一倍。虽然现在难度越来越大,但是Intel表示,从10nm到7nm再到5nm,目前仍然有多种不同的技术,可以进一步把晶体管做的越来越小。
另一个层面则是同样价格下,每隔18-24个月可以买到的计算量翻倍。在制程工艺不提升的情况下,可以通过异构的方式,把不同的计算模块放在一起,以2D或3D方式集成,进一步提高处理密度。还可以通过新型的处理架构,比如针对AI算法的定制化的ASIC处理器架构,可以大幅度的提高AI处理性能。这些技术组合起来使用,仍然可以让摩尔定律的经济效益继续存在,同样的价钱仍然可以买到指数级上升的数据处理或者数据存储能力。
而这里采用什么样的异构方式,采用什么样的新型架构,采用什么样的封装技术,不再是单纯的以晶体管的密度为导向,而是以数据为导向。需要针对不同的数据类型,不同的场景计算类型,需要选择最优的组合方式,来实现摩尔定律的经济效益。
“未来海量的数据当中,既有数据中心的数据,也有边缘端的数据,所有的终端都在产生数据,AI在分析和处理这些数据时,还会产生新的数据。而在数据形态上,可能既有传统的数据,也有AI的数据,也有来自量子计算的数据,还有来自神经拟态等等各种不同形态的数据。”杨旭表示:“不同的数据类型和形态,所需要的计算能力是不一样的。而且从数据处理到传输、到存储等关键技术都需要更大的创新和革命。而Intel从以晶体管为中心转变到以数据为中心,就算要让数据的价值体现出来。”
从以晶体管为中心到以数据为中心的转变,使得Intel能够更好的继续推进摩尔定律的经济效益的发挥,可以让我们继续拥有更好,更便宜的芯片。但是,以数据为中心的未来,还需要更完整的更系统性的思考,因为单一因素已经不足以满足多元化的未来计算需求。
正如我们前面所提到的,挖掘“数据红利”,很多关键性的技术都必须要创新,比如人工智能、5G、云计算、物联网、网络传输、存储和内存等众多关键技术都需要突破。
杨旭表示:“在这些关键技术上,Intel拥有全面的优势。Intel是唯一一个可以提供端到端的芯片计算、连接、存储等方方面面技术的半导体技术厂商,而且可以在每个点上优化,从数据采集、数据传输、数据处理、数据存储、软件等方面全面优化。同时,Intel这么多年和产业合作的经验,不但我们自己要继续创新,我们大量投入研发、制造、品牌营销、建立产业链生态,和合作伙伴一起深层次合作创新,才能把产业做好。”
因此,Intel进一步提出了以制程和封装、架构、内存和存储、互连、安全、软件这六大技术支柱来应对未来数据量的爆炸式增长、数据的多样化以及处理方式的多样性。而且这六大技术支柱是互相相关、紧密耦合的。
六大技术支柱:推动Intel持续创新
”我们认为这六大技术支柱会给我们带来指数级的创新,将是Intel未来10年,乃至未来50年的主要驱动力。“Intel中国研究院院长宋继强非常肯定的说到。
宋继强解释称:“制程和封装是做芯片最基本的技术,架构是芯片里面晶体管怎么组织、怎么处理数据,再通过把它和内存和存储结合在一起,就可以既处理数据又存储数据,这三个结合在一起就构成了最小型化的系统。这是针对单一设备的。如果想要多个设备一起工作就要互连,互连既可以是有线的,也可以是无线的。设备互连以后,中间的信息传输还需要放在安全的框架下。这些都准备好了以后,还需要统一的软件接口,便于软件开发人员能够轻松的进行开发。所以这六大支柱技术是一层层叠加的完整的创新方案。”
1、制程和封装
一直以来,Intel在制程技术上都引领全球,这是构建领先产品的关键基础,也是Intel此前一直独霸PC和数据中心市场的关键。而随着Intel从以晶体管为中心向以数据为中心转变,Intel也开始通过3D封装技术来推进摩尔定律的经济效益。
在去年年底的Intel架构日活动上,Intel就推出了业界首创的3D逻辑芯片封装技术——Foveros 3D,它可实现在逻辑芯片上堆叠逻辑芯片。以前只能把逻辑芯片和存储芯片连在一起,因为中间的带宽和数据要求要低一些。而Foveros 3D则把逻辑芯片和逻辑芯片连在一起,同时保证连接的带宽足够大、速度够快、功耗够低,而且3D的堆叠封装形式,还可以保持较小的面积。
此外,Foveros 3D还可以与Intel 2017年推出的EMIB(Embedded Multi-Die Interconnect Bridge,嵌入式多核心互联桥接)封装技术相结合,可以将不同类型、不同制程的小芯片IP灵活组合在一起。在三维空间提高晶体管密度和多功能集成,为计算力带来指数级提升。
“这是很高的技术挑战,目前这是Intel独有的先进技术。”宋继强说到。
在今年的CES展会上,Intel还推出了首款基于Foveros 3D封装技术的混合CPU架构SoC平台“Lakefield”。其将1个10nm Sunny Cove核心和4个Atom系列的10nm Tremont核心通过Foveros 3D芯片堆叠技术封装到了一起。同层上还把GPU和其他加速器放在里面,其他层叠加了DRAM、叠加了I/O。
这使得先前采用分离设计的不同IP整合到一起,同时保持较小的SoC尺寸,功耗也可以控制的非常低。
而且,Foveros 3D结合EMIB技术还可制程不同制程的芯片3D封装到一起。比如计算逻辑芯片通常对要高性能、低功耗有较高要求,所以可以用先进的10nm工艺,但是其他的,比如I/O或者modem部分则可能没有必要用10nm,可以用原来的已经有成熟的14nm制程,无需拿到在10nm上重新验证。可以实现更多的多样性和快速满足客户定制性的需求。
2、架构创新
在单核时代,提升处理器的性能主要是依靠提升单个核心的晶体管密度,提升处理器的主频,但是主频上到一定的高度之后,就碰到了“功率墙”,因为再往上提升主频,性能提升已经非常有限,但是功耗却快速升高,芯片也会不稳定。
所幸的是,工程师发现通过多核的架构,可以继续推动处理器性能的提升。于是,从2000年之后,芯片进入了多核时代。但是,随着芯片核心上到一定程度之后,又遇到了新的问题,这么多的核,要存储数据都要通过同一条总线访问DRAM,这里就遇到了“内存墙”,内存带宽的大小限制了通过进一步提升核数所带来的性能提升。
宋继强表示,现阶段要继续提升处理器的性能,就要根据数据种类、数据存储方式和处理方式来优化架构。采用最优化的架构处理数据、访问内存,甚至是把一些内存放入计算,或者在芯片计算架构里放入内存,这也就开始了架构创新时代。
就目前来看,针对不同的计算类型,主要有CPU、GPU、ASIC、FPGA四类不同的计算架构。在日益复杂和多样化的需求之下,各种计算架构也在不断创新,而且也出现了更多的不同类型的组合。
而对于Intel来说,这四类计算架构均有完备的产品部署,而且也一直在持续创新当中。比如,在CUP方面,Intel最新的发布的酷睿CPU把超标量的最新优势都放进去了,大幅提升了单线程的处理能力。
另外,在CPU里面有DL Boost,专门加入了对AI计算的支持,可以在CPU里把深度学习的推理速度提高10倍以上;在GPU矢量处理器方面,Intel除了第11代嵌入式的GPU之外,还有即将推出的基于全新GPU架构的独显Xe系列;Intel还有专用的ASIC加速器,像Movidius、Mobileye的加速器,以及Altera的FPGA。
此外,在全新的计算架构方面,Intel还拥有神经拟态计算芯片Loihi(模拟了人脑神经元结构)、49量子位的量子芯片、最小的自旋量子位芯片。并且为了能够规模化的生产和测试,Intel还专门和产业界、学术界合作,设计了低温晶圆探测仪,可以在低温下测试这样的芯片的计算和存储是否都是可靠的。
“架构创新在未来十年会是一个主流,而且这里面会有多种不同的架构互相组合、比拼。我们还需要把这些不同架构通过封装整合在一起,可以更好地把一个系统里不同种类的数据同时处理的非常有效和低功耗,以满足以数据为中心的创新时代。”宋继强认为:“未来十年创新会由架构驱动。架构将快速演进,将带来指数级的扩展效应。”
3、内存和存储
前面有提到,在多核时代,处理器性能的提升受到了“内存墙”的制约。而为了解决这个问题,Intel也做了非常多的努力。
从存取速度上来看,CPU里面的缓存SRAM最快的,然后才是DRAM内存,DRAM可直接被CPU访问,NAND FLASH存储则不直接被访问。这三级之间的速度差是非常大的,达到了百倍甚至是千倍的差距。如果未来计算需要非常大量的数据存储和访问,这样的速度差将严重影响性能。
因此,Intel往里面加入了几级不同的存储技术。比如在缓存和DRAM之间加入10倍DRAM带宽的封装内存,而在DRAM和存储之间,可以加入数据中心级的持久内存、还有固态盘和QLC固态盘。将使得每一级之间的速度差只有10倍左右,这种非常平滑的存储结构,将极大提高未来整体的系统性能。
宋继强称:“Intel正在重塑内存和存储层级结构,填补层级空白,将为内存性能带来指数级的提升。”
4、互联技术
另外不论是对于芯片内部晶体管之间,还是芯片与芯片之间,亦或是设备与设备之间,互联技术也是至关重要的。而Intel在这块的也是拥有非常多的产品和技术积累。
比如在芯片级,Intel不仅拥有可重构、可扩展的架构,还拥有领先的封装架构,比如前面提到的Foveros 3D封装技术,不仅可以将内存芯片与逻辑芯片堆叠,还能将逻辑芯片与逻辑芯片堆叠在一起,实现直接的互联。而且前面提到的Intel的EMIB技术,还能够将不同制程芯片集成并封装到一起,并实现高速互联。
去年9月,Intel还收购了总部位于美国加州圣何塞的NetSpeed Systems,该公司是一家系统芯片设计工具和互连架构知识产权(IP)提供商。
另外值得一提的是,今年3月,Intel联合微软、阿里巴巴、思科、戴尔、Facebook、谷歌、惠普企业以及华为建立了Compute Express Link(简称CXL)的新计算互联标准,以便在数据中心CPU和加速器芯片之间实现超高速互连。
而在设备与设备之间的互联方面,Intel不仅有Thunderbolt技术(3月初,已向USB推广组织——USB-IF开放了Thunderbolt 3协议规范),还有蜂窝无线互联技术,不仅其4G的基带芯片已被苹果iPhone所广泛采用,而且在5G方面,Intel目前也已推出了多款5G芯片(XMM 8060/8160)。
“Intel非常乐于把互连方面的技术标准和产业界共享。比如开放Thunderbolt,与产业伙伴建立CXL标准,我们也为5G标准做了很多的贡献。我们深度的参与到互联产业的标准中,致力于和产业界一起合作创新。”宋继强补充说到。
5、安全
随着万物互联时代的到来,越来越多的信息将会被传输到网上,或者存储在可联网的本地设备当中,数据安全也已经变得越来越重要。而数据的安全不仅需要硬件级别的安全,还需要多个系统层级的软件堆栈的保护。
Intel在安全方面的技术非常完整,不仅有硬件层面的技术,比如SGX,就是在CPU里面有一个专门区域可以存放关键代码和数据,就连操作系统都没有办法访问的。此外Intel还有虚拟化技术,从设备级到操作系统级,甚至到网络级都有虚拟化技术,可以很好的隔离不同用户。
当然,安全都是相对的,没有绝对的安全。而且很多设备都是由众多的业界合作伙伴来共同完成的,所以会涉及到非常多的不同类型的软硬件,而每家厂商的安全要求和标准以及安全措施也是不一样的,因此面对越来越复杂多样的安全挑战,还需要产业界一起来共同协作创新。
6、软件
前面提到,Intel有非常多类型的计算架构,比如CPU/GPU/ASIC/FPGA等等,而面对以数据为中心的时代的到来,各种计算架构将会出现越来越多的组合。而硬件的性能要很好的发挥出来,还需要软件的配合。但是对于不同的计算架构,开发的工具和方法以及对于开发人员能力的要求都是不一样的。
那么,怎么让软件开发人员比较方便用到不同种类的计算架构,并实现最佳的性能呢?
对此,Intel在去年推出了全新的开发工具套件OpenVINO,这是Intel基于自身现有的硬件平台开发的一种可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,可支持各种Intel平台的硬件加速器上进行深度学习,并且允许直接异构执行。软件开发者只需要学习一套开发接口,一套代码,就可以很容易的使用不同计算平台的加速功能和不同计算架构的优势。
宋继强表示:“OneAPI是用来释放更多异构软件之间的性能非常重要的方式,今年下半年我们也会有一些产品出来。”
Intel历史上最成功的转型
作为PC时代的开创者,自1992年以来,Intel一直就是全球排名第一的半导体公司,但随移动互联网的发展,PC销量开始出现了多年的持续的下滑,再加上错失移动市场的机遇,Intel也面临着巨大的挑战。凭借着智能手机业务和存储业务的崛起,昔日的“小弟”三星甚至超越了Intel成为了全球第一大半导体厂商。
不过,随着万物互联时代的到来,为了抓住“数据红利”,Intel在几年前便开始了逐步由“以PC为中心”向“以数据为中心”的业务的转型。而这实际就是前面提到由“以晶体管为中心”到“以数据为中心”的转变。经过这两三年的努力,Intel已经取得了初步的成效。
根据Intel公布的数据显示,自2016年以来,Intel营收已经连续三年屡创新高,在过去的2018年里,Intel营收达到了708亿美元的历史新高,其中“以数据为中心”的业务营收占比近半,达到了48%。预计在2019年,将有望超过“以PC为中心”的业务。
“按照这个速度发展,很快我们的以数据为中心业务占比将会超过以PC为中心的业务。”杨旭强调:“这将是Intel历史上最成功的转型。”
他还表示,未来Intel面对的市场是3000亿美元的规模,除了PC和服务器等业务之外,Intel在物联网、自动驾驶、辅助驾驶、工业物联网等很多新领域的份额还很小,可能只有20%-30%,所以发展空间非常巨大,还有2300亿美元的空间可以发展。
而Intel之所以能够成功转型的关键则在于其“六大技术支柱”。宋继强也表示:“这六大技术支柱支撑着Intel的产品持续创新,支撑着我们未来以数据为中心的业务的持续演进。”
如果说,这“六大技术支柱”是支撑Intel持续创新的关键支撑点,那么,Intel在研发上的持续的大量投入则是Intel持续创新的“源动力”。
根据Intel公布的数据显示,近十多年来,Intel的研发投入一直是处于持续的增长当中,2018年Intel营收创下708亿美元新高的同时,Intel在研发上的投入也达到了历史新高,达到了135亿美元。另外,在半导体生产制造方面,Intel还投入了152亿美元。
根据芯思想统计的数据显示,2018年英特尔在半导体领域的研发投入超过了高通、三星半导体、新博通的三家公司在半导体领域的研发投入总和,达到了台积电在半导体研发投入金额的近5倍!这也不难解释,为何英特尔能够持续引领半导体领域的创新。
杨旭强调:“Intel的研发投入占销售收入的20%,占全球半导体行业研发总投入的三分之一,在全球半导体企业研发投入当中排名第一。只有放眼长远,勇于投入,才能能拥有未来。我们必须要有前瞻意识,原创意识,要敢于引领,要敢于冒险,不断试错,迅速调整,而不是盲目的跟进。这就是Intel的企业的灵魂。”
作者:芯智讯-浪客剑