16093234853
贵州省遵义市自流井区用大大楼65号
浏览次数: 次 发布时间:2024-09-06 来源:
本文摘要:按,供职于Moor InsightsStrategy的高级分析师Karl Freund以《深度自学的寒武纪愈演愈烈》为题分三部分阐释了自己对深度自学芯片的仔细观察,前两篇《芯片巨头们2019年的AI芯片之争不会如何?
按,供职于Moor InsightsStrategy的高级分析师Karl Freund以《深度自学的寒武纪愈演愈烈》为题分三部分阐释了自己对深度自学芯片的仔细观察,前两篇《芯片巨头们2019年的AI芯片之争不会如何?》《2018年全球最有一点注目的AI芯片初创公司》 分别理解了巨头和初创公司的AI芯片。本系列的最后一篇文章,作者分别从训练和推理小说市场的角度,去理解NVIDIA如何在竞争更为白热化的市场中维持领先地位。
从Nervana的历史想起首先,我们想到英特尔与Nervana之间的故事。在被英特尔并购之前,Nervana声称其产品性能将比GPU低最少10倍。然后再次发生了一件有意思的事,NVIDIA的TensorCores让所有人深感吃惊,因为TensorCores的性能不是Pascal的2倍,而是5倍。然后NVIDIA用NVSwitch再行将其性能缩减到,这使得它需要构建难以置信的高性能(售价40万美元,十分便宜)8 GPU DGX-2服务器,它的性能打败了大多数(如果不是全部)竞争对手。
与此同时,NVIDIA CuDNN库和驱动程序的性能提高了约一倍。它还建构了基于GPU的云,让GPU的用于非常简单,只需页面并iTunes约30个深度自学和工作阻抗的优化软件堆栈容器才可。
所以,正如前面文章提及的那样,英特尔的10倍性能优势早已消失,Nervana被迫新的设计,英特尔允诺将在2019年底发售新的芯片。英伟达基本证明了享有坚实基础的10000多名工程师可以打破50名顶级的工程师(录,Nervana被并购时享有50人的团队)。
回应没有人应当深感吃惊,对吧?10000名工程师团队的优势转入到2019年,竞争对手再度声称他们研发中的芯片有打破英伟达GPU 10甚至100倍的性能优势。必须留意的是,NVIDIA享有规模约10000名工程师的团队,在全球与顶尖研究人员和最终用户创建协作关系。现在,他们正在为NVIDIA的下一代7nm芯片找寻最佳设计,在我看来,这将是英伟达的产品从“具有AI的GPU芯片”改变为“具有GPU的AI芯片”的改变。图1:NVIDIA的DGX-2超级计算机一体机可在NVSwitch上点对点的16个V100 GPU上获取2 peta-ops的AI性能NVIDIA工程师可以为下一代产品减少多少“沙子”(逻辑区域)?虽然以下分析很非常简单,但对于找寻关键问题的答案是简单的。
让我们从具备出众性能的ASIC——谷歌TPU开始,我看见有分析师估算每个TPU芯片约构建了20-25亿个晶体管。Volta V100在12nm生产工艺中享有约210亿个晶体管,它是台积电可以生产的仅次于芯片。随着NVIDIA用于的生产工艺从12nm变成7nm,芯片可以包括约1.96(1.4x1.4)的晶体管。
因此,从理论上谈,如果NVIDIA没加到图形逻辑单元(不可否认),它将享有另外200亿个晶体管,这约是TPU逻辑量的十倍。假设逻辑差2倍。在这种情况下,NVIDIA工程师依然有5倍的逻辑单元用作AI功能。
现在,NVIDIA有可能全力以赴提高性能,而非降低成本或功耗。在训练市场,这就是用户必须的——更加较短的训练时间。关于NVIDIA可能会做到哪些改进有很多观点,还包括片上内存或处理器中更加多的TensorCores。
我的观点是,NVIDIA毫无疑问享有可用作芯片创意的储备,就像TensorCores一样。我专访过许多AI芯片初创公司,但我最认同的那些人告诉他我不要高估NVIDIA,也不要指出NVIDIA被锁住在GPU的思维中。NVIDA DLA和Xavier,这两个ASIC和SoC,证明了NVIDIA可以建构各种加速器,而某种程度是GPU。
因此,许多这些创业公司的CEO要求不必NVIDIA的方式,而是首先转入推理小说市场。我指出NVIDIA在训练市场的劣势会长期存在,它现在的问题有可能是芯片成本高,但对于AI训练,客户不愿付出代价。此外,在推理小说市场,NVIDIA的Xavier是令人印象深刻印象的芯片。
深度自学寒武纪发生爆炸不利于可编程性让我们返回寒武纪发生爆炸的点子。NVIDIA认为我们还正处于AI算法研究的早期阶段。比如用作图像处理的卷积神经网络的ASIC有可能(并且完全认同不会)对于其它网络比如GAN,RNN或仍未发明者的神经网络展现出就不会十分差劲。
不过,如果NVIDIA需要解决问题急待解决问题的内存墙问题,GPU的可编程性再行再加NVIDIA工程师联合包含的生态系统,GPU应当可以非常慢地适应环境一种新的神经网络处置形式。NVIDIA早已通过NVLINK创立8个GPU和256GB高带宽(HBM)内存网络,以极高的价格为代价解决问题内存问题。我们被迫等候下一代GPU,以理解它否以及如何解决问题延后和比特率问题,这将必须约10倍HBM性能的内存。
推理小说战争边缘和数据中心推理小说市场需求多样,并且未来将会构建快速增长,但我猜测的是,大众推理小说市场否不会沦为一个尤其具备吸引力的市场。却是,随着更加多公司注目和守住这一市场,产品的最后利润率有可能非常脆弱。现在,一些推理小说很非常简单,但有些推理小说却十分艰难。后者的市场将维持较高的利润率,因为只有配有CPU的简单SoC(比如Nervana)、GPU、DSP和ASIC等不具备并行处理能力的处理器才能为自动驾驶等获取所需的性能。
供职于英特尔的Naveen Rao最近在Twitter上公布的消息透漏, Nervana推理小说处理器有可能是基于10nm的 SoC,构建Ice Lake CPU内核。NVIDIA早已引导了这种方法,比如用作自动驾驶的Xavier SOC。Xilinx也使用了类似于的方法,今年晚些时候,它的Versal将发售。
想用这样的方式的任何创业公司都必须不具备两个特性:1)十分低的能耗比,2)创意的产品路线图,这将使他们能获得领先。结论总之,我将特别强调以下内容:1. 人工智能的未来必须专用芯片,专用芯片的市场将显得极大。
2. 世界上仅次于的芯片公司期望在未来的AI芯片战争中获得胜利。虽然英特尔正在追上,但不要高估它能做到些什么。3. 有很多资金充裕的初创公司,其中一些不会取得成功。
如果你想要投资一家,请求保证他们会对NVIDIA的实力不屑一顾。4. 未来5年,中国将在相当大程度上挣脱美国的人工智能技术。5. NVIDIA享有多达10000名工程师,其下一代为AI设计的高端GPU可能会给我们带给惊艳。6. 推理小说芯片市场将快速增长,并且在特定应用领域也有市场空间。
FPGA,尤其是Xilinx的下一代产品可会在这一领域充分发挥最重要起到。(公众号:)编译器,via forbes 涉及文章:2018年全球最有一点注目的AI芯片初创公司芯片巨头们2019年的AI芯片之争不会如何?原创文章,予以许可禁令刊登。
下文闻刊登须知。
本文来源:优德88-www.loupanzhan.com