芯片与产品产品怎么选


VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

第一:性能 我们选好了IC是要用到產品中的而产品则是要去认证的。从企业生存的角度出发产品是要经过客户的认可的,所以性能必须放在第一位而一个芯片与产品性能的好与坏是不可能一下子就看的出来的,我们可以用以下三种方式来判断其性能如何: 1、看同行产品:如果同行有成功就用案例的话那当然是没问题的,因为谁也不会笨到用自己的产品来为推广商们服务如果有同行(最好是比较大的)的产品里面有用到这个的话,那很鈳能是有没问题的但这一点并不容易做到,因为你不可能轻易的看到同行的核心技术而推广商们说的话,你也不会完全相信 2、工程師推荐:在过去沟通极为不方便的时代,我们遇到技术问题只能靠书本而现在随着网络的发展,沟通也变的极为方便起来各大论坛里嘚大虾们有的是成功经验,而且也很乐意为你提供帮助所以这种情况下我们要看看同行有没有实际应用经验,比如测试结果等 3、买个樣片来试试:这也是最直接的一种方式,好与不好只有自己用过才知道买个样片,做个板考考机,就什么都知道

你对这个回答的评价昰

之前我们公司有采购过索峰的芯片与产品用过几次,可以去问一问有店铺的。

你对这个回答的评价是

下载百度知道APP,抢鲜体验

使鼡百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

}

随着人工智能产业链的火速延伸GPU并不能满足所有场景(如手机)上的深度学习计算任务, GPU并不是深度学习算力痛点的唯一解算力的刚需,吸引了众多巨头和初创公司紛纷进入人工智能芯片与产品领域并形成了一个自下而上的生态体系,接下来本文希望通过不太长的篇幅系统呈现这个缤纷而有趣的囚工智能芯片与产品生态。

一项深度学习工程的搭建可分为训练(training)推断(inference)两个环节:训练环境通常需要通过大量的数据输入,或采取增强学习等非监督学习方法训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据(大数据)和复杂的深度神经網络结构需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间在训练环节GPU目前暂时扮演着难以轻易替代的角色。

推断(inference)环节指利用训练好的模型使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型判断一张抓拍到的人臉是否属于黑名单。虽然推断环节的计算量相比训练环节少但仍然涉及大量的矩阵运算。在推断环节除了使用CPU或GPU进行运算外,FPGA以及ASIC均能发挥重大作用

Array)是一种集成大量基本门电路及存储器的芯片与产品,可通过烧入FPGA配置文件来来定义这些门电路及存储器间的连线从洏实现特定的功能。而且烧入的内容是可配置的通过配置特定的文件可将FPGA转变为不同的处理器,就如一块可重复刷写的白板一样因此FPGA鈳灵活支持各类深度学习的计算任务,性能上根据百度的一项研究显示对于大量的矩阵运算GPU远好于FPGA,但是当处理小计算量大批次的实际計算时FPGA性能优于GPU另外FPGA有低延迟的特点,非常适合在推断环节支撑海量的用户实时计算请求(如语音云识别)
Circuit)则是不可配置的高度定淛专用芯片与产品。特点是需要大量的研发投入如果不能保证出货量其单颗成本难以下降,而且芯片与产品的功能一旦流片后则无更改餘地若市场深度学习方向一旦改变,ASIC前期投入将无法回收意味着ASIC具有较大的市场风险。但ASIC作为专用芯片与产品性能高于FPGA如能实现高絀货量,其单颗成本可做到远低于FPGA

在深度学习的训练和推断环节,常用到的芯片与产品及特征如下图所示:

从市场角度而言目前人工智能芯片与产品的需求可归纳为三个类别:首先是面向于各大人工智能企业及实验室研发阶段的训练环节市场;其次是数据中心推断(inference on cloud),无论是亚马逊Alexa还是出门问问等主流人工智能应用均需要通过云端提供服务,即推断环节放在云端而非用户设备上;第三种是面向智能掱机、智能安防摄像头、机器人/无人机、自动驾驶、VR等设备的设备端推断(inference on device)市场设备端推断市场需要高度定制化、低功耗的人工智能芯片与产品产品。如传闻华为即将在Mate 10的麒麟970中搭载寒武纪IP旨在为手机端实现较强的深度学习本地端计算能力,从而支撑以往需要云端计算的人工智能应用

我们围绕上述的分类标准,从市场及芯片与产品特性两个角度出发可勾画出一个人工智能芯片与产品的生态体系,整个生态体系分为训练层、云端推断层和设备端推断层:

毫无疑问在深度学习的Training阶段GPU成为了目前一项事实的工具标准。由于AMD今年来在通鼡计算以及生态圈构建方面都长期缺位导致了在深度学习GPU加速市场NVIDIA一家独大的局面。根据NVIDIA今年Q2年报显示NVIDIA的Q2收入为达到22.3亿美元,毛利率哽是达到了惊人的58.4%其中数据中心(主要为面向深度学习的Tesla加速服务器)Q2收入4.16亿美元,同比上升达175.5%

面对深度学习Training这块目前被NVIDIA赚得盆滿钵满的市场,众多巨头纷纷对此发起了挑战Google今年5月份发布了TPU 2.0,TPU是Google研发的一款针对深度学习加速的ASIC芯片与产品第一代TPU仅能用于推断(即不可用于训练模型),并在AlphaGo人机大战中提供了巨大的算力支撑而目前Google发布的TPU 2.0除了推断以外,还能高效支持训练环节的深度网络加速根据Google披露,Google在自身的深度学习翻译模型的实践中如果在32块顶级GPU上并行训练,需要一整天的训练时间而在TPU2.0上,八分之一个TPU Pod(TPU集群每64个TPU組成一个Pod)就能在6个小时内完成同样的训练任务。

目前Google并没急于推进TPU芯片与产品的商业化Google在TPU芯片与产品的整体规划是,基于自家开源、目前在深度学习框架领域排名第一的TensorFlow结合Google云服务推出TensorFlow Cloud,通过TensorFlow加TPU云加速的模式为AI开发者提供服务Google或许并不会考虑直接出售TPU芯片与产品。洳果一旦Google将来能为AI开发者提供相比购买GPU更低成本的TPU云加速服务借助TensorFlow生态毫无疑问会对NVIDIA构成重大威胁。

当然TPU作为一种ASIC芯片与产品方案意菋着其巨大的研发投入和市场风险,而其背后的潜在市场也是巨大的:一个横跨训练和云端推断的庞大云服务但目前恐怕只有Google才有如此巨大的决心和资源禀赋,使用ASIC芯片与产品去构筑这一布局——如果将来TPU云服务无法获得巨大的市场份额从而降低单颗TPU的成本Google将难以在这┅市场盈利。但市场的培育除了芯片与产品本身显然是不足够的还包括让众多熟悉GPU加速的研究/开发者转到TPU云计算平台的转换成本,这意菋着Google要做大量的生态系统培育工作

除了Google外,昔日的GPU王者AMD目前也奋起直追发布了三款基于Radeon Instinct的深度学习加速器方案,希望在GPU深度学习加速市场分回一点份额当然AMD是否能针对NVIDIA的同类产品获得相对优势尚为未知之数。

对于现任老大NVIDIA而言目前当务之急无疑是建立护城河保卫其市场份额,总结起来是三方面的核心举措一方面在产品研发上,NVIDIA耗费了高达30亿美元的研发投入推出了基于Volta、首款速度超越100TFlops的处理器Tesla,主打工业级超大规模深度网络加速;另外一方面是加强人工智能软件堆栈体系的生态培育即提供易用、完善的GPU深度学习平台,不断完善CUDA、 cuDNN等套件以及深度学习框架、深度学习类库来保持NVIDIA体系GPU加速方案的粘性第三是推出NVIDIA GPU Cloud云计算平台,除了提供GPU云加速服务外NVIDIA以NVDocker方式提供全媔集成和优化的深度学习框架容器库,以其便利性进一步吸引中小AI开发者使用其平台

核心驱动能力:对于深度学习训练这个人工智能生態最为关键的一环,我们可以看到竞争的核心已经不是单纯的芯片与产品本身而是基于芯片与产品加速背后的整个生态圈,提供足够友恏、易用的工具环境让开发者迅速获取到深度学习加速算力从而降低深度学习模型研发+训练加速的整体TCO和研发周期。一言蔽之这个领域是巨头玩家的战场,普通的初创公司进入这个领域几乎没有任何的机会接下来的核心看点,是Google究竟是否能凭借TensorFlow+Google Cloud+TPU 2.0生态取得对NVIDIA的相对优势以市场份额的量变引起质变。毕竟相比主打通用计算的NVIDIA GPUTPU的ASIC方案当出货量突破一定阈值后,其单颗价格和功耗比均能构成无法忽视的竞爭优势当然,这取决于两个前提条件:一是深度学习主流框架在今后几年不发生重大变化比如深度学习变得不再高度依赖矩阵运算,否则一颗写死的ASIC将失去几乎一切价值二是Google能构筑出足够好用的生态,让众多AI研究/开发者从CUDA+GPU转向Google打破业界对NVIDIA的路径依赖,而这点才是真囸艰难的道路

当一项深度学习应用,如基于深度神经网络的机器翻译服务经过数周甚至长达数月的GPU集群并行训练后获得了足够性能,接下来将投入面向终端用户的消费级服务应用中由于一般而言训练出来的深度神经网络模型往往非常复杂,其Inference(推断)仍然是计算密集型和存储密集型的这使得它难以被部署到资源有限的终端用户设备(如智能手机)上。正如Google不期望用户会安装一个大小超过300M的机器翻译APP應用到手机上并且每次翻译推断(应用训练好的神经网络模型计算出翻译的结果)的手机本地计算时间长达数分钟甚至耗尽手机电量仍嘫未完成计算。这时候云端推断(Inference On Cloud)在人工智能应用部署架构上变得非常必要。

虽然单次推断的计算量远远无法和训练相比但如果假設有1000万人同时使用这项机器翻译服务,其推断的计算量总和足以对云服务器带来巨大压力而随着人工智能应用的普及,这点无疑会变成瑺态以及业界的另一个痛点由于海量的推断请求仍然是计算密集型任务,CPU在推断环节再次成为瓶颈但在云端推断环节,GPU不再是最优的選择取而代之的是,目前3A(阿里云、Amazon、微软Azure)都纷纷探索云服务器+FPGA芯片与产品模式替代传统CPU以支撑推断环节在云端的技术密集型任务

項目在数据中心实验CPU+FPGA方案;而百度则选择与FPGA巨头Xilinx(赛思灵)合作,在百度云服务器中部署KintexFPGA用于深度学习推断,而阿里云、腾讯云均有类姒围绕FPGA的布局具体如下表所示。当然值得一提的是FPGA芯片与产品厂商也出现了一家中国企业的身影——清华系背景、定位于深度学习FPGA方案的深鉴科技,目前深鉴已经获得了Xilinx的战略性投资

云计算巨头纷纷布局云计算+FPGA芯片与产品,首先因为FPGA作为一种可编程芯片与产品非常適合部署于提供虚拟化服务的云计算平台之中。FPGA的灵活性可赋予云服务商根据市场需求调整FPGA加速服务供给的能力。比如一批深度学习加速的FPGA实例可根据市场需求导向,通过改变芯片与产品内容变更为如加解密实例等其他应用以确保数据中心中FPGA的巨大投资不会因为市场風向变化而陷入风险之中。另外由于FPGA的体系结构特点,非常适合用于低延迟的流式计算密集型任务处理意味着FPGA芯片与产品做面向与海量用户高并发的云端推断,相比GPU具备更低计算延迟的优势能够提供更佳的消费者体验。

在云端推断的芯片与产品生态中不得不提的最偅要力量是PC时代的王者英特尔。面对摩尔定律失效的CPU产品线英特尔痛定思痛,将PC时代积累的现金流通过多桩大手笔的并购迅速补充人笁智能时代的核心资源能力。首先以 167 亿美元的代价收购 FPGA界排名第二的Altera整合Altera多年FPGA技术以及英特尔自身的生产线,推出CPU + FPGA 异构计算产品主攻深喥学习的云端推断市场另外,去年通过收购拥有为深度学习优化的硬件和软件堆栈的Nervana补全了深度学习领域的软件服务能力。当然不嘚不提的是英特尔还收购了领先的ADAS服务商Mobileye以及计算机视觉处理芯片与产品厂商Movidius,将人工智能芯片与产品的触角延伸到了设备端市场这点將在本文余下部分讲述。

相比Training市场中NVIDIA一家独大云端推断芯片与产品领域目前可谓风起云涌,一方面英特尔希望通过深耕CPU+FPGA解决方案成为雲端推断领域的NVIDIA,打一次漂亮的翻身仗另外由于云端推断市场当前的需求并未进入真正的高速爆发期,多数人工智能应用当前仍处于试驗性阶段尚未在消费级市场形成巨大需求,各云计算服务商似乎有意凭借自身云服务优势在这个爆发点来临之前布局自己的云端FPGA应用苼态,做到肥水不流外人(英特尔)田另外一个不可忽视的因素,是Google的TPU生态对云端推断的市场份额同样有巨大的野心也许这将会是一場彻头彻尾的大混战。

随着人工智能应用生态的爆发将会出现越来越多不能单纯依赖云端推断的设备。例如自动驾驶汽车的推断,不能交由云端完成否则如果出现网络延时则是灾难性后果;或者大型城市动辄百万级数量的高清摄像头,其人脸识别推断如果全交由云端唍成高清录像的网络传输带宽将让整个城市的移动网络不堪重负。未来在相当一部分人工智能应用场景中要求终端设备本身需要具备足够的推断计算能力,而显然当前ARM等架构芯片与产品的计算能力并不能满足这些终端设备的本地深度神经网络推断,业界需要全新的低功耗异构芯片与产品赋予设备足够的算力去应对未来越发增多的人工智能应用场景。

有哪些设备需要具备Inference On Device能力主流场景包括智能手机、ADAS、CV设备、VR设备、语音交互设备以及机器人

智能手机——智能手机中嵌入深度神经网络加速芯片与产品或许将成为业界的一个新趋势,当然这个趋势要等到有足够基于深度学习的杀手级APP出现才能得以确认传闻中华为即将在Mate 10的麒麟970中搭载寒武纪IP,为Mate 10带来较强的深度学习夲地端推断能力让各类基于深度神经网络的摄影/图像处理应用能够为用户提供更加的体验。另外高通同样有意在日后的芯片与产品中加入骁龙神经处理引擎,用于本地端推断同时ARM也推出了针对深度学习优化的DynamIQ技术。对于高通等SoC厂商在其成熟的芯片与产品方案中加入罙度学习加速器IP并不是什么难事,智能手机未来人工智能芯片与产品的生态基本可以断定仍会掌握在传统SoC商手中

ADAS(高级辅助驾驶系统)——ADAS作为最吸引大众眼球的人工智能应用之一,需要处理海量由激光雷达、毫米波雷达、摄像头等传感器采集的海量实时数据作为ADAS的中樞大脑,ADAS芯片与产品市场的主要玩家包括今年被英特尔收购的Mobileye、去年被高通以470亿美元惊人价格收购的NXP以及汽车电子的领军企业英飞凌。隨着NVIDIA推出自家基于

Vision)设备——计算机视觉领域全球领先的芯片与产品提供商是Movidius目前已被英特尔收购,大疆无人机、海康威视和大华股份嘚智能监控摄像头均使用了Movidius的Myriad系列芯片与产品需要深度使用计算机视觉技术的设备,如上述提及的智能摄像头、无人机以及行车记录儀、人脸识别迎宾机器人、智能手写板等设备,往往都具有本地端推断的刚需如刚才提及的这些设备如果仅能在联网下工作,无疑将带來糟糕的体验。而计算机视觉技术目前看来将会成为人工智能应用的沃土之一计算机视觉芯片与产品将拥有广阔的市场前景。目前国內做计算机视觉技术的公司以初创公司为主如商汤科技、阿里系旷视、腾讯优图,以及云从、依图等公司在这些公司中,未来有可能隨着其自身计算机视觉技术的积累渐深部分公司将会自然而然转入CV芯片与产品的研发中,正如Movidius也正是从计算机视觉技术到芯片与产品商┅路走来的路径

VR设备、语音交互设备以及机器人——由于篇幅关系,这几个领域放在一起介绍VR设备芯片与产品的代表为微软为自身VR设備Hololens而研发的HPU芯片与产品,这颗由台积电代工的芯片与产品能同时处理来自5个摄像头、一个深度传感器以及运动传感器的数据并具备计算機视觉的矩阵运算和CNN运算的加速功能。语音交互设备芯片与产品方面国内有启英泰伦以及云知声两家公司,其提供的芯片与产品方案均內置了为语音识别而优化的深度神经网络加速方案实现设备的语音离线识别。机器人方面无论是家居机器人还是商用服务机器人均需偠专用软件+芯片与产品的人工智能解决方案,这方面典型公司有由前百度深度学习实验室负责人余凯创办的地平线机器人当然地平线机器人除此之外,还提供ADAS、智能家居等其他嵌入式人工智能解决方案

在Inference On Device领域,我们看到的是一个缤纷的生态因为无论是ADAS还是各类CV、VR等设備领域,人工智能应用仍远未成熟各人工智能技术服务商在深耕各自领域的同时,逐渐由人工智能软件演进到软件+芯片与产品解决方案昰自然而然的路径因此形成了丰富的芯片与产品产品方案。但我们同时观察到的是NVIDIA、英特尔等巨头逐渐也将触手延伸到了Inference On Device领域,意图形成端到端的综合人工智能解决方案体系实现各层次资源的联动。

}

我要回帖

更多关于 芯片与产品 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信