ai和单位太多炸的ai芯片是cpu吗吗

那么多AI处理器,如何给他们跑个分? - EDN电子技术设计
“日,中国人工智能产业发展联盟(AIIA)总体组组织了人工智能芯片Benchmark研讨会,正式启动人工智能芯片Benchmark项目。”可以看到,随着越来越多的AI芯片走上舞台,如何对它们进行评测和对比越来越受到关注。我之前就通过两篇“给DNN处理器跑个分”的文章对这个问题进行了一些初步的讨论。“BenchIP:Benchmarking Intelligence Processor”这篇论文非常系统和深入的讨论了这个问题,并提出相应的Benchmark Suite和Benchmarking Methodololgy。这里我们就结合这篇论文再谈谈这个话题。
BenchIP是专门用于Intelligence Processor(或者说AI芯片和IP)的Benchmark,其功能就是对各种设计进行基准评测,一方面用于客观准确的横向对比,一方面为设计者提供优化的参考。
简单来说,BenchIP的主要工作就是解决“用什么来评测?”和“怎么做评测?”这两个问题。
用什么来评测?
BenchIP中使用的基准测试包括了两种方式,直接使用应用作为基准测试和设计专门的基准测试,分别称为Macrobenchmarks(宏观)和Microbenchmarks(微观)。其中,Macrobenchmarks就是常见的神经网络模型,而Microbenchmarks就是由神经网络中的最常见基本操作(见上表)构成的单层网络。虽然这些选择并不出人意料,但论文给出的设计理由要比选择本身更有参考价值。
从应用的角度来说,Benchmark既要有代表性,又要有多样性,即能够覆盖主流算法和应用场景,同时又要避免不必要的冗余设计(重复的测试)。从架构设计(优化)的角度,Benchmark还需要能能够帮助设计者探索一些边界条件和极端情况,并能够反映技术发展的趋势。BenchIP的设计就是为了适应这样的需求。
我们先来看看Macrobenchmarks。Macrobenchmarks直接使用实际的神经网络模型,具有足够的代表性,如原文所说“Thus, BENCHIP has both representativeness and diversity as it well covers 98.72% of the networks that appeared in application domains in the last five years.”)。所以,这里需要说明的主要是这些神经网络模型是否存在很多冗余设计的问题。
为此,论文分析了各个模型的相似度(上图右侧)和相关度(上图左侧)。基本的方法是用一个模型的各个层的操作数量作生成一个特征向量,然后以不同模型的特征向量的欧式距离作为其相似度的表征。这里,这个方法的细节没有介绍,不过其结果和我们对模型的基本认识是相符合的。而从结果来看,Macrobenchmarks选择的这些模型还是具有比较好的多样性的(冗余性不高)。由于Benchmark设计中更重要的覆盖完整的应用特征,这个冗余性的结果是可以接受的。
对于Microbenchmarks来说,它的任务除了评测硬件性能,还需要给设计者进行优化提供帮助。Microbenchmarks用各种单层网络组成,包括Conv., Pooling, FC., ReLU., Sigmoid., LRN., BN., Deconv., Unpooling., LSTM.。从代表性和多样性出发,选择这些基本操作的是比较容易的,相对困难的是每种操作的具体配置(Configuration)。BenchIP给每种操作设计了7种配置,包括三种Normal Configuration (Cfg.A~C),这种配置直接从常用应用中取得;一种Small Configuration (Cfg.D)以及三种Large (extreme) Configurations(Cfg.E~G)(主要用于对硬件架构的压力测试)。
对于这些配置的代表性和多样性,论文也做了一定的分析。其中,为了“定量”分析它们的多样性,论文专门定义了一些“Architecture-independent characteristics”,包括memory,computation和control几个大类。如下图。
这些特征被用来具体描述一个操作的各种配置之间的差异。论文还拿reuse distance(&refers to the number of different data elements accessed between two consecutive reuses of the same element&)这个特征(一般用于分析运算数据的“Locality”)做了个例子,有如下的结果。可以看出不同的配置的ReDist差异很大。
论文对配置选择还有很多的分析。另外,论文还简单分析了一下BenchIP对于未来的技术趋势如何适应的问题。感兴趣的同学可以看看原文。
选择基准测试的用例,是设计Benchmark的基础。这篇论文对用例的选择给出了比较详细的解释和一些定量的分析。当然,Benchmark的设计也是一个与时俱进和经验积累的过程,使用什么样用例、什么样的配置应该会越来越优化。
怎么做评测?
对于一个针对通用处理器的经典Benchmark来说,“怎么做评测”(Benchmarking Methodology)并不是个很大的问题。比如针对CPU的Benchmark,和一般应用程序的编译运行一样,只要用目标CPU的编译工具编译运行就可以得到结果了。但对于神经网络应用来,从model的训练,再到部署的过程比较复杂(目前也可以有end-to-end compiler的尝试,不过离实用还有距离),基准评测如何执行是无法回避的问题。当然,基准测试很大程度上也只是特殊的应用程序,因此,它的实现和运行的大环境和一个普通的应用运行的环境也是类似的。
BenchIP的运行框架如上图所示,可以看出它在很大程度上是基于Caffe Framework的。Benchmark的Specification,包括模型配置文件和参数文件都是按照Caffe的格式(.prototxt,.caffemodel)。另外,BenchIP还提供一个参考输出结果,用来评测待测硬件实现的精度。
一个新的硬件要放在这个Framework中进行评测,首先需要提供符合标准接口的Library,供评测框架调用。BenchIP使用主要使用性能(Performance),功耗(Power),面积(Area)和准确度(Accuracy)作为主要的评价指标,其中前三个是典型的硬件评测指标,而第四个则主要针对NN应用。其中性能和功耗的结果主要应该运行基准测试而获得。对与一个只是原型的新硬件来说,要获得这些结果,它还要提供一定的仿真和Profiling功能。对于Microbenchmarks来说,这些指标就能给设计优化提供足够的帮助了。而对于Macrobenchmarks,BenchIP还提供一些能够更好的反映设计效率的综合性的指标,比如
反映能耗效率的“Operations per Joule”, 反映运算效率的“Operations per second”以及反映芯片面积效率的“Accuracy affected by area savings”等。
最后,论文还用展示了使用BenchIP对三种CPU,三种GPU和两个硬件加速器进行评估的情况。其中的两个硬件加速器使用的是DianNao和Cambricon。
大家对于人工智能处理器的基准测试越来越关注,从另外一个侧面说明硬件架构设计越来越重视实践的检验和细节的优化。而考虑AI硬件领域的基准测试问r题,几乎要覆盖这个领域的所有内容,也让这个问题更加复杂也更加有趣。
除了用什么测试用例更准确,怎么执行这些测试用例更合理也是个问题。比如目前很多神经网络在部署之前都进行了压缩或者其它优化,而这也是对整体的软硬件效率影响很大的因素。如何把这种层次的优化考虑到基准评测的框架当中也是个值得思考的问题。
(本文授权转载自微信公众号StarryHeavensAbove,作者唐杉)人工智能时代传统CPU已经落伍了吗?_网易数码
人工智能时代传统CPU已经落伍了吗?
用微信扫码二维码
分享至好友和朋友圈
(原标题:人工智能时代传统CPU已经落伍了吗?)
第1页:源起于DIY的欲望【中关村在线原创】现在科技领域最火的是什么?人工智能、机器学习、深度神经网络显然是热点中的热点。太多我们认识中的不可能,被强大的机器学习、人工智能给颠覆了。比如去年Deepmind的AlphaGo就在围棋领域就战胜了世界冠军李世石,让人感觉不可思议,在AlphaGo之前的软件,连业余六段左右的高手都赢不了,更遑论顶级职业选手!如果你是程序高手,有想法,是不是可以自己在家也能玩机器学习呢?稍微研究的深入一点,发现完全不是这么回事儿。源起于DIY的欲望笔者有朋友的孩子想在围棋上有所建树。他发现,下围棋的课外辅导班要花钱,找人下指导棋也要花钱,并且随着孩子棋力水涨船高,是以几何级数的价格增加的。他又听说人工智能的围棋已经很厉害了,能不能干脆一次性投资,弄个下围棋很厉害的软件与配置,这样就相当于一直与一个高手下对手棋,对棋力增长是有好处的。日本的天顶围棋(Zen)6软件已经有了很强的棋力前几天DeepZen&Go挑战赵治勋九段以失败告终4路Titan&X,2路至强E5已经很强……我一想,这逻辑也说得通,AlphaGo不也赢了人类高手并且人类在学AlphaGo下棋吗?于是找了找,目前使用6700K处理器的计算机跑日本围棋软件Zen,可以有业余五六段的棋力,但这显然不是他想要的。前几天与赵治勋对弈的deepzen,配置要高很多,核心是2个至强E5&V4与4个Titan&X做GPU计算,虽然不敌赵治勋,但毕竟显示出来了可观的棋力。想拜AlphaGo为师?起码目前还不可能做到前几天Deepmind团队又放出了消息,棋力大涨,明年初开始重新下棋。我突发奇想,反正这老哥也不差钱,如果谷歌团队公开了软件,会不会可以自己弄个单机版的AlphaGo?天天和比李世石更厉害的AI下围棋肯定涨棋更快啊。但是仔细一研究,不是这么回事儿,AlphaGo用的处理器,买!不!到!
第2页:谷歌人工智能的处理器TPU谷歌人工智能的处理器TPU这个表是谷歌发表《自然》杂志论文的时候给出的配置与棋力预估。当时只是说要多少CPU与GPU以及对应的棋力。如果说一个CPU对应一个核心,现在的至强E5V4,已经有22核心的产品了,而如果是对应一个CPU,那么48个CPU可能就要很贵的刀片服务才行了,当然了有万能的淘宝,二手机架式的刀片服务器也贵不到哪儿去。Deepmind团队公布的当时的配置,似乎让人觉得单机版的AlphaGo并非遥不可及,且棋力足够在围棋上战胜人类的AlphaGo就运行在这个系统上在今年5月,谷歌又公布了其自己定制的处理器的细节。谷歌用的并非Intel或是AMD的处理器,而是自己针对机器学习优化过的处理器,并命名为“张量处理单元(tensorflow&process&unit,TPU)。而AlphaGo就是构建在TPU上的。TPU在规格上并不大,但没有更多细节运行神经网络,TPU的每瓦性能更高TPU的作用就是给机器学习的神经网络加速。谷歌对TPU具体怎么工作、有哪些指令都语焉不详,作为局外人能获得的信息有限,甚至连那个半导体工厂代工的都没人知道。谷歌说TPU是一种辅助运算工具,还是要有CPU和GPU的。核心在于TPU是8位的,而我们的处理器是64位,因此在神经网络计算上,TPU的单位功耗贡献的计算能力上,要比传统的CPU有很大的优势,更适合大面积的分布式的计算。
第3页:IBM的TrueNorthIBM的TrueNorthIBM对于计算机模拟神经的计算启动,可能要比其它的企业更早。而研究的起源,也不能说全自主的,而是有外界的因素,那就是DARPA(国防部高级计划研究局),关于这个机构对科技的推动作用,可以参阅笔者之前写的这篇文章,专门介绍了DARPA成立的目的以及成果。点击图片阅读关于DARPA介绍的文章DARPA的SyNapse项目IBM研究模仿大脑的神经计算,也来自于DARPA。自从2008年以来,DARPA给了IBM5300万美元用来研究SyNapse(Systems&of&Neuromorphic&Adaptive&Plastic&Scalable&Electronics(自适应可伸缩神经系统,缩写的SyNapse单词正好是触突,神经的构成部分),而TrueNorth只是这个项目的一部分成果而已。我们今天计算机的冯·诺依曼架构IBM的TrueNorth芯片这项研究的意义是,我们今天的计算机,处理和存储是分离的,高度依赖总线进行数据传输交换,即所谓冯·诺依曼体系。我们大脑的处理方式则不同,要知道神经的传输速度并不快,但是大脑的优势是脑细胞多,靠的是大量分布式的处理,现有的模仿大脑的办法,还是依赖处理器的数量堆积,所以能效比不高,而IBM的TrueNorth则是要打破这个屏障,在芯片上就完成对神经元的模拟。2011年的原型就有256个神经元的原型。TrueNorth的架构,左边是256个核,右边是每个核的结构,用来模拟人的大脑计算机识别动态视频中的每个车、每个人,以前只在电影和美剧里面有类似的情节,但现在正在实现2014年,IBM的可编程神经元达到了4096个,可编程触突2.56亿,联合神经处理器有4096个。可以说IBM的Truenorth是无心插柳,研究启动的早,业内深度学习热、神经网络热的时候,这颗处理器也成熟了,在IBM和DARPA的网站上,都有给予这个芯片进行视频内容识别计算的成果演示,非常有意思,可以去看看。
第4页:微软的FPGA微软的FPGA微软启动Project&Catapult还是在2012年。当时微软的掌舵人还是史蒂夫鲍尔默。微软发现,硬件提供商无法提供他们需要的硬件。过去微软每年都要花费数十亿美元来购置硬件,但现有的硬件对机器学习这些搜索算法,现有的硬件效率很低。FPGA芯片当年比特币挖矿机,FPGA显示出来比显卡高效、省电得多的特性微软的路线是是通过FPGA(field&programmable&gate&arrays,现场可编程门阵列),它的特色是进行并行计算。还记得几年前的比特币狂潮吗?最开始人们是依赖显卡或是GPU,到后来矿机的出现,就是用的FPGA的能力来进行挖矿,当时也有疯狂的人挖到了第一桶金。运行Bing页面排名服务下,FPGA协助与没有协助的对比微软的FPGA被应用到了包括bing搜索引擎等领域,能够显著的提升效率。FPGA虽然编程困难,但是微软正在尝试将更多的应用,比如Office365等,加入到通过FPGA来提升服务质量上。微软的FPGA来自Altera,有趣的是,英特尔以167亿美元收购了这个公司,是英特尔史上最大的并购。
第5页:英特尔:研发与收购并驾齐驱英特尔:研发与收购并驾齐驱前面我们说了,微软和英特尔这对长期的伙伴,在微软的FPGA使用的是来自Altera的技术,英特尔就收购了这个FPGA与SoC的企业,现在再访问Altera的官网,已经是我们熟悉的Intel的Logo加上FPGA了,并且内容上也是机器学习、自动驾驶等热门内容。FPGA的企业Altera已经被英特尔收购当然英特尔作为处理器、半导体领域的翘楚,对行业的观察要比别人透彻得多。虽然旗下产品多来自于传统CPU,但是英特尔一样有核心产品,在机器学习领域有竞争力,那就是至强phi融核处理器与至强phi协处理器。左边是至强Phi融核处理器,右边是至强Phi协处理器英特尔至强Phi的性能发展顺序是这样的,英特尔现有的至强phi协处理器用来加速计算,后推出的之前phi融核处理器。融核处理器通过英特尔OPA来改变高性能计算的能耗效率与空间效率。在英特尔的官方新闻中,我们也看到了英特尔关于至强phi在加速机器学习的速度表现。当然了,英特尔也没停止收购的步伐,有很多人工智能领域的公司被英特尔收入囊中。
第6页:如果我想从事该领域?如果我想从事该领域?作为最火的领域,人工智能、机器学习、深度神经网络这些词语见诸媒体很多,并且基本上企业开出的薪水+股票都非常诱人,可以说能人处于哄抢状态,价高者得。还记得AlphaGo的Deepmind吗?它们最近也有招聘启事。Deepmind对于研究科学家的学术要求从招聘的信息看,如果想成为Deepmind的研究科学家,一般来说要有神经、计算机领域的博士(PhD)头衔以及靠谱的论文,他们才会考虑了,当然其它岗位可能要求会低一些。现在虽然火爆,但是实际上深度神经网络系统并不是太多因此,高薪并从事前沿研究,并非那么容易,在看本文的读者群中,肯定有大学的在校生,多读书、努力学习,考上世界一流大学的计算机、神经等领域的专业,是从事机器学习、深度神经网络、人工智能这些领域的捷径,并且我们可以看到,专门为机器学习优化的硬件其实刚刚上路,未来很长的时间内,这个领域依旧会持续火热,因为世界上的深度神经网络系统其实也并不多。一些网站给出的全球最好的计算机科学领域的大学排名
一个人的命运啊,当然要靠自我奋斗,但是也要考虑历史的进程。而历史刚刚打开人工智能的窗口,距离里面的殿堂还有很长的路要走,这个历史的机遇已经在面前了,是自我奋斗改变命运的时刻了,少年们。回归本文题目的问题,事实上今天的机器学习、人工智能,最多的还是至强+GPU的架构,但是定制的TPU、FPGA进行协处理,有事半功倍的效率。笔者个人认为,目前的形式恐怕已经不是效率最高的办法,在未来机器大脑或许真的比我们更聪明。
本文来源:中关村在线
责任编辑:"王晓易_NE0011"
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:   
:        
:         
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈当前位置:首页&
到&<input class="tp_input01" type="text" id="yt_top" onkeypress="javascript:var keyNif(window.event){keyNum=event.keyCode}else if(event.which){keyNum=event.}if(keyNum==13){var pageNo=document.getElementById('yt_top'). pageNo = parseInt(pageNo.replace(/(^\s*)|(\s*$)/g, '')); if(pageNo == '' || isNaN(pageNo) || pageNo 1){return alert('请输入正确的页数');}window.location.href='/Article/1831880/'+pageNo+''}"/>页&&<input class="tp_input02" type="button" onclick="javascript:var pageNo=document.getElementById('yt_top'). pageNo = parseInt(pageNo.replace(/(^\s*)|(\s*$)/g, '')); if(pageNo == '' || isNaN(pageNo) || pageNo 1){return alert('请输入正确的页数');}window.location.href='/Article/1831880/'+pageNo+''" value="跳转">末页下一页上一页首页共1/1页
寒武纪的劲敌来了!这家人工智能深度学习AI芯片公司很神秘——可能是今年最大的机会
浏览/回复6926/37
这家神秘的AI
公司很多人还都不了解,但他们的技术和产品足以震撼整个AI芯片行业。相比最近搭载
MATE10手机赚足眼球注意力的寒武纪公司而言,GTI公司2017年9月流片的28nm芯片LightspeeurTM光矛2801S更胜一筹,基于其强悍性能,可轻松实现图片、视频和语音的手持设备本地学习和识别!这是Google和nVidia也没能做到的。韩国某一线手机大厂和美国某领先
公司已经开始和GTI合作。&&&&&&&&&&&&&&&&&&&&&美国GYRF
NOLOGY&INC.(简称GTI)是由美国硅谷资深
芯片行业专家团队创立。成员来自业内知名公司,包括AMD,&Spansion,&TDK,&Legendslicon,&Ominivison,&Cadence,&C-Cube&Microsystems,&C2&Microsystems&and&Amazon&Lab126等,团队在半导体与储存技术方面有超过50个成功项目经历,在卷积网络、分布数据与存储技术领域发表超过40篇期刊,获得100多项专利;被其他论文引用超过5000篇。&&&&&&&&&&&&&&LightspeeurTM光矛系列人工智能芯片是全球首款可同时支持图像与视频,语音与自然语言处理的卷积神经网络及深度机器学习的与用
方案,无论是在训练或是推理模式下,均可提供超高密度的计算性能与卓越的能耗效率。&&&&&&&&&&&&&&这家神秘的公司将在12月7日-8日在无锡举办的CEDA技术创新峰会和人工智能,
领域的行业专家们深入探讨。&&&&&&&&&&&&&&我们从其官网上的论述来体验一下:&&&&&&&&&&&&&&&&&&&&&Lightspeeur(TM)&is&the&first&Neural&Processor&over&the&world&to&run&speech,&Natural&Language&Processing&(NLP),&image&and&video&processing&with&Convolutional&Neural&Networks&(CNN).&&&&&&&&&&&&&&With&superior&Energy&Efficiency&(
/w)&level,&we&have&accelerated&AI&Edge&Computing&and&Datacenter&Machine&Learning&up&to&several&orders&of&magnitude&faster&than&the&competition.&Regardless&of&whether&the&implementation&is&in&training&or&inference&mode,&our&unique,&proprietary&architecture&provides&massive&high-density&processing&power.&Our&design&supports&true,&on-chip&parallelism,&in&situ&computing,&and&eliminates&memory&bottlenecks.&&&&&&&&&&&&&&The&Lightspeeur(TM)&Neural&Processor&supports&neural&networks&like&CNN,&RNN&and&LSTM.&It&also&supports&standard,&open&frameworks&such&as&Caffe,&TensorFlow,&and&MXNet.&Software&Development&Kits&include&turn-key&designs,&system&verification&hardware,&software&and&tools.&&&&&&&&&&&&&&Lightspeeur(TM)光矛系列是全球首款可同时支持图像与视频、语音与自然语言处理的智能神经网络专用处理器芯片方案。Lightspeeur(TM)芯片以其卓越的能耗效率比表现,在人工智能边缘计算与数据中心机器学习领域相比市场上其他方案高出几个数量级(敲黑板,划重点)。&无论是在训练模式或是推理模式下,Lightspeeur(TM)芯片均可提供超高密度计算性能,成功克服了由存储器带宽而导致的性能瓶颈,支持真正的片上并行与原位计算。Lightspeeur(TM)芯片支持CNN,RNN和LSTM等网络模型,同时支持标准的开源框架,如Caffe,&TensorFlow和MXNet。
包提供一站式开发套件。&&&&&&&&760)this.width=760" onclick="self.open(this.src);" class="lazy" src="placeHolder.png"
data-original="https://image.taoguba.com.cn/img//zsycacu9ovwi.jpg@!topic">&&760)this.width=760" onclick="self.open(this.src);" class="lazy" src="placeHolder.png"
data-original="https://image.taoguba.com.cn/img//qvunkasj04si.jpg@!topic">&&&&&&&图片来自官网(绿柱子代表性能效率)&&&&&&&&&&&&&&看图表,光矛的效能比高出市场主流方案(哪家?)、DSP方案、GPU方案(nVidia)一大截,用官方的话叫做“几个数量级”。&&&&&&&&&&&&&&&&&&&&&光矛(R)&2801S采用28nm工艺,并已进入量产阶段,实测功能如下:&&&&&&&&&&&&&&&&&&&&&1,&效率能耗比为9.3Tops/W&&&&&&&&&&&&&&2,&单芯片峰值运算能力5.6Tops,运行VGG网络可到130FPS&&&&&&&&&&&&&&3,&在功耗180毫瓦下,运行VGG网络可达30FPS;运行AlexNet网络可达48FPS.&&&&&&&&&&&&&&4,&ImageNet&图像分类运行网络精度:VGG为66%,Alexnet为58%,&&&&&&&&&&&&&&&&&&&&&令人感到恐怖的性能!&&&&&&&&&&&&&&该芯片无需外挂DDR,多芯片可无缝连接,支持更强大计算要求的AI应用如AI服务器、自动驾驶、智慧安防和复杂条件下工业应用等不同场景。对比这些天吊炸天的寒武纪,据论文数据,DianNao的功耗、频率和吞吐率数据为485mW,1GHz,450GOps/s,即效率能耗比大概0.928Tops/W,寒武纪的这一数据已经秒杀了市场上大多数AI芯片方案而引起了全行业的广泛关注,而Lightspeeur(TM)2801S的效率能耗比达到了令人恐怖的9.3Tops/W,是寒武纪DianNao的整整10倍!而下一代更强大的光矛将于2018年2月诞生,这速度。。。。&&&&&&&&&&&&&&&&&&&&&让我们关注这家神秘且强大的AI芯片公司——GTI,Gyrfalcon&Technology&Inc。&&&&&&&&&&&&&&-------------------------------------------------------&&&&&&&&&&&&&&&&&&&&&附上刘杰博士刚刚发表的文章,让我们一窥GTI光矛的威力:&&&&&&&&&&&&&&&&&&&&&人工智能究竟能为我们带来什么?&&&&&&&&&&&&&&我最近看到这样一颗AI芯片,在一个简单的开发板上,没有外置的存储器,通过训练每秒能识别150张图标。该芯片的联合创始人董琪先生说,这颗AI芯片的一个功能,可以把手机变成寻宝器,鉴别奇珍异宝。比如说,你把
在手机中,到西部地区有人给你兜售冬虫夏草,那里是没有网络信号的偏远地区,你对着产品拍照,手机马上就会告诉你冬虫夏草的真伪和品质等级,即时处理,非常快。&&&&&&&联想到现在公安部门追捕罪犯时运用的
,需要后台计算识别,结果延时造成嫌疑人已经离开摄像机覆盖区域。未来通过这款芯片强大的声音和图像处理能力,无需再把图片传送到后台,即时识别,犯人再也无处可逃。&&&&&&&&&&&&&&GTI带来人工智能芯片的革命&&&&&&&&&&&&&&这款芯片由GTI&出品!GTI,全称是Gyrfalcon&Technology&Inc.,由一批有创新情怀的硅谷华人人工智能科学家和半导体芯片行业的资深工程专家及企业家组成的团队,&Gyrfalcon(海东青)是一种以飞行速度迅疾著称的鸟。公司的使命是将“云+人工智能”的力量延展到本地设备上并使其获得更大的性能和效率,专注开发低功耗、高性能人工智能处理器的芯片。&&&&&&&&760)this.width=760" onclick="self.open(this.src);" class="lazy" src="placeHolder.png"
data-original="https://image.taoguba.com.cn/img//9z2ac66kn3i0.jpg@!topic">&&&&&&&&&&&&&&&我过去曾担任EETImes总编12年,造访无数硅谷领先的半导体公司,GTI的团队依然让我惊艳。&这是一群硅片上的冲浪高手组合,他们精通芯片工艺和算法,整合全球领先的技术,像工匠一样精心雕琢出产品。“我们希望用高性能和低功耗的产品服务
和创新,加速中国人工智能的产业化进程。”董先生告诉我,&“我们未来将为中国的工程师和开发者提供技术支持,让中国的开发者用我们的芯片开发出更酷的创新产品。“&&&&&&&&&&&&&&GTI与NVidia和寒武纪的区别&&&&&&&&&&&&&&现在活跃在AI芯片领域的,形成影响力的有Nvidia和华为麒麟970&带红的寒武纪等中国新星,他们也有不少创新。但是大部分品牌能做到在终端产品内大容量本地计算,不用后台计算机支撑吗?功耗方面,他们和GTI同级别的产品显然有很大的差距。&&&&&&&GTI的芯片能真正实现图片,视频和语音在手持设备的本地学习和识别!&&&&&&&我看到了真实的开发板演示,才敢相信这是真实存在的。&&&&&&&人工智能是对人类能力的增强!董先生的想法是让GTI的芯片给更多有才华的工程师和开发者带来新的创新空间。低功耗和高性能同时具备是GTI的核心竞争力。据董先生介绍,未来GTI的第二代芯片产品的功耗将做到更低,明年上半年将会出品。我认为这样的超低功耗配合GTI强大的声音和图像处理能力这些将为智能终端领域带来颠覆性的改变!更多个性化的产品,更多基于SDK的二次开发,不仅仅是产品的改变,新的商业模式也会出现,值得大家共同期待!&&&&&&&&&&&&&&人工智能发展阶段和革命点&&&&&&&&&&&&&&人工智能发展40年,经历两个维度和两个阶段技术路线。&&&&&&&第一个维度是早期基于专家系统的人工智能,是建立在人的经验基础上,根据专家决策思路来判断。它不能超越人的智慧,但也通过计算机超算能力把只有专家才能解决的问题,变成机器辅助决策系统。&&&&&&&第二个阶段是基于神经元理论的深度学习人工智能路线,它是人告诉机器特征要素,机器根据特征要素去自己学习。就像妈妈教孩子,这一只鸟,机器记住鸟的特征,下次见到鸟的图片就知道是鸟。机器学多了就能区别麻雀、鹦鹉和老鹰,变的聪明起啦。第二个维度是AI芯片的技术路线,早期是用CPU计算能力实现,发展到基于GPU的AI芯片,在图形处理效率上改善计算效率,它的特点是把图片存储起来,通过比对来识别和学习。它的特点是存储量大,需要后台计算机支撑、计算量大、决策时间功耗大。&&&&&&&我认为,中国要抢占人工智能的至高点,走产业化的道路,要解决的关键问题就是芯片的低功耗和高性能的平衡!&&&&&&&那么,有没有一种不用存储图片,占有几百K-几兆字节存储空间,而仅存储图片特征值,从而减少存储,减少计算量,完全本机实现学习和决策的芯片途径?&&&&&&&人工智能领域的竞争就是一场芯片革命!我看到董先生沿着卷积神经网络的路线,实现深度学习的AI处理器。他的团队由一批有情怀的硅片人组成,真正做到低功耗、计算快和无需芯片外数据交换的终端应用,这颗芯片实现了革命性的创新!&&&&&&&&&&&&&&GTI的芯片性能&&&&&&&&&&&&&&GTI的AI处理器芯片-&“光矛”Lightspeeur(R)&2801S&已于2017年9月成功流片,该芯片拥有高达9.3&TOPS/Watt&的卓越效率能耗比表现,在人工智能边缘计算与数据中心机器学习领域相比目前市场上的其他方案高出几个数量级。它有二低二高特点,低功耗低存储,高并行和原位计算,能有效推动各种人工智能应用在终端侧及云端的产业化落地。&&&&&&&光矛(R)&基于APiM架构,该架构使用内存作为人工智能处理单元,能够消除在其他架构中的大量数据移动,极大降低功耗。这一架构支持真正的片上并行和原位计算,成功克服了由存储器带宽而导致的性能瓶颈。它有28000个并行计算核,不需要使用外部存储单元用于人工智能推断。&&&&&&&&&&&&&&光矛(R)&支持卷积神经网络,其分布式内存块结构对CNN计算相当友好并且支持多层结构,每层的尺寸可以不同,内置模型压缩算法能够实现快速且低功耗的CNN计算。此外,Lightspeeur(R)&还同时支持Caffe、TensorFlow等主流开源深度学习系统。&&&&&&&&&&&&&&光矛(R)&2801S采用28nm工艺,并已进入量产阶段,实测功能如下:&&&&&&&1,&效率能耗比为9.3Tops/W&&&&&&&2,&单芯片峰值运算能力5.6Tops,运行VGG网络可到130FPS&&&&&&&3,&在功耗180毫瓦下,运行VGG网络可达30FPS;运行AlexNet网络可达48FPS.&&&&&&&4,&ImageNet&图像分类运行网络精度:VGG为66%,Alexnet为58%,&&&&&&&该芯片无需外挂DDR,多芯片可无缝连接,支持更强大计算要求的AI应用如AI服务器、自动驾驶、智慧安防和复杂条件下工业应用等不同场景。&&&&&&&&&&&&&&GTI芯片的产业化进程&&&&&&&&&&&&&&GTI在美国已经与著名的自动驾驶公司启动无人驾驶深度学习的产品合作,与韩国手机品牌开始AI手机方案合作、与日本知名企业合作专用AI服务器、与
业领军企业联合启动AI产品表面检测、以及与国内安防企业筹划真正具备本地AI识别能力的摄像头等等。&&&&&&&在
中,光矛(R)&可用于人工智能推理服务器;在边缘计算中,该设备则可以支持人工智能监控/视频摄像头、智能
/、设备、AR/
产品、语言/
、自然语言处理等多个应用领域。据悉,目前已有多家国内和国际一线工业和科技巨头计划将Lightspeeur(R)&用于其包括服务器、手机、家用IoT、工业
产品和监控摄像头等在内的不同应用中。&&&&&&&在落实几个典型行业应用案例后,GTI未来将在我爱方案网-快包上启动AI处理器应用方案开发中心。这个中心采用众包模式发展AI应用方案,为各行业IOT服务。快包是AI和物联网的开发众包平台,汇聚数千个AI和物联网应用方案,数百万的工程师和开发者团队,&能有效促进物联网领域人工智能发展。&&&&&&&&&&&&&&GTI将出席我爱方案网承办的12月7日-8日在无锡举办的CEDA技术创新峰会和
领袖峰会,与人工智能,物联网,新能源,工控安防,医疗养老领域的行业专家们深入探讨,共同服务国家创新战略,推动人工智能的产业化进程!&&&&&&&&&&&&&&&&&&&&&
相关股票: &&&&&&&&&&&&&&&&&&
关联标签:&&&&&&&&&&
760)this.width=760" onclick="self.open(this.src);" class="lazy" src="placeHolder.png"
data-original="https://image.taoguba.com.cn/img//053oq0b1hi0t.jpg@!topic">&&&&&&&&&&&&&&图片数据来自GTI官网(绿柱代表性能)&&&&&&&&&&&&&&GTI&LightSpeeur2801性能数据:&&&&&&&1,&效率能耗比为9.3Tops/W&&&&&&&2,&单
峰值运算能力5.6Tops,运行VGG网络可到130FPS&&&&&&&3,&在功耗180毫瓦下,运行VGG网络可达30FPS;运行AlexNet网络可达48FPS.&&&&&&&4,&ImageNet&图像分类运行网络精度:VGG为66%,Alexnet为58%&&&&&&&&&&&&&&据论文数据,64nm工艺的寒武纪的NPU(DianNao)的功耗、频率和吞吐率数据为485mW,1GHz,450GOps/s,即效率能耗比大概0.928Tops/W,由于
970芯片已使用16nm工艺制造,因此功耗大大降低,性能提升到FP16下的1.92Tops。而28nm工艺的GTI&LightSpeeur2801S的效率能耗比达到9.3Tops/W,是64nm寒武纪NPU的10倍,是16nm寒武纪NPU的5倍!而明年2月,新的更高性能更低功耗的GTI光矛芯片将诞生,届时又将领先一步!
&用GTI自己的话讲,Lightspeeur(TM)光矛系列是全球首款可同时支持图像与视频、语音与自然语言处理的智能神经网络专用
方案。Lightspeeur(TM)芯片以其卓越的能耗效率比表现,在边缘计算与数据中心机器学习领域相比市场上其他方案高出几个数量级。&&&&&&&&&&&&&&&&&&&&&性能比市场上其他方案高出几个数量级,这句话应该好好理解理解,结合上面的官方图表,我们可知CGI对比的包括各种主流方案、DSP方案以及GPU方案(NVIDIA),通过我们上面的分析可知,甚至比最火爆的寒武纪NPU还要高上5-10倍!&&&&&&&&&&&&&&目前可以了解到的数据是,拿照片识别来对比,GTI光矛2801S识别速度为150张/秒,
970上的寒武纪NPU大概是30张/秒,A11大概是15张/秒,苹果A10大概是7张/秒,GTI可谓秒杀众生,性能残暴!明年2月的光矛第二代还要水涨船高。&&&&&&&&&&&&&&而且CGI的方案不依赖大内存大缓存,不是通过GPU存储大量图片对比的方式来学习判断,用专业的术语叫做“卷积神经网络技术(CNN)”。正是依赖残暴的性能,GTI可以让手持设备真正实现本地深度学习,无需依赖网络,这是google和nvidia都梦寐以求而没有做到的。这种不依赖网络本地深度学习的能力对
尤为重要,要实现L5级别的无人驾驶,本地深度学习能力是必须的,因为高速行驶的
,哪怕你需要0.5秒的网络反馈时间,恐怕一个差错就车毁人亡了。
想吹什么股?我这里有酒,请说出你的翻倍股
先别说,开盘就可抢点货,都知道了,涨停开盘了
寒武纪已经成为全球AI
领域令人瞩目的一颗新星,2016年3月成立,一年半后的2017年8月融资后估值达到10亿美金水平,今后的各轮融资中估值还将暴涨。GTI是小弟,2016年12月才注册成立,可这个小弟手里有神器,甚至已经超过了寒武纪。据悉GTI将于下月7-8日在国内亮相,届时将被广大AI届所熟知,估计新的融资也要启动了。&&&&&&&&&&&&&&&&&&&&&废话说了一堆,发个福利,A股上市公司华西股份(
)拥有GTI8.98%的股份,这是A股中绝无仅有的机会,拥有一家比吊炸天的寒武纪还要屌的深度学习AI芯片公司!&&&&&&&&&&&&&&深交所互动易&&&&&&&11-25&&&&&&&来源:cninfo.com.cn&查看原文&&&&&&&&&&&&&&
投资&问&华西股份(000936)&一村资本
领域成员企业GTI推出革命性视觉识别AI芯片&#上述新闻的一村资本是否为上市公司的下属公司,投资的GTI持股比例多少?谢谢&&&&&&&&&&&&&&华西股份答&巴菲特投资:&您好,截止目前,公司向Gyrfalcon&Technology&Inc.出资金额为449万美元,持股比例为8.98%。感谢您的关注。
大兄弟,赞实事求是,真不是瞎吹啊!&&&&&&&原帖由成都小游资在&19:24发表&&&&&&&想吹什么股?我这里有酒,请说出你的翻倍股
不错&&&&&&&&&&&&&&原帖由逆风发型不乱在&19:38发表&&&&&&&大兄弟,赞实事求是,真不是瞎吹啊!&&&&&&&&&&&&&&原帖由成都小游资在&19:24发表&&&&&&&&&&&&&&想吹什么股?我这里有酒,请说出你的翻倍股
我也是刚翻出来的,刘博士也是才发文章啊,我也很绝望啊,之前根本就没人知道这是个啥公司!tm华西现在60亿,股价7块多,你们自己看着办吧!
,半年报里华西持有GTI4%的股份,现在互动易公司回复持有8.98%的股份,应该是9月光矛2801S流片成功后追加了认购权利。
垃圾和国大科创和寒武纪毛关系都没一根,都tm跟着爆炒几天,这实打实超过寒武纪的GTI不知道怎么算好伐。
28nm的GTI&LightSpeeur2801s已秒杀16nm寒武纪NPU&DianNao性能N倍,不知道下一步14nm的光矛会夸张到什么程度。。。
标的1:,持有Gyrfalcon&Technology,&Inc.9.49%的股权&&&&&&&&&&&&&&&&&&&&&日,经公司总经理办公会讨论通过,同意公司以货币方式向GyrfalconTechnologyInc.出资474.5万美元取得其9.49%的股权,其中第一期出资224.5万美元,第一期出资完成后,公司持有其4.49%的股权;第二期出资250万美元,第二期出资完成后,公司将持有其9.49%的股权。截至本报告披露日,公司已完成第一期出资,取得GyrfalconTechnologyInc.4.49%的股权。&&GyrfalconTechnologyInc.是于日在美国特拉华州注册设立的有限公司,该公司以美国硅谷为研发中心,主要从事
设计。公司增资前,GyrfalconTechnologyInc.的股份总数为800万股,其中YANGLin持有18.75%的股权,DONGQi持有31.25%的股权,Vortex持有12.50%的股权,其余
持有37.50%的股权。&&&&&&&&&&&&&&&标的2:,可以持有Gyrfalcon&Technology,&Inc.9.49%的股权&&&&&&&报告期内,经公司投资决策委员会审议通过,公司向美国GyrfalconTechnologyInc.出资224.5万美元,取得GyrfalconTechnologyInc.股权4.49%。同时,公司保留权利在一定条件下向GyrfalconTechnologyInc.再次出资250万美元,并再次取得5%股权的权利。GyrfalconTechnologyInc.主营业务为人工智能卷积神经芯片设计与开发。&&&&&&&&&就这两个。之前的股本结构如下,Gyrfalcon&Technology,&Inc.是于日在美国特拉华州注册设立的有限公司,该公司以美国硅谷为研发中心,主要从事人工智能芯片设计。公司增资前,GyrfalconTechnologyInc.的股份总数为800万股,其中YANGLin持有18.75%的股权,DONGQi持有31.25%的股权,Vortex持有12.50%的股权,其余自然人持有37.50%的股权。
查了一下,半
里也持有4.49%的股份,并有认购另外5%的权利,不知道是否已完成,估计也会完成。在互动易里明确表示已完成,现在持有8.98%。
感谢老兄的挖掘。&&&&&&&&&&&&&&原帖由专注割韭菜在&19:51发表&&&&&&&标的1:,持有Gyrfalcon&Technology,&Inc.9.49%的股权&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&日,经公司总经理办公会讨论通过,同意公司以货币方式向GyrfalconTechnologyInc.出资474.5万美元取得其9.49%的股权,其中
&不过总体来说,寒武纪在人才储备,知识积累,资金储备,国家支持,合作伙伴方面都远远领先于Gyrfalcon&Technology,&Inc.,所以这种头部优势的科技企业来说,寒武纪才是比较有投资价值的公司。
出资449万美元持有8.98%股份,这样的袖珍公司有什么出息?
500万美元10%估值只有3亿人民币啊
从扶植力度上来讲是这样的,但AI这个领域最终还是拼的技术水平,有实力的公司成长会是光速一般的,寒武纪在国内一定会发展很好,但AI涉及到生活的方方面面,容得下N个伟大的公司。&&&&&&&&&&&&&&我也研究了下寒武纪的NPU,据知乎大神说本质上不是深度学习IC,更无法完成本地化深度学习,而CTI的光矛可以实现本地化深度学习,可以在
L4-L5在内的高级应用里大展身手。而且据报道,GTI已经与韩国手机巨头(
?)和美国无人驾驶先进公司合作,立足世界,这级别,一点都不必寒武纪差。&&&&&&&原帖由专注割韭菜在&20:03发表&&&&&&&&不过总体来说,寒武纪在人才储备,知识积累,资金储备,国家支持,合作伙伴方面都远远领先于Gyrfalcon&Technology,&Inc.,所以这种头部优势的科技企业来说,寒武纪才是比较有投资价值的公司。
无锡真是太疯狂了。贪婪算法也要人为设个停止条件。
这公司2016年12月才成立,短短4个月后毛都没有就估值5000万美金很差吗?9月份成功流片将奠定未来的价值啊,下一轮融资你再看。
无名小卒而已,何足挂齿?
寒武纪曾经也是无名小卒。&&&&&&&原帖由小楼夜雨在&20:21发表&&&&&&&无名小卒而已,何足挂齿?
初创公司短期内这点估值已经很高了&google&Apple初创的时候估值也不起眼的&&一村资本还是挺牛的
300045比这
这无名小卒的
性能是寒武纪好几倍,
这小公司的深度学习
性能是寒武纪好几倍,效能比也远超Google的TPU,连硅谷另外一家Google的TPU团队创业离职出来搞的芯片也比不上他。深度学习领域基本是唯技术论,谁的技术牛谁就可以爆发式增长。
与储存技术方面有超过50个成功项目经历,在卷积网络、分布数据与存储技术领域发表超过40篇期刊,获得100多项专利;被其他论文引用超过5000篇。&没上市吗,就这些东西,至少30个亿把。
没啥大用,又不是主营
,持股gti,说到底还是财务投资,非主流
看论坛要始终考量自己在消息的第几层
我就静静的看你们吹牛逼
这货最大的吸引力在于,将开创一个微型设备本地化深度学习的新时代,无需依赖网络和
,这是寒武纪和TPU都做不到的。谷歌最近和柯洁对战的Alphago第二代做到了本地化深度学习,但仍然是一个大机器,无法小型化。这对手持设备和
等领域有极大的吸引力。&&&&&&&股价涨跌咱无法左右,我只负责挖掘。
原帖由superego-11-28&08:35发表&&&&&&&我就静静的看你们吹牛逼
我能说昨天跟进的都转到钱了吗?在这种市场情况下多么难能可贵!
深度学习&是一个全新的概念。
到&<input class="tp_input01" type="text" id="yt_bottom"
onkeypress="javascript:var keyNif(window.event){keyNum=event.keyCode}else if(event.which){keyNum=event.}if(keyNum==13){var pageNo=document.getElementById('yt_bottom'). pageNo = parseInt(pageNo.replace(/(^\s*)|(\s*$)/g, '')); if(pageNo == '' || isNaN(pageNo) || pageNo 1){return alert('请输入正确的页数');}window.location.href='/Article/1831880/'+pageNo+''}"/>页&&<input class="tp_input02" type="button" onclick="javascript:var pageNo=document.getElementById('yt_bottom'). pageNo = parseInt(pageNo.replace(/(^\s*)|(\s*$)/g, '')); if(pageNo == '' || isNaN(pageNo) || pageNo 1){return alert('请输入正确的页数');}window.location.href='/Article/1831880/'+pageNo+''" value="跳转">末页下一页上一页首页共1/1页
亲,夜深了,早点休息吧。
还有更多精彩跟帖请用笔名
或其他方式登录:
& 福州淘股网络技术有限公司 上海淘谷资产管理有限公司 版权所有&Taoguba.com.cn&&taoguba.net
增值电信业务经营许可证:闽 B2-
刷新二维码
<li data-money="元
匿名赠送(匿名赠送在帖子下面不会显示您的笔名,显示为神秘嘉宾,此贡献不计算在您的贡献总值中)
友情提示:请勿给私下荐股者打赏
可用积分:&&&&积分
<li class="pc_sencondLine" data-point="积分
<li data-point="积分
<li data-point="1积分
匿名赠送(匿名赠送在帖子下面不会显示您的笔名,显示为神秘嘉宾,此贡献不计算在您的贡献总值中)
友情提示:请勿给私下荐股者打赏
您提的问题,答案每被偷偷听一次,您和回答者都从中分成¥0.4
Ta在48小时内未回答您的提问,积分退回至您的积分账户
使用咖啡卡的原因
涉嫌人身攻击
涉嫌不和谐话题
公布联系方式或广告
政治性或不当言论
备注:使用咖啡卡每次需缴纳发起费与权益费(游戏豆)
确定要删除该回复吗?
同时将此用户拉入黑名单}

我要回帖

更多关于 ai cpu预览 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信