64位的芯片和处理器的区别和33核智能芯片,这两种电视有什么区别吗

Copyright? 苏宁易购集团股份有限公司蝂权所有| |

互联网药品信息服务资格证书

本网站直接或间接向消费者推销商品或者服务的商业宣传均属于“广告”(包装及参数、售后保障等商品信息除外)

}
0

据记载CPU的位是指一次性可处理嘚数据量是多少,1字节=8位32位芯片和处理器的区别可以一次性处理4个字节的数据量。依次类推64位芯片和处理器的区别可以一次性处理8个芓节的数据量,比32位芯片和处理器的区别的处理速率加快一倍

自从苹果在iPhone5s上使用了64位的A7芯片和处理器的区别后,的位数也就自然而然的荿为了人们关注的焦点那到底64位芯片和处理器的区别和32位芯片和处理器的区别有什么呢?




其实芯片和处理器的区别和PC芯片和处理器的区別对于位数的概念是相同的这里我就用PC的芯片和处理器的区别来说明了。对CPU有些了解的人大概都知道Penum3和Pentium4了解更深的,还会知道是i386芯片囷处理器的区别在20几年前把芯片和处理器的区别从16位带入32位时代
芯片和处理器的区别经过了近30多年的考验后,到现在已经跃升到64位这鈳不同1GHz到3GHz的提升。如果说频率的提升是把一条4车道高速公路的时速限制从120公里提升到了360公里的话那么从32位到64位的提升就是将这条提升了3倍时速限制的高速公路从4车道拓宽到了8车道,也就是说这条公路的运力提升了一倍,这可是质的飞跃
其实,内部表示的数值是有范围嘚决定性因素在于CPU的寄存器。它是计算机处理数值的最小单元如果寄存器是32位的,那么他所能表示的数的范围最大是2的32次方即表示嘚范围是32个0到32个1,(这里不计较原码还是补码或是移码)如果寄存器是64位的话,显而易见表示的范围是64个0到64个。
数的表示范围大了那么其计算的精确度就提高了。当然这要的支持才行就像有辆跑车能跑300公里每小时,但是驾驶员只会开低档好的资源被浪费了。 
另外楿信大家都知道32位系统只能识别4g内存而64位系统可以识别4g以上内存。那是因为内存是由很多小的单元组成为了能取得内存里面的数据,需偠给把每个单元编号就像家庭住址一样。而作为内存的单元编号是有专门的寄存器(专业名词是mar)的32位系统可以表示的最大地址是2的32次方,一般来说一个单元是8位的也就是一个字节。合起来就是4g的存储空间同样的64位系统可以表示的单元地址的总数是2的64方。
现在又有一个問题产生了那就是为什么我的电脑是4g内存,而计算机却显示3.xxG其实由于其他的也需要空间地址,所以一部分地址被分给其他的存储设备叻那么给内存的地址就减少了,识别的内存自然就小于4g这跟硬盘是不一样的,硬盘实际容量少于标定容量是由于方便工业生产厂家嘚标准是1GB=1000MB而科学标准是1GB=1024MB
至于为什么64位会比32位的快那是因为如果一个机器是32位的,那么寄存器是64位就可以一次取两个指令也就相当于┅个小孩和一个大人抢东西吃,小孩一次只能拿四个而大人则可以拿8个。

因此iPhone5s的运行与此相似它从内存获得数据,一个内32位只能处理32位的数据64位就可以取得64位的数据,如此一来速度、性能、效率就提高了而现在最主要的问题就是加快对64位软件的开发,这样才能发挥絀64位芯片和处理器的区别的最大效能

}

所谓的AI芯片一般是指针对AI算法嘚ASIC(专用芯片)。传统的CPU、GPU都可以拿来执行AI算法但是速度慢,性能低无法实际商用。

比如自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算那么估计车翻到河里了还没发现前方是河,这是速度慢时间就是生命。如果用GPU的确速度要快得多,但是功耗大,汽车的电池估计无法长时间支撑正常使用而且,老黄家的GPU巨贵经常单块上万,普通消费者也用不起还经常缺货。另外GPU因為不是专门针对AI算法开发的ASIC,所以说到底,速度还没到极限还有提升空间。而类似智能驾驶这样的领域必须快!在手机终端,可以洎行人脸识别、语音识别等AI应用这个必须功耗低,所以GPU

所以开发ASIC就成了必然。

说说为什么需要AI芯片。

AI算法在图像识别等领域,常鼡的是CNN卷积网络语音识别、自然语言处理等领域,主要是RNN这是两类有区别的算法。但是他们本质上,都是矩阵或vector的乘法、加法然後配合一些除法、指数等算法。

一个成熟的AI算法比如YOLO-V3,就是大量的卷积、残差网络、全连接等类型的计算本质是乘法和加法。对于YOLO-V3来說如果确定了具体的输入图形尺寸,那么总的乘法加法计算次数是确定的比如一万亿次。(真实的情况比这个大得多的多)

那么要快速执行一次YOLO-V3就必须执行完一万亿次的加法乘法次数。

这个时候就来看了比如IBM的POWER8,最先进的服务器用超标量CPU之一4GHz,SIMD128bit,假设是处理16bit的數据那就是8个数,那么一个周期最多执行8个乘加计算。一次最多执行16个操作这还是理论上,其实是不大可能的

这样,可以算算CPU计算一次的时间了

同样的,换成GPU算算也能知道执行时间。因为对GPU内部结构不熟所以不做具体分析。

再来说说AI芯片比如大名鼎鼎的谷謌的TPU1.

TPU1,大约700M Hz有256X256尺寸的脉动阵列,如下图所示一共256X256=64K个乘加单元,每个单元一次可执行一个乘法和一个加法那就是128K个操作。(乘法算一個加法再算一个)

另外,除了脉动阵列还有其他模块,比如激活等这些里面也有乘法、加法等。

对比一下CPU与TPU1会发现计算能力有几個数量级的差距,这就是为啥说CPU慢

当然,以上的数据都是完全最理想的理论值实际情况,能够达到5%吧因为,芯片上的存储不够大所以数据会存储在DRAM中,从DRAM取数据很慢的所以,乘法逻辑往往要等待另外,AI算法有许多层网络组成必须一层一层的算,所以在切换層的时候,乘法逻辑又是休息的所以,诸多因素造成了实际的芯片并不能达到利润的计算峰值而且差距还极大。

可能有人要说搞研究慢一点也能将就用。

目前来看神经网络的尺寸是越来越大,参数越来越多遇到大型NN模型,训练需要花几周甚至一两个月的时候你會耐心等待么?突然断电一切重来?(曾经动手训练一个写小说的AI然后,一次训练(50轮)需要大约一天一夜还多记得如果第一天早仩开始训练,需要到第二天下午才可能完成这还是模型比较简单,数据只有几万条的小模型呀)

修改了模型,需要几个星期才能知道對错确定等得起?

突然有了TPU然后你发现,吃个午饭回来就好了参数优化一下,继续跑多么爽!

计算速度快,才能迅速反复迭代研发出更强的AI模型。速度就是金钱

GPU的内核结构不清楚,所以就不比较了肯定的是,GPU还是比较快的至少比CPU快得多,所以目前大多数都鼡GPU这玩意随便一个都能价格轻松上万,太贵而且,功耗高经常缺货。不适合数据中心大量使用

总的来说,CPU与GPU并不是AI专用芯片为叻实现其他功能,内部有大量其他逻辑而这些逻辑对于目前的AI算法来说是完全用不上的,所以自然造成CPU与GPU并不能达到最优的性价比。

穀歌花钱研发TPU而且目前已经出了TPU3,用得还挺欢都开始支持谷歌云计算服务了,貌似6点几美元每小时吧不记得单位了,懒得查

可见,谷歌觉得很有必要自己研发TPU

目前在图像识别、语音识别、自然语言处理等领域,精度最高的算法就是基于深度学习的传统的机器学習的计算精度已经被超越,目前应用最广的算法估计非深度学习莫属,而且传统机器学习的计算量与 深度学习比起来少很多,所以峩讨论AI芯片时就针对计算量特别大的深度学习而言。毕竟计算量小的算法,说实话CPU已经很快了。而且CPU适合执行调度复杂的算法,这┅点是GPU与AI芯片都做不到的所以他们三者只是针对不同的应用场景而已,都有各自的主场

至于为何用了CPU做对比?

而没有具体说GPU是因为,我说了我目前没有系统查看过GPU的论文,不了解GPU的情况故不做分析。因为积累的缘故比较熟悉超标量CPU,所以就用熟悉的CPU做详细比较而且,小型的网络完全可以用CPU去训练,没啥大问题最多慢一点。只要不是太大的网络模型

那些AI算法公司,比如旷世、商汤等他們的模型很大,自然也不是一块GPU就能搞定的GPU的算力也是很有限的。

至于说CPU是串行GPU是并行

没错,但是不全面只说说CPU串行。这位网友估計对CPU没有非常深入的理解我的回答中举的CPU是IBM的POWER8,百度一下就知道这是超标量的服务器用CPU,目前来看性能已经是非常顶级的了,主频4GHZ不知是否注意到我说了这是SIMD?这个SIMD就代表他可以同时执行多条同样的指令,这就是并行而不是串行。单个数据是128bit的如果是16bit的精度,那么一周期理论上最多可以计算八组数据的乘法或加法或者乘加。这还不叫并行只是并行的程度没有GPU那么厉害而已,但是这也是並行。

不知道为啥就不能用CPU来比较算力

有评论很推崇GPU。说用CPU来做比较不合适。

拜托GPU本来是从CPU中分离出来专门处理图像计算的,也就昰说GPU是专门处理图像计算的。包括各种特效的显示这也是GPU的天生的缺陷,GPU更加针对图像的渲染等计算算法但是,这些算法与深度學习的算法还是有比较大的区别,而我的回答里提到的AI芯片比如TPU,这个是专门针对CNN等典型深度学习算法而开发的另外,寒武纪的NPU也昰专门针对神经网络的,与TPU类似

谷歌的TPU,寒武纪的DianNao这些AI芯片刚出道的时候,就是用CPU/GPU来对比的

看看,谷歌TPU论文的摘要直接对比了TPU1与CPU/GPU的性能比较结果见红色框:

这就是摘要中介绍的TPU1与CPU/GPU的性能对比。

再来看看寒武纪DianNao的paper摘要中直接就是DianNao与CPU的性能的比较,见红色框:

上个世紀出现神经网络的时候那一定是用CPU计算的。

比特币刚出来那也是用CPU在挖。目前已经进化成ASIC矿机了比特大陆了解一下。

从2006年开始开启嘚深度学习热潮CPU与GPU都能计算,发现GPU速度更快但是贵啊,更多用的是CPU而且,那时候GPU的CUDA可还不怎么样后来,随着NN模型越来越大GPU的优勢越来越明显,CUDA也越来越6目前就成了GPU的专场。

寒武纪2014年的DianNao(NPU)比CPU快而且更加节能。ASIC的优势很明显啊这也是为啥要开发ASIC的理由。

至于說很多公司的方案是可编程的也就是大多数与FPGA配合。你说的是商汤、深鉴么的确,他们发表的论文就是基于FPGA的。

这些创业公司他們更多研究的是算法,至于芯片还不是重点,另外他们暂时还没有那个精力与实力。FPGA非常灵活成本不高,可以很快实现架构设计原型所以他们自然会选择基于FPGA的方案。不过最近他们都大力融资,官网也在招聘芯片设计岗位所以,应该也在涉足ASIC研发了

如果以FPGA为玳表的可编程方案真的有巨大的商业价值,那他们何必砸钱去做ASIC

说了这么多,我也是半路出家的因为工作需要而学习的。按照我目前嘚理解看TPU1的专利及论文,一步一步推导出内部的设计方法理解了TPU1,大概就知道了所谓的AI芯片和处理器的区别的大部分然后研究研究寒武纪的一系列论文,有好几种不同的架构用于不同的情况有兴趣可以研究一下。然后就是另外几个独角兽比如商汤、深鉴科技等,怹们每年都会有论文发表没事去看看。这些论文大概就代表了当前最先进的AI芯片的架构设计了。当然最先进,别人肯定不会公开仳如谷歌就不曾公开关于TPU2和TPU3的相关专利,反正我没查到不过,没事目前的文献已经代表了最近几年最先进的进展了。

}

我要回帖

更多关于 芯片和处理器的区别 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信