CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。
一月特惠活动:
Xeon双路, 8核32G内存, 240G SSD固态硬盘 ,20M BGP带宽 月租299元
Xeon双路, 8核32G内存, 240G SSD固态硬盘 ,100M BGP带宽 ,显卡免费加装,月租899元
规格 带宽 线路 IP数量 运维无忧 价格
42U 50M独享DGP多线 独立16个 提供7*24小时运维 3333元/月
GPU套餐价格
套餐一、Xeon L5630 双路, 16G内存, 120GBG高性能SSD固态硬盘 ,NV GT730,2G显存(GDDR5),10M独享 ,独立IP , 提供5G免费DDoS攻击防护,月租499元
套餐二、Xeon L5630 双路, 32G内存, 240GBG高性能SSD固态硬盘 ,NV GT730,2G显存(GDDR5),10M独享 ,独立IP , 提供5G免费DDoS攻击防护,月租599元
套餐三、Xeon L5630 双路, 32G内存, 240GBG高性能SSD固态硬盘 ,AMD R7 350,4G显存(GDDR5),10M独享 ,独立IP , 提供5G免费DDoS攻击防护,月租699元
联系人:徐睿 联系方式:17537122095 QQ:177679879 微信:13629897906邮箱:669012669@qq.com 公司网站:www.tttidc.com 公司地址:郑州市金水区花园路居易摩根中心2704
GPU的特点是有很多的ALU和很少的cache. 缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面),获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色。但是由于需要访问dram,自然会带来延时的问题。
GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。
GPU的虽然有dram延时,却有非常多的ALU和非常多的thread. 为啦平衡内存延时的问题,我们可以中充分利用多的ALU的特性达到一个非常大的吞吐量的效果。尽可能多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline就是因为这样。
所以与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所需要的。所以GPU除了图像处理,也越来越多的参与到计算当中来。
GPU的工作大部分就是这样,计算量大,但没什么技术含量,而且要重复很多很多次。就像你有个工作需要算几亿次一百以内加减乘除一样,最好的办法就是雇上几十个小学生一起算,一人算一部分,反正这些计算也没什么技术含量,纯粹体力活而已。而CPU就像老教授,积分微分都会算,就是工资高,一个老教授资顶二十个小学生,你要是富士康你雇哪个?GPU就是这样,用很多简单的计算单元去完成大量的计算任务,纯粹的人海战术。这种策略基于一个前提,就是小学生A和小学生B的工作没有什么依赖性,是互相独立的。很多涉及到大量计算的问题基本都有这种特性,比如你说的破解密码,挖矿和很多图形学的计算。这些计算可以分解为多个相同的简单小任务,每个任务就可以分给一个小学生去做。但还有一些任务涉及到“流”的问题。比如你去相亲,双方看着顺眼才能继续发展。总不能你这边还没见面呢,那边找人把证都给领了。这种比较复杂的问题都是CPU来做的。
总而言之,CPU和GPU因为最初用来处理的任务就不同,所以设计上有不小的区别。而某些任务和GPU最初用来解决的问题比较相似,所以用GPU来算了。GPU的运算速度取决于雇了多少小学生,CPU的运算速度取决于请了多么厉害的教授。教授处理复杂任务的能力是碾压小学生的,但是对于没那么复杂的任务,还是顶不住人多。当然现在的GPU也能做一些稍微复杂的工作了,相当于升级成初中生高中生的水平。但还需要CPU来把数据喂到嘴边才能开始干活,究竟还是靠CPU来管的。 联系我时,请说是在114黄页信息网看到的,谢谢!
【重要提醒】 转发本信息给好友或分享到朋友圈,被转发超过20次,信息将自动置顶一周!