手机cpu是什么意思么

什么是开核 CPU开核是什么意思?
作者:佚名
字体:[ ] 来源:互联网 时间:04-16 16:06:09
CPU开核对于电脑爱好者应该都不会陌生,我们接触最多的是关于CPU开核。一般来说开核是针对AMD处理器,开核是在不增加成本的情况下获取到的处理器最大性能,但并不是所有处理器均支持开核、并且开核不当可能损坏CPU,那么什么是开核?
CPU开核对于电脑爱好者应该都不会陌生,我们接触最多的是关于CPU开核。一般来说开核是针对AMD处理器,开核是在不增加成本的情况下获取到的处理器最大性能,但并不是所有处理器均支持开核、并且开核不当可能损坏CPU,那么什么是开核?以下电脑百事网编辑为电脑爱好者初学朋友简单介绍下。
开核是最具性价比提升处理器性能的方法
 CPU开核是需要具备一定的条件的,主要和CPU核心设计有关,我们知道很多AMD处理器可以实现开核,而Intel处理器却从从来没听过有开核的,这就是因为两者的设计架构不同,AMD处理器符合开核结构,而Intel处理则不具备,因此下文中提到的CPU开核均是针对AMD处理器的。一、什么是CPU开核? 开核就是AMD公司在生产四核的工程中,生产出来的核心不是每个都达到技术要求,为了降低成本和CPU的功耗,于是厂家将没有达到要求的核心屏蔽掉,就有了原生四核架构的双核和三核CPU。开核的意思就是用其他技术手段破解,开启原本就有但是被屏蔽的物理内核。二、如何开核,应该遵循那些原则?CPU开核必须有两个条件:1、必须采用特定编号的CPU。因为AMD在生产一些四核CPU的时候,也许是其中有一个核心有问题,就屏蔽掉了一个核心,然后变成三核心的CPU,比如Athlon II x3 435/440等,只有这些批次的CPU才能够进行开核。
CPU必须支持开核(也就是说其原生核心有多个,只是被屏蔽掉一些)
2、必须采用南桥是SB710或SB750的AMD 7系列或870以上芯片组主板。并且主板的BIOS中要有ACC选项。(ACC全称Advanced Clock Calibration,AMD在SB750/SB710南桥芯片中新加入的辅助超频功能,还具有破解CPU核心的额外作用。)。
主板必须支持开核
 CPU开核的方法: BIOS设置界面进入&Advanced Clock Calibration&子菜单,将&EC Firmware Selection&选项设置为&Hybrid&,并将&Advanced Clock Calibration&选项设置为&Auto&然后保存BIOS退出并重启电脑。当然,开核有时还需要一些运气。另外,有些主板具有一键开核功能,比如华硕M4A88TD-M,只要滑动一下开关就可以开核。一般来说,只要能在&Advanced Clock Calibration&选项菜单里将&Advanced Clock Calibration&设置为[AUTO]外,同时设置&EC Firmware Selection&为[Hybrid],破解就算基本成功。
推荐阅读:AMD速龙IIx4 640如何开核? AMD 640开&六核&教程CPU开核需要注意的问题: 在开核之前最好把CPU频率和HT频率降到一个相对比较低的位置,等开核成功后再慢慢将频率升起来,直到找到一个相对稳定的工作频率。三、开核后的是否稳定及开核后出现问的的对应策略 开核有风险,要开需谨慎:能开核的CPU都是有缺陷的CPU,虽然开核后可以提高CPU的性能,但同样有可能会引起频繁停机或死机,不能进系统,甚至破坏CPU的可能。所以,开核后工作不稳定的话最好就别勉强,以系统可以稳定运行为准。1、开核失败的解决办法 有些主板开核后无法正常启动,主机灯频闪,风扇正常转动,但点不亮,这就是开核失败的表现。那么我们需要做的是将电池抠下给主板放电,清空主板的CMOS,这样CPU就会回到原来的状态,然后重新启动。2、开核后双核变单核或者三核变双核解决办法 开始&运行&输入msconfig 点确定,然后,启动&高级选项&处理器数,打勾,看看里面有没两个选项,如果还是剩下一个那就需要重装系统,一般重装系统后CUP就能够恢复正常。3、开核后死机同时整个机箱的温度大大提升 开核前一定要估算自己的电源和散热器能否带动,散热器一般一个四核处理器专用的原装热管散热器即可,但是电源一定要慎重。如果用户是发热不大功耗较低的中低端显卡的话,推荐开核后使用350W到450W的电源,而如果显卡本身发热和功耗较高,那么推荐使用soow到600W的电源,这样才能保证开核后稳定工作。 介绍到这里,相信大家对开核是什么意思有了比较清晰的认识,AMD不少处理器均支持开核,比如 AMD速龙II 220或AMD速龙II& x3 435处理器均支持开核,开核后实现更多处理器核心,这是最具性价比的处理器性能提升方案,不过需要注意的是开核有一定风险,可能损坏处理器,不过概率相对很小,这点大家需要有一定了解。
大家感兴趣的内容
12345678910
最近更新的内容103591人阅读
性能经验总结(106)
对于初学者来说,CPU是什么、什么是双核、4核、6核、8核等。下面,就以上的问题,我们做出一一解答。
概念:CPU是什么、做什么用、一般CPU是接在哪里的,我们先来看看CPU是什么,CPU既中央处理器、电脑中一个最重要,最核心的东西,市面上能买到的CPU只有两种,一种是INTEL公司生产的,另一种是AMD公司生产的。如图1-1:
上图分别是INTEL和AMD公司两个厂家生产的CPU,CPU主要的工作就是处理和运算数据,所以,CPU运算速度、主频、缓存、核心数,这几个参数就决定了CPU的好坏,CPU的主频越高、缓存越大、核心数越多,这样的CPU运转速度就很快,处理图形图像文件起来,速度就越快,这种CPU的价格就比较贵,下面,我找两款CPU对比来说说他们的好坏。如图1-2:
我们来看看INTEL的CPU G2020和E3-1230这两款CPU的参数对比一下,G2020的主频:2.9G、缓存是一级缓存:128KB、二级缓存:512KB、三级缓存:3MB,核心数:2个,线程数:2个。我们在来看看E3-1230,E3-1230的主频:3.2G、缓存是一级缓存:256KB、二级缓存:1MB、三级缓存:8MB,核心数:4个,线程数:8个。从这两个CPU的参数来看,我们很明显的能够看出来,E3-1230的CPU比G2020的CPU要好很多,那么E3-1230这个CPU安装在我们的电脑上面,他到的运转速度很快,我们运行大型的游戏和处理大型的3D软件时候,就不会感觉到吃力,因为运算的速度很快。CPU一般都安装在主板上面,CPU上面有一个大大的散热片和散热风扇,由于CPU运算速度很快,会产生大量的的热量,这个时候,帮助CPU散热,如图1-3:
从上图,我们可以看出,CPU是安装在主板的CPU插槽上面的,安装的时候,有一定的方向性,INTEL的是CPU的凹槽对准主板上面的凸槽,AMD的CPU安装是金山角和底座的金山角对应,安装CPU的时候,不能使用蛮力,要让他自然的吻合上去,使用蛮力,不是主板上的针弯了,就是CPU的针弯了,一定要注意。
&&&&&&& 我们知道了CPU是什么,CPU安装在什么地方,做什么用,那么,我们在来看看CPU的核心数和线程数是什么意思。我们来看看核心数,核心数越多,代表这个CPU的运转速度越快,性能越好,本来处理一个数据,一核CPU原来是用1个人处理数据,双核CPU用2个人处理同一个数据,4核CPU用4个人去处理同一个数据,那么大家想想,4个人做同一件事情,那肯定比1也人做同一件事情要快。我们明白了核心数越多,我们电脑运行的越快,那么,4核的CPU和双核的CPU在外观上看上去没什么区别,那么我们怎么去区分CPU是6核的还是4核还是双核的,线程数又是什么呢,线程数技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,现在又双核双线程的CPU,有4核4线程CPU,有双核4线程CPU,有4核8线程的CPU,值得注意一下,很多不良商贩,经常糊弄消费者,把双核4线程的CPU当4核CPU卖,这个时候,大家一定要注意,那么,我们可以使用CPU-Z这个软件,检测出我们的CPU是双核4线程,还是4核4线程的,CPU-Z能帮我检测出CPU的完整信息
我们可以明显的看出来,这个是4核4线程的CPU,如果商家给你看设备管理器里面的,系统的设备管理器一般都只能看到线程数,看不到核心数,这里值得大家注意。我们在设备管理器看看我们的CPU的状况,如图1-5:
理器下面,通常情况下,会显示线程数,而不是核心数,比如:4核8线程的CPU,在电脑里面“设备管理器”----“处理器”-----里面会显示8个CPU来,所以,有一些商家把双核的当4核卖,因为4核的CPU要比双核的CPU贵一些。所以,大家购买电脑的时候,一定要使用软件多测试一下,你电脑硬件的信息。好了,赶快检测一下你得CPU,看是什么样的性能。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:394408次
积分:4101
积分:4101
排名:第5273名
原创:141篇
转载:14篇
(4)(1)(3)(1)(7)(56)(37)(4)(1)(1)(2)(17)(13)(4)(3)请大家看下,图中./ncpu用的是什么软件工具?请大家看下,图中./ncpu用的是什么软件工具?关注问题1的回答软件开发工程师
, 陕西英联信息技术有限公司[quote]ibm的工具包,我主要用ndisk64赞同软件开发工程师, 陕西英联信息技术有限公司关注发布122回答32请稍候...CPU上面的白色物质是什么?_硅胶_百科问答
CPU上面的白色物质是什么?
CPU上面的白色物质是什么?我的计算机老发生蓝屏现象,是不是和上面的白色物质减少有关???
提问者:朱陈华
导热硅脂,作用是散热。 导热硅脂的作用是填充CPU与散热片之间的空隙并传导热量。制作再精良的散热片直接和CPU接触难免都有空隙出现,只是过去的CPU发热量不大,核心面积较大才使我们忽视了导热硅脂的作用。现在的CPU尤其是AMD系列,如果不注意硅脂的问题很容易就发生烧毁CPU危险。现在市面上的硅脂有瓶装和管装两种,一般来说管装较好,因为瓶装的硅脂上浮有一层黏性硅胶,我们很难将它和下面的硅脂分开,这样一来就会影响以后的CPU散热。 另外,有好多的发烧友为了让散热片具备更好的导热性能,使用了特种硅脂。这类硅脂里一般都添加石墨粉、金属粉等物质,这样就可以取得更好的导热效果。INTEL的原装硅脂是灰色的,就是因为里面添加了石墨粉,导热性能比较高。只是这种硅脂并不好买,市面上最常见的还是普通的白色硅脂。不过我们也可以利用普通的白色导热硅脂和2B以上的铅笔芯为原料自制特种硅脂。做法很简单就是把铅笔芯放进白色导热硅脂里磨,边磨边与导热硅脂搅拌,等磨到一定程度后,硅脂就会变成灰黑色,这时石墨导热硅脂就做成了。但要注意一点,在制作的过程中要注意磨铅笔时的力道,否则铅笔芯颗粒太大反而会影响导热效果。同样的道理把白色硅脂放入两块铝块之间摩擦也可以做成铝导热硅脂。此外,大家还可以尝试自制其他材料的添加剂,比如锡、铜等。 导热硅胶: 导热硅脂除具有一般硅脂的优良性能外,更突出的是低油离度(趋向于零)、更高的导热性及热稳定性,可用作无线电功率晶体管和半导体晶体管的填充热传导体,既绝缘又散热。 导热硅胶的作用和导热硅脂一样,都是为了导热和粘合。硅胶的种类比较多,颜色也不一样,但是有一个共同特点就是:低温下凝固(固态),高温溶解(粘稠液态),具有导热性。通常一些散热块底部都有一些导热硅胶,其工作原理:第一次使用的时候导热硅胶被CPU高温熔化然后均匀粘合CPU和散热片,由于散热片紧密接触CPU以后,在散热片的作用下温度很快降下来,于是CPU就和散热片通过导热硅胶紧密地联结起来了。 需要注意的是,如果你单独去购买导热硅胶,必须要看清楚购买的是否是导热硅胶!因为在工业上有一种硅橡胶粘结剂,外观像白色牙膏状,它的特点是防水、绝热、耐高温,其特性刚好和导热硅胶相反。我的一位同学去购买的时候就遇到了奸商,买了硅橡胶回来涂在散热片上以后,散热片居然一点热量都没有而且CPU和散热片粘在一起,取不下来,非常麻烦!!!所以大家在购买时一定小心!!! 导热硅胶的导热能力没有导热硅脂好,所以我建议大家购买导热硅脂。只是在安装显卡芯片的散热片时如果没有固定的卡子,我们才考虑使用导热硅胶。 双面胶: 现在有不少人用双面胶代替散热垫片,非常方便,但散热效果却很差,尤其是在高温的时候,双面胶有融化的危险,甚至会冒出气泡,造成一些无效的散热接触面,使芯片处于过热状态。所以严禁在CPU上使用。多数时候在发热量不高的显卡和主板芯片上起粘合作用。
回答者:石忻高
Mail: Copyright by ;All rights reserved.CPU 和 GPU 的区别是什么?
首先需要解释CPU和GPU这两个缩写分别代表什么。CPU即中央处理器,GPU即图形处理器。其次,要解释两者的区别,要先明白两者的相同之处:两者都有总线和外界联系,有自己的缓存体系,以及数字和逻辑运算单元。一句话,两者都为了完成计算任务而设计。两者的区别在于存在于片内的缓存体系和数字逻辑运算单元的结构差异:CPU虽然有多核,但总数没有超过两位数,每个核都有足够大的缓存和足够多的数字和逻辑运算单元,并辅助有很多加速分支判断甚至更复杂的逻辑判断的硬件;GPU的核数远超CPU,被称为众核(NVIDIA Fermi有512个核)。每个核拥有的缓存大小相对小,数字逻辑运算单元也少而简单(GPU初始时在浮点计算上一直弱于CPU)。从结果上导致CPU擅长处理具有复杂计算步骤和复杂数据依赖的计算任务,如分布式计算,数据压缩,人工智能,物理模拟,以及其他很多很多计算任务等。GPU由于历史原因,是为了视频游戏而产生的(至今其主要驱动力还是不断增长的视频游戏市场),在三维游戏中常常出现的一类操作是对海量数据进行相同的操作,如:对每一个顶点进行同样的坐标变换,对每一个顶点按照同样的光照模型计算颜色值。GPU的众核架构非常适合把同样的指令流并行发送到众核上,采用不同的输入数据执行。在年左右,图形学之外的领域专家开始注意到GPU与众不同的计算能力,开始尝试把GPU用于通用计算(即GPGPU)。之后NVIDIA发布了CUDA,AMD和Apple等公司也发布了OpenCL,GPU开始在通用计算领域得到广泛应用,包括:数值分析,海量数据处理(排序,Map-Reduce等),金融分析等等。简而言之,当程序员为CPU编写程序时,他们倾向于利用复杂的逻辑结构优化算法从而减少计算任务的运行时间,即Latency。当程序员为GPU编写程序时,则利用其处理海量数据的优势,通过提高总的数据吞吐量(Throughput)来掩盖Lantency。目前,CPU和GPU的区别正在逐渐缩小,因为GPU也在处理不规则任务和线程间通信方面有了长足的进步。另外,功耗问题对于GPU比CPU更严重。总的来讲,GPU和CPU的区别是个很大的话题,甚至可以花一个学期用32个学时十几次讲座来讲,所以如果提问者有更具体的问题,可以进一步提出。我会在我的知识范围内尝试回答。
一个是通用计算,一个是专用计算。
CPU主要负责操作系统和应用程序,GPU主要负责跟显示相关的数据处理,GPU的活CPU一般都可以干,但是效率低下,现在也有GPGPU,可以干点CPU的活。
一个Latency oriented一个Throughput orientedCPU会利用较高的主频、cache、分支预测等技术,使处理每条指令所需的时间尽可能少,从而减低具有复杂跳转分支程序执行所需的时间GPU则通过数量丧心病狂的流处理器实现大量线程并行,使同时走一条指令的数据变多,从而提高数据的吞吐量举个GPU通用计算教材上比较常见的例子,一个向量相加的程序,你可以让CPU跑一个循环,每个循环对一个分量做加法,也可以让GPU同时开大量线程,每个并行的线程对应一个分量的相加。CPU跑循环的时候每条指令所需时间一般低于GPU,但GPU因为可以开大量的线程并行地跑,具有SIMD(准确地说是SIMT)的优势。
看了好多,觉得下面这个介绍才是我想要的以及能看明白的,转载自:CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。  于是CPU和GPU就呈现出非常不同的架构(示意图):  图片来自nVidia CUDA文档。其中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。而CPU不仅被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路,相比之下计算能力只是CPU很小的一部分  从上图可以看出:Cache, local memory: CPU & GPU Threads(线程数): GPU & CPURegisters: GPU & CPU
多寄存器可以支持非常多的Thread,thread需要用到register,thread数目大,register也必须得跟着很大才行。SIMD Unit(单指令多数据流,以同步方式,在同一时间内执行同一条指令): GPU & CPU。 CPU 基于低延时的设计:CPU有强大的ALU(算术运算单元),它可以在很少的时钟周期内完成算术计算。当今的CPU可以达到64bit 双精度。执行双精度浮点源算的加法和乘法只需要1~3个时钟周期。CPU的时钟周期的频率是非常高的,达到1.532~3gigahertz(千兆HZ, 10的9次方).大的缓存也可以降低延时。保存很多的数据放在缓存里面,当需要访问的这些数据,只要在之前访问过的,如今直接在缓存里面取即可。复杂的逻辑控制单元。当程序含有多个分支的时候,它通过提供分支预测的能力来降低延时。数据转发。 当一些指令依赖前面的指令结果时,数据转发的逻辑控制单元决定这些指令在pipeline中的位置并且尽可能快的转发一个指令的结果给后续的指令。这些动作需要很多的对比电路单元和转发电路单元。 GPU是基于大的吞吐量设计。GPU的特点是有很多的ALU和很少的cache. 缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面),获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色。但是由于需要访问dram,自然会带来延时的问题。GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。GPU的虽然有dram延时,却有非常多的ALU和非常多的thread. 为啦平衡内存延时的问题,我们可以中充分利用多的ALU的特性达到一个非常大的吞吐量的效果。尽可能多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline就是因为这样。所以与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所需要的。所以GPU除了图像处理,也越来越多的参与到计算当中来。GPU的工作大部分就是这样,计算量大,但没什么技术含量,而且要重复很多很多次。就像你有个工作需要算几亿次一百以内加减乘除一样,最好的办法就是雇上几十个小学生一起算,一人算一部分,反正这些计算也没什么技术含量,纯粹体力活而已。而CPU就像老教授,积分微分都会算,就是工资高,一个老教授资顶二十个小学生,你要是富士康你雇哪个?GPU就是这样,用很多简单的计算单元去完成大量的计算任务,纯粹的人海战术。这种策略基于一个前提,就是小学生A和小学生B的工作没有什么依赖性,是互相独立的。很多涉及到大量计算的问题基本都有这种特性,比如你说的破解密码,挖矿和很多图形学的计算。这些计算可以分解为多个相同的简单小任务,每个任务就可以分给一个小学生去做。但还有一些任务涉及到“流”的问题。比如你去相亲,双方看着顺眼才能继续发展。总不能你这边还没见面呢,那边找人把证都给领了。这种比较复杂的问题都是CPU来做的。  总而言之,CPU和GPU因为最初用来处理的任务就不同,所以设计上有不小的区别。而某些任务和GPU最初用来解决的问题比较相似,所以用GPU来算了。GPU的运算速度取决于雇了多少小学生,CPU的运算速度取决于请了多么厉害的教授。教授处理复杂任务的能力是碾压小学生的,但是对于没那么复杂的任务,还是顶不住人多。当然现在的GPU也能做一些稍微复杂的工作了,相当于升级成初中生高中生的水平。但还需要CPU来把数据喂到嘴边才能开始干活,究竟还是靠CPU来管的。什么类型的程序适合在GPU上运行?  (1)计算密集型的程序。所谓计算密集型(Compute-intensive)的程序,就是其大部分运行时间花在了寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延时。可以做一下对比,读内存的延迟大概是几百个时钟周期;读硬盘的速度就不说了,即便是SSD, 也实在是太慢了。  (2)易于并行的程序。GPU其实是一种SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每一个核在同一时间最好能做同样的事情。
当你操作电脑的时候,为了完成某项工作,需要电脑帮你工作,就像计算某个题目那样。计算题目,理解题目并且整理出解题的步骤以及解法,那是CPU的事情。但是解题的过程需要用到的众多计算,则需要一帮不需要很高逻辑理解力的计算者完成,他们只需要负责其中很简单但是数量又很大的简单运算就行了,最后他们把各自运算的结果交出来给CPU整理,那么这群计算者就是GPU。这就是一个博士带着100个小学生的意思了
gpu与cpu的本质区别是前者拥有为视频运算专门设计的运算单元: 光栅单元和纹理填充单元。除了这两个,两者并无本质区别。
GPU是显示卡的“心脏”,也就相当于CPU在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D 显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体 T&L技术可以说是GPU的标志。GPU 能够从硬件上支持T&L(TransformandLighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了 T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使CPU的工作频率超过1GHz或更高,对它的帮助也不大,由于这是PC本身设计造成的问题,与CPU的速度无太大关系。主要作用今天,GPU已经不再局限于3D图形处理了,GPU通用计算技术发展已经引起业界不少的关注,事实也证明在浮点运算、并行计算等部分计算方面,GPU 可以提供数十倍乃至于上百倍于CPU的性能,如此强悍的“新星”难免会让CPU厂商老大英特尔为未来而紧张,NVIDIA和英特尔也经常为CPU和GPU 谁更重要而展开口水战。GPU通用计算方面的标准目前有 OPEN CL、CUDA、ATI STREAM。其中,OpenCL(全称Open Computing Language,开放运算语言)是第一个面向异构系统通用目的并行编程的开放式、免费标准,也是一个统一的编程环境,便于软件开发人员为高性能计算服务器、桌面计算系统、手持设备编写高效轻便的代码,而且广泛适用于多核心处理器(CPU)、图形处理器(GPU)、Cell类型架构以及数字信号处理器(DSP) 等其他并行处理器,在游戏、娱乐、科研、医疗等各种领域都有广阔的发展前景,AMD-ATI、NVIDIA现在的产品都支持OPEN CL。 NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念。从此NV显卡的芯就用这个新名字GPU来称呼。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256 位渲染引擎等,而硬体T&L技术可以说是GPU的标志。工作原理简单说GPU就是能够从硬件上支持T&L(Transform and Lighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使CPU的工作频率超过 1GHz或更高,对它的帮助也不大,由于这是PC本身设计造成的问题,与CPU的速度无太大关系。GPU与DSP区别GPU在几个主要方面有别于DSP(Digital Signal Processing,简称DSP(数字信号处理)架构。其所有计算均使用浮点算法,而且目前还没有位或整数运算指令。此外,由于GPU专为图像处理设计,因此存储系统实际上是一个二维的分段存储空间,包括一个区段号(从中读取图像)和二维地址(图像中的X、Y坐标)。此外,没有任何间接写指令。输出写地址由光栅处理器确定,而且不能由程序改变。这对于自然分布在存储器之中的算法而言是极大的挑战。最后一点,不同碎片的处理过程间不允许通信。实际上,碎片处理器是一个SIMD数据并行执行单元,在所有碎片中独立执行代码。尽管有上述约束,但是GPU还是可以有效地执行多种运算,从线性代数和信号处理到数值仿真。虽然概念简单,但新用户在使用GPU计算时还是会感到迷惑,因为GPU需要专有的图形知识。这种情况下,一些软件工具可以提供帮助。两种高级描影语言CG和HLSL能够让用户编写类似C的代码,随后编译成碎片程序汇编语言。Brook是专为GPU计算设计,且不需要图形知识的高级语言。因此对第一次使用GPU进行开发的工作人员而言,它可以算是一个很好的起点。Brook是C语言的延伸,整合了可以直接映射到 GPU的简单数据并行编程构造。经 GPU存储和操作的数据被形象地比喻成“流”(stream),类似于标准C中的数组。核心(Kernel)是在流上操作的函数。在一系列输入流上调用一个核心函数意味着在流元素上实施了隐含的循环,即对每一个流元素调用核心体。Brook还提供了约简机制,例如对一个流中所有的元素进行和、最大值或乘积计算。Brook还完全隐藏了图形API的所有细节,并把GPU中类似二维存储器系统这样许多用户不熟悉的部分进行了虚拟化处理。用Brook编写的应用程序包括线性代数子程序、快速傅立叶转换、光线追踪和图像处理。利用ATI的X800XT和Nvidia的GeForce 6800 Ultra型GPU,在相同高速缓存、SSE汇编优化Pentium 4执行条件下,许多此类应用的速度提升高达7倍之多。对GPU计算感兴趣的用户努力将算法映射到图形基本元素。类似Brook这样的高级编程语言的问世使编程新手也能够很容易就掌握GPU的性能优势。访问GPU计算功能的便利性也使得GPU的演变将继续下去,不仅仅作为绘制引擎,而是会成为个人电脑的主要计算引擎。GPU和CPU的区别是什么?要解释两者的区别,要先明白两者的相同之处:两者都有总线和外界联系,有自己的缓存体系,以及数字和逻辑运算单元。一句话,两者都为了完成计算任务而设计。两者的区别在于存在于片内的缓存体系和数字逻辑运算单元的结构差异:CPU虽然有多核,但总数没有超过两位数,每个核都有足够大的缓存和足够多的数字和逻辑运算单元,并辅助有很多加速分支判断甚至更复杂的逻辑判断的硬件;GPU的核数远超CPU,被称为众核(NVIDIA Fermi有512个核)。每个核拥有的缓存大小相对小,数字逻辑运算单元也少而简单(GPU初始时在浮点计算上一直弱于CPU)。从结果上导致CPU擅长处理具有复杂计算步骤和复杂数据依赖的计算任务,如分布式计算,数据压缩,人工智能,物理模拟,以及其他很多很多计算任务等。GPU由于历史原因,是为了视频游戏而产生的(至今其主要驱动力还是不断增长的视频游戏市场),在三维游戏中常常出现的一类操作是对海量数据进行相同的操作,如:对每一个顶点进行同样的坐标变换,对每一个顶点按照同样的光照模型计算颜色值。GPU的众核架构非常适合把同样的指令流并行发送到众核上,采用不同的输入数据执行。在 年左右,图形学之外的领域专家开始注意到GPU与众不同的计算能力,开始尝试把GPU用于通用计算(即GPGPU)。之后NVIDIA 发布了CUDA,AMD和Apple等公司也发布了OpenCL,GPU开始在通用计算领域得到广泛应用,包括:数值分析,海量数据处理(排序,Map- Reduce等),金融分析等等。简而言之,当程序员为CPU编写程序时,他们倾向于利用复杂的逻辑结构优化算法从而减少计算任务的运行时间,即Latency。当程序员为GPU编写程序时,则利用其处理海量数据的优势,通过提高总的数据吞吐量(Throughput)来掩盖 Lantency。目前,CPU和GPU的区别正在逐渐缩小,因为GPU也在处理不规则任务和线程间通信方面有了长足的进步。另外,功耗问题对于GPU比 CPU更严重。总的来讲,GPU和CPU的区别是个很大的话题,甚至可以花一个学期用32个学时十几次讲座来讲。
gpu的alu多
力气大啥P事都能干,还要协调。GPU
上面那家伙的小弟,老大让他处理图形,这方面处理简单,但是量大,老大虽然能处理,可是老大只有那么几个兄弟,所以不如交给小弟处理了,小弟兄弟多,有数百至数千个,而且是专门只干这行和只能干这行。
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 显卡是什么 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信