内存不够内存会影响显卡吗的性能吗

对比显卡,为什么 CPU 不将体积做大来提高性能?
我的图书馆
对比显卡,为什么 CPU 不将体积做大来提高性能?
【破布的回答(77票)】:
先纠正一个答主的误区。显卡是一整块PCB版,上面很多乱七八糟的元器件,核心的GPU,跟CPU差不了多少。
============================================================================
的回答有一部分比较准确,事实上也跟我在这里的回答有类似
他的回答也有一些瑕疵:
1. 指令调度逻辑在core里面确实比重不小,但是整个die size主要由cache占据,核心是相对小块。
2. ILP limitation远没有这么小,在cache memory跟得上的情况下OoO可以跑得飞起,做10-issue甚至20-issue的想法十几年前业界就有过, 问题是cache memory跟不上,功耗、设计复杂度开销也惊人。最后才放弃。所以说CPU核心逻辑不做大的问题不在于 ILP limitation。
3. 顶级CPU比顶级GPU还大,问GPU为何比CPU die size大是个伪问题。拿i7跟Titan比并不准确,最大的CPU跟最大的GPU差距并没有那么大,AMD的顶级服务器CPU是300mm2开外,Intel的暂时没有公布,从L3 cache上粗看估计已经超过400mm2,如果没有超过400也不会离400很远,IBM Power8是650mm2,比Titan还大。所以说顶级的CPU和GPU die size差距没那么明显,甚至前者更大,只是CPU把大部分面积花在了cache上,GPU大部分花在了ALU上。
4. 从第三点出发,我们都忘了考虑logic和SRAM的density问题。在2001年的时候logic density大致在7 million to 20 million transistors/cm2,SRAM density在35 million transistors/cm2,不知道现在趋势有无变化。如果这个趋势没有变化,那么以logic为主的GPU die size就容易膨胀,CPU的SRAM density做的好的话die size就不容易涨起来。
============================================================================
首先说第一个问题,CPU的die size不能做太大的一大原因是制造成本。这里面有一个经验公式,die size变大的同时,制造成本是指数级地增加。
以下摘自《量化研究方法》第五版
Processing of a 300 mm (12-inch) diameter wafer in a leading-edge technology cost between $5000 and $6000 in 2010. Assuming a processed wafer cost of $5500, the cost of the 1.00 cm2 die would be around $13, but the cost per die of the 2.25 cm2 die would be about $51, or almost four times the cost for a die that is a little over twice as large.
另一面是设计和测试的复杂度。比如说cache增大以后,花在实际存取上的时间已经远少于花在wire delay上的时间,在cache的物理最远距离处存取数据跟在最近处存取数据,延迟可以差上好几倍,这对前端和后端的设计都是挑战。结构设计和逻辑设计的时候必须更多地考虑wire delay,各种信号传播的差时会更严重,对于后端,floorplanning的难度也比以前更大。
设计复杂度上来说先进OoO核心的复杂度是明显高过基于SIMD的GPU流处理器,GPU结构比较规整些,做设计冗余来规避工艺缺陷可能会稍占些便宜。
再说第二个问题,不是CPU晶体管数量翻一倍性能也就会翻一倍,没有这么便宜的事情的。比如cache,在cache容量很小的时候去加容量,性能会提高很快,但是过了一定限度,cache能装下很多程序的核心工作集之后,性能提高就很慢了,多花晶体管就不再划算。在现在的branch predictor里面多花一倍晶体管,铺一张大一倍的记录表,预测准确率也就提高个把百分点,不值得。
对于GPU性能,则是另一回事,把流处理器数量继续往上翻倍,只要碰到数据级并行度,线程级并行度好的程序,它的性能就能跟着往上翻。但我不保证这里的提高是线性。
最后第三个问题。功耗是现在集成电路设计的头号大敌。耗电量本身只是问题的一方面,更重要的是电能转化为热能带来的散热问题,这一点已经非常非常严重了,前Intel副总裁Patrick Gelsinger曾在2001年的国际固态电子电路会议上发表主题演讲,指出当时处理器的功耗正在以指数级速度增长,如果继续按照这个趋势发展而不加以任何节制,则到2005年(距离2001年也就是四年时间)时高速微处理器的功耗密度将媲美核能反应堆,2010年时将与火箭发动机喷口不相上下,2015年时甚至可以与太阳表面并驾齐驱。
你拿什么去冷却核反应堆和火箭发动机喷口。。。所幸自2000年以后对低功耗设计的逐步重视避免了这个灾难性趋势。GPU在SIMD line或者SIMD流处理器层面上做gating比CPU也容易一些,功耗控制能更方便。
【李搏扬的回答(57票)】:
这个问题有点意思。虽然对显卡的尺寸理解不太正确,但是中心思想还是对的。就是用空间来换速度。
传统的CPU属于平铺。在一个平面上越铺越远,距离长了之后传输速度不够,导致不能铺的太大。平铺不行怎么办?那就堆起来嘛。
把内存堆在芯片上。这是最简单的堆法了。苹果在A4芯片之后都采用了这一技术。把内存堆在芯片上。这是最简单的堆法了。苹果在A4芯片之后都采用了这一技术。
堆两层太简单了,堆积木盖大楼要玩高级的。
这个就是真正的3D芯片技术。这个设计的问题不少,包括中心层散热不好解决,线路要从中间层穿过成本高,等等。所以现在还停留在实验室阶段。这个就是真正的3D芯片技术。这个设计的问题不少,包括中心层散热不好解决,线路要从中间层穿过成本高,等等。所以现在还停留在实验室阶段。
3D搞不定,有人提出所谓的2.5D技术。
大概意思好像是说两个芯片下面接一个插线板联通起来。大概意思好像是说两个芯片下面接一个插线板联通起来。
3D集成电路是目前CPU技术的研究热点。各种新主意很多。比如说,针对线路要通过中间层芯片的问题,有人提出用无线通信:
三星去年开始生产一类flash memory chip采用了3D技术。据说一共堆了24层。可以把晶体管密度提高一倍,功耗下降一半,速度提高一倍。三星去年开始生产一类flash memory chip采用了3D技术。据说一共堆了24层。可以把晶体管密度提高一倍,功耗下降一半,速度提高一倍。
【呆涛的回答(6票)】:
首先部分同意
的回答: 先纠正一个答主的误区。显卡是一整块PCB版,上面很多乱七八糟的元器件,核心的GPU,跟CPU差不了多少
然后稍微反对一下
的回答. 额.. 我点赞了.. 但是我觉得你偏题了..
另外: 目前CPU还有显卡不敢用3D IC (事实上在整个ASIC领域都没人敢把3D IC 市场化...)... 因为不可靠. 在wafer(硅晶底座)上面打孔太太太贵了. 注这里的贵不只指花费高, 更是其他附加成本, 比如打孔打不好直接废一整块wafer... 我们老板千辛万苦搞了个Tazarron 3D 的技术, 新加坡做的. 是目前最reliable也是真正可以做出来的3D IC. 仅仅是Face-to-Face, 也就是两篇硅片先做好然后像夹心饼干一样把连线层夹在中间.
TSV技术MIT Lincoln Lab在搞. 但是仅限自己玩玩. 不卖 (哼傲娇的技校不跟我们玩...) ... TCI按目前的技术指标纯属瞎搞(芯片搞出来不靠谱. 连model都没有, 干扰太大完全无法胜任标准计算).
-----------------------------------偏题线----------------------------------------------
那么我们就来看看显卡的"核心部分" 和 CPU大小的比例吧:
首先上CPU, 嗯, 就用i7吧:
i7 Die Size : 160 mm2 (Ivy-bridge E 256.5 mm2 )
再上显卡: GTX系列的:
GeForce GTX TITAN GK110
GeForce GTX 780 GK110
GeForce GTX 680 GK104
显卡里面能跟CPU比的是Chip (GK110). 至于其他栏都是外接配置. 什么意思呢? 就如同CPU也要配个巨大的主板一样. 要是这么算就没法比了对吧~
GK 110 Die Size: 550 mm2
哇啦个擦! 显卡的那玩意还真比CPU大啊! (有歧义...)
且慢~ 让我们看看怎么回事...
i7 使用技术: 22 nm
GK 110 使用技术: 28 nm
好像也没差很远嘛...
Transistor Count (有多少个场效应管):
i7 : Transistors: 1.4 billion (Ivy-bridge E 1.86 billion)
GK 110 : up to 6 billion
发现原因了吗?
在目前的技术条件下, 显卡上面的处理器就是比CPU大! (在此也表示
的回答不完全准确).
CPU处理的是需要许多步骤, 多兼容性的程序语言, 原因在于CPU要控制整个系统按照规定运行某些程序. 所以牛逼的CPU在于架构好, 运行速度快(单条指令),而不是使用大量的冗余. 这主要是在于程序运行的时候, 有时候后条指令需要前面的指令执行完毕才能继续, 那么这种情况下无限制的增加CPU的并行处理能力也无法提升整体的速度.
而显卡正相反, 显卡的工作十分枯燥, 就是重复不断地计算(又叫rendering, 比如说两点之间用某某颜色画一根3D的线然后按照某种标准转了XX度之后这个线要怎么显示之类的...), 但是大多数这些计算是相互独立的, 可以并行. 所以需要大量的计算单位, 甚至一些额外的冗余计算单位以应付高频显存计算. 所以可以粗略的说越牛逼的显卡核心越大.
由于侧重点不同, 两者之间大小差距不是就很正常了吗~
-----------------------------------补充线-------------------------------
多谢 指正, 学习了!
1. 指令调度逻辑在core里面确实比重不小,但是整个die size主要由cache占据,核心是相对小块。 同意, 我表达的不全面。
2. ILP limitation远没有这么小,在cache memory跟得上的情况下OoO可以跑得飞起,做10-issue甚至20-issue的想法十几年前业界就有过, 问题是cache memory跟不上,功耗、设计复杂度开销也惊人。最后才放弃。所以说CPU核心逻辑不做大的问题不在于 ILP limitation。 啊咧。。。我的point就在于无论CPU怎么增加核心, 还是没法根GPU核心数量/并行数量相比的。。。由于设计理念不同。
3. 顶级CPU比顶级GPU还大,问GPU为何比CPU die size大是个伪问题。拿i7跟Titan比并不准确,最大的CPU跟最大的GPU差距并没有那么大,AMD的顶级服务器CPU是300mm2开外,Intel的暂时没有公布,从L3 cache上粗看估计已经超过400mm2,如果没有超过400也不会离400很远,IBM Power8是650mm2,比Titan还大。所以说顶级的CPU和GPU die size差距没那么明显,甚至前者更大,只是CPU把大部分面积花在了cache上,GPU大部分花在了ALU上。 同意! 这点我认为总结的很好!
4. 从第三点出发,我们都忘了考虑logic和SRAM的density问题。在2001年的时候logic density大致在7 million to 20 million transistors/cm2,SRAM density在35 million transistors/cm2,不知道现在趋势有无变化。如果这个趋势没有变化,那么以logic为主的GPU die size就容易膨胀,CPU的SRAM density做的好的话die size就不容易涨起来。 按照MOSIS的指标, 略有涨但是没有本质变化。。。(我记得 32nm SOI是45million?) 不过我们确实没有考虑这个问题 : P
【TianhengChen的回答(3票)】:
我们教授说过一个很有意思的答案:因为cpu不是设计好之后,每次生产都能成功的,是有一定几率出现次品的,次品就要扔掉,就成损失了,而次品率与面积成正相关。所以为了成本考虑,cpu的大小就不能特别大。不然成本会很高
【郭风林的回答(1票)】:
一个不专业人士的不专业回答~
比方说题主是一个公司的老板
将CPU看作这样一个员工:留美博士,聪明,学识渊博,啥都会干,但是要求的薪资也比较高。
显卡则是一群农民工(核心数量/流处理器比较多)。
你们现在有一项工作(搬砖),技术含量不高,但是比较耗费人力,还有一定的工期限制。
请问作为老板的你,是再去招一群博士呢,还是用招一个博士的钱去招十个农民工?
【知乎用户的回答(0票)】:
die面积大了,成本高了;成本高了,价格贵了;价格贵了,买的人少了;买的人少了........
Power8 600mm2+ GTX780Ti 500mm2+貌似CPU比显卡还大点。
【张金戈的回答(0票)】:
问题本身就是错误的;顶级显卡的300W包括了所有芯片的功耗,而且有些显卡是有两颗GPU;
单个CPU限于散热不可能做大。服务器主板可以装多个CPU,比如华硕 Z9NA-D6C,要470W以上的电源。
【陆旭佳的回答(0票)】:
MIC 卡就显卡那么大呀。。如果他也能作为CPU的话。。
【徐小远的回答(0票)】:
cpu的速度和频率有关,频率和一个反相器(构成各种逻辑电路的基本单元)的开关时间有关,这个时间和晶体管的沟道长度有关,也就是平时所说的多少多少纳米。显卡用GPU来计算,这样的任务可以使用并行计算来加速,所以GPU会使用多核技术。CPU则不行,CPU,GPU的大小是指芯片的大小(打开cpu盖子中间那个黑色大拇指甲盖大小的东西)。
【姜恒的回答(0票)】:
因为CPU是为单线程速度优化的,GPU是为上万个线程的总吞吐量优化的。所以CPU核数不会太多,而显卡核数可以说在架构上没限制。
【王天祺的回答(0票)】:
显卡砖头一样大的那个是带板卡的尺寸,cpu不过火柴盒那么大你说的却只是芯片的尺寸。。。
anyway,芯片做大了以后,良率会大幅下跌,价格上涨,而且面积越大布线延迟越大,设计难度也大大增加了,现在芯片虽说封装大了,但是里面也是多个die封在一起的
【十二波十儿卜的回答(0票)】:
其实显卡大主要是因为风扇和散热铜片那一系列的东西,CPU看着小是因为没把风扇那一套设备加上去,而且有些电脑这套设备是共用的没法单独给CPU封装起来
馆藏&70038
TA的推荐TA的最新馆藏
喜欢该文的人也喜欢不玩游戏配个低端显卡会影响整体性能吗
<p class="detail" data-data='配置如下:cpu:inter至强E2300 V3主板:华硕B85-plus内存:普条8GX2显卡:淘汰的geforce9300 GE主硬盘:影驰60G ssd存储硬盘:2T希捷电源:航嘉冷静王钻石版300W机箱ENERMAX大机箱想问一下这样的配置是否会影响性能的发挥'>配置如下:cpu:inter至强E2300 V3主板:华硕B85-plus内存:普条8GX2显卡:淘汰的geforce9300 GE主硬盘:影驰60G ssd存储硬盘:2T希捷电源:航嘉冷静王钻石版
按时间排序
楼主你好,显卡性能的高低不会影响电脑的最基本的性能,但核显就不同了,如果不玩大游戏的话,还是没问题的。
有一定影响,看你跑啥了,现在很多软件对显卡有一定优化的,需要靠显卡跑而不依赖CPU的。所以,是否有影响,全看你跑啥软件了。
显卡性能的高低不会影响电脑的基础性能,但集成显卡(核心显卡)对配置较低的电脑性能有一些影响(内存占用、CPU温度)。如果楼主不玩游戏,用I5或I7比E3 V3更合算一些
显卡影响CPU和主板运行则没有听说过这样的情况,你可以放心使用,不过如果你真的不怎么玩儿游戏的话完全可以考虑集成显卡的G43或者G45主板,还有NVIDIA MCP7A主板,特别是MCP7A,集成显卡性能和你的显卡相差并不大
感谢您为社区的和谐贡献力量请选择举报类型
经过核实后将会做出处理感谢您为社区和谐做出贡献
确定要取消此次报名,退出该活动?性能差一倍!内存对APU性能影响测试
日 00:22&&&出处:&& 作者:陈骋&&
  泡泡网显卡频道8月4日&桌面版Llano APU发布已经一个月了,其最大优势莫过于内建了高性能图形核心,目前最高规格的A8-3850处理器拥有Radeon HD6550D DX11图形核心,性能已经达到主流的水准。因此,Llano十分适合用来组建入门/主流级平台和HTPC。
   曾经表示,中低端独立显卡已经完全没有存在的必要了。确实,600MHz的核心频率,400个流处理器,支持DX11,这样的规格确实是达到了中端显卡的标准,但是,APU中的显卡和独立显卡仍然是有区别的。最主要的区别就是:APU中的“显卡”仅提供了图形核心,仍然需要共享系统内存,而独立显卡则自带显存。
   和Brazos相比,Llano的内存控制器提升为双通道,并且支持最高DDR3-1866MHz,内存带宽、频率都有所提升,这对于APU图形性能的表现有着直接的影响,高频率内存终于有了用武之地。而独立显卡通常配备了GDDR5显存,他们的性能之间依然会存在差距。这次测试,让我们看看在不同内存频率下,APU图形性能的表现,以及与独立显卡间性能的差距。
没有显存是瓶颈!APU共享内存式设计
   GPU对显存带宽的渴求比CPU高,性能越强需求就越高,这也就是为什么需要256bit以上的显存位宽、采用GDDR5超高频率显存的根本原因。要在APU当中整合主流级高性能显卡,那么就必须解决共享显存的问题。
   Llano APU内部整合了一个双通道DDR3内存控制器,单条DDR3内存是64bit双通道就是128bit,基本上可以满足主流独显的位宽要求了。这个128bit控制器也要消耗不少的晶体管,CPU和GPU合用的话可以最大化资源利用。
   整合式内存控制器可以将内存延迟降到最低,此前Intel和AMD都将内存控制器整合在了CPU内部,其优势是显而易见的。不过的待遇就没有这么高了,以往的整合显卡都在北桥之中,需要往共享内存中读写数据的话,必须通过前端总线向CPU发出请求,然后再返还,数据带宽和延迟都不甚理想。
Llano APU内存控制器示意图
   APU就不存在这个问题了,CPU和GPU在内存控制器面前是平等的,都是直接相连,带宽可以最大化利用,延迟可以降到最低。不过共享内存控制器的话,就涉及到争抢带宽的问题了,实际分配到的带宽要比理论值低,尤其是在CPU和GPU负载都很高的情况下。
   但共享内存还有一个最大的好处,那就是APU最擅长的异构计算,当CPU和GPU做大规模并行计算的话,存取的数据都在内存当中,交换数据无需绕过漫长的总线,也无需在内存与显存之间徘徊。共享式内存可以消除CPU与GPU之间最大的瓶颈。
   针对笔记本平台的Llano APU,接口封装为Socket FS1,最高可以支持到双通道DDR3-1600,最大32GB容量,理论内存带宽25.6GB/s,可兼容1.5V标准电压内存条或者是1.35V低压内存条。
   针对台式机平台的Llano APU,接口封装为Socket FM1,最高可以支持到双通道DDR3-1866,最大64GB容量,理论内存带宽29.8GB/s。值得质疑的是,DDR3-1866的频率仅在插两条内存的情况下才能达到,如果插满4条内存的话,官方最高只能支持到DDR3-1600的频率。
测试方法:独显集显同频率对比
   这次的测试的平台依然是目前最高规格的A8-3850加速处理器,CPU主频为2.9GHz,GPU为HD6550D,默认频率600MHz,拥有400个流处理器。测试主要目的是对比不同显存规格的性能差别,因此,A8-3850的测试平台内存设置分别为2GBx2双通道1866MHz、1600MHz、1333MHz以及单通道1866MHz。
   除此之外,我们还加入了两块独立显卡,分别是HD5570的DDR3和GDDR5版,两者除了显存之外没有其他区别,核心架构与A8-3850内建的HD6550D相同,也是拥有400个流处理器,并且将两块独立显卡的核心频率也降至和HD6550D相同的600MHz,测试平台测采用了Athlon II X4处理器,频率降至2.9GHz,与A8-3850一样。两个平台除了显存的差异之外,其他方面的差异降低至最低。
DX10基准:3DMark Vantage
   3DMark Vantage所使用的全新引擎在DX10特效方面和《孤岛危机》不相上下,但3DMark不是游戏,它不用考虑场景运行流畅度的问题,因此Vantage在特效的使用方面比Crysis更加大胆,“滥用”各种消耗资源的特效导致Vantage对显卡的要求空前高涨,号称“显卡危机”的Crysis也不得不甘拜下风。
   测试采用Performance Mode,成绩如下:
   搭配1GB GDDR5显存的性能表现最好,GDDR3显存和DDR3内存的表现差异不大,内存频率的不同也有一点差距,而使用单通道模式内存表现就很大了。
DX11基准:3DMark 11
相关评测:
游戏介绍:3DMark11是一款纯DX11 Benchmark,如果需要测试DX9C或者DX10性能,3DMark06和Vantage依然健在,3DMark将会出现三代并存的现象,因为目前的游戏也是如此。
   3DMark11在很多方面的设计理念,都与3DMark Vantage类似,比如Futuremark并不急于紧跟微软推出DX11 Benchmark,而是等待DX11游戏走向普及之后才发布,这样就避免了滥用并不实用的新技术新特效,从而出现不公平、权威性遭到质疑的情况。
画面设置:采用P模式进行测试,分辨率为。
   3DMark 11的测试中,不同显存规格对性能的影响更小一点。
DX11基准:Heaven 2.5
游戏介绍:Unigine Engine率先发布了首款DX11测试/演示程序——Heaven Benchmark,其中大量运用了DX11新增的技术和指令,是3DMark11面世之前最佳的性能测试和技术演示软件。
画面设置:2.5版本进一步强化了Tessellation技术的应用,细分精度更高,画面更上一层楼,但对显卡的要求也非常苛刻。所以我们选择了降低画质的方式,以便获得较为流畅的FPS。
测试方法:自身就是一款Benchmark。
   Heaven 2.5测试比较苛刻,即使在中等设置下除了1GB GDDR5版本的HD5570之外依然都是个位数的帧数。
DX9C游戏:星际争霸2
相关评测:
游戏介绍:万众期待的暴雪神作《星际争霸》,在10年之后终于迎来的3D版本,目前暴雪已经正式开放了《星际争霸2:自由之翼》的Beta测试。虽然该游戏并不支持时下流行的DX10、10.1甚至DX11,但暴雪凭借成熟的DX9C技术,也将画面做的非常完美,大量HDR及SSAO特效的应用导致要求也比较高。
测试方法:从战网上下载一个1V1单挑录像,通过录像回放模式播放一段激烈的战斗场面,通过Fraps记录平均FPS和最小FPS。
测试模式:分辨率画面设置High。
   星际争霸2对显存要求比较高,无论是容量还是频率,这也是DX9游戏的普遍特征,因此独立显卡中的显存表现更具优势。
DX9C游戏:使命召唤7
相关评测:
游戏介绍:《使命召唤7:黑色行动》由负责《使命召唤3》与《战争世界》的Treyarch操刀制作,游戏的时间点设定于冷战时期,游戏主要描述了战争期间的一个名称为Studies and Observations Group的组织,他们将在越南战争中承担最秘密、最危险的任务。而且游戏场景还会穿插北极、古巴等一些冷战时期的热点地区。
尽管,《使命召唤》是一款DirectX 9.0c游戏,但近年来,该做在游戏画质上不断的改进,出色的游戏画面和逼真的特效渲染极大的增添了游戏的真实感和可玩性,力求为玩家打造最逼真的战争体验。
测试模式:分辨率画面设置High,开启4倍抗锯齿。
   使命召唤中的性能表现和星际争霸2比较类似,因为同为DX9C游戏。
DX10游戏:孤岛危机
游戏介绍: 《孤岛危机》(Crysis)故事讲述:地球,2019:一颗庞大的小行星在地球坠毁。朝鲜政府迅速封锁了事发岛屿,并且声称这颗小行星归属朝鲜。美国也立即派遣了一个三角洲精英小组前往观察形势。就在美朝政府关系日益紧张之际,神秘的小行星突然爆开,飞出一只高度2km的超大外星飞船。这只飞船制造出一个庞大的圆形力场,冻住了小岛的大部分地区,并且极大地改变了地球气候。外星人开始入侵地球……
随后,昔日的敌人变成了盟友,美朝两国开始联手抵御外星人的进攻,拯救人类的命运。玩家将在游戏中带领一个爆破小组进入茂密的热带雨林,残酷的冰封之地,最终进入外星飞船的心脏地带和异型展开殊死搏斗。
测试方法:Crysis内置了CPU和GPU两个测试程序,我们使用GPU测试程序,这个程序会自动切换地图内的全岛风景,得到稳定的平均FPS值。
测试模式:分辨率画面设置Medium。
   孤岛危机是一款对核心要求更高的游戏,显存通常不会成为瓶颈,因此不同的显存规格也不会造成太大的影响。
DX10.1游戏:孤岛惊魂2
游戏介绍:自《孤岛惊魂》系列的版权被UBI购买之后,该公司蒙特利尔分部就已经开始着手开发新作,本作不但开发工作从Crytek转交给UBI,而且游戏的故事背景也与前作毫无关系,游戏的图形和物理引擎由UBI方面完全重新制作。
画面设置:借助于蒙特利尔工作室开发的全新引擎,游戏中将表现出即时的天气与空气效果,所有物体也都因为全新的物理引擎,而显得更加真实。你甚至可以在游戏中看到一处火焰逐渐蔓延,从而将整个草场烧光!而且首次对DX10.1提供支持,虽然我们很难看到。
测试方法:游戏自带Benchmark工具。
测试模式:分辨率画面设置High。
   孤岛惊魂2中,使用高频内存的表现也已经很好,不过仍然与独显有差距。
DX10.1游戏:鹰击长空
游戏介绍:《鹰击长空》由Ubisoft旗下的Bucharest Studio工作室所研发制作而成,以汤姆克兰西最擅长的近现代国际冲突为背景,加上现代化的军事武器,和五角大厦不愿证实的开发中的先进武器,交织出最激烈的高科技攻防战。而《鹰击长空》也脱离前面几项作品的框架,将战争从地面拉拔到空中,享受广大无界限的战斗空间。
画面设置:《鹰击长空》直接内置了对DX10和DX10.1的支持,它会自动检测显卡最高能支持的级别。通过此前的测试来看DX10.1并不会让画质变得更高,但的确能够让游戏跑得更快。
测试方法:游戏自带Benchmark。
   HD5570 GDDR5 1GB的性能领先共享内存的HD6550D不少。
测试模式:分辨率画面设置High。
DX11游戏:叛逆连队2
游戏介绍:《战地:叛逆连队2》(Battlefield: Bad Company 2),是EA DICE开发的一款第一人称射击游戏。开发商EA同步发售了Xbox 360、PS3、PC版。该游戏是EA DICE开发的第9款“战地”系列作品,也是《战地:叛逆连队》的直接续作,在继承前作特性的基础上,强化了多人联机载具对战和团队合作元素的设定。游戏使用加强版的寒霜引擎,加入了建筑物框架破坏和物体分块破坏的支持。
画面设置:《叛逆联队2》虽然是款DX11游戏,霜寒引擎也是备受期待的DX11引擎,曾被ATI用来做Tessellation的技术展示。不过最新版本的对DX11的支持非常有限,仅仅是采用新指令集渲染HBAO特效而已,游戏会自动侦测显卡的DX级别来选择渲染模式。
测试方法:游戏不带Benchmark,笔者选取了单人任务模式下的一段无需手动干涉的过场动画进行测试,其中包括大量激烈的轰炸爆破激战场面,完全可以反映真实的游戏性能。
测试模式:分辨率,画面设定为Medium。
   这款游戏中,1GB GDDR3显存与使用DDR3内存的差距十分小。但是1GB GDDR5的性能领先就比较多。
DX11游戏:失落的星球2
游戏介绍:《Lost Planet2》是一款具有光荣传统的游戏大作,在DX10时代就以率先支持DX10技术而著称,在DX11时代已然延续了对技术快速提供支持的风格,率先利用了DX11及曲面细分效果,使得游戏画面再次获得提升。
《失落的星球2》的游戏舞台是前作故事发生后十几年之后经过温暖化改变的EDN-3rd,这里将新增丛林等新场景,主人公也并非前作那样为一人,而是以“雪贼”们不同的视点展开故事。
测试方法:游戏自带Benchmark
测试模式:分辨率,画面设置为Medium。
   不同内存频率的差距很小,几乎可以忽略不计,而GDDR3的HD5570表现失常,反不如HD6550D的性能。
DX11游戏:异形大战铁血战士
相关评测:
游戏介绍:《Aliens vs. Predator》同时登陆PC、X360和PS3,其中PC版因为支持DX11里的细分曲面(Tessellation)、高清环境光遮蔽(HDAO)、计算着色器后期处理、真实阴影等技术而备受关注,是AMD大力推行的游戏之一。
画面设置:AVP原始版本并不支持AA,但升级至1.1版本之后,MSAA选项出现在了DX11增强特效当中,当然还支持Tessellation、HDAO、DirectCompute等招牌。该游戏要求不算太高,所以笔者直接将特效调至最高进行测试。
测试方法:游戏自带Benchmark
测试模式:分辨率为,画面设置为中。
   GDDR3与DDR3的差距依然很小,GDDR5的差距就比较大了。
DX11游戏:地铁2033
相关评测:
游戏介绍:《地铁2033》(Metro 2033)是俄罗斯工作室4A Games开发的一款新作,也是DX11游戏的新成员。该游戏的核心引擎是号称自主全新研发的4A Engine,支持当今几乎所有画质技术,比如高分辨率纹理、GPU PhysX物理加速、硬件曲面细分、形态学抗锯齿(MLAA)、并行计算景深、屏幕环境光遮蔽(SSAO)、次表面散射、视差贴图、物体动态模糊等等。
画面设置:AVP原始版本并不支持AA,但升级至1.1版本之后,MSAA选项出现在了DX11增强特效当中,当然还支持Tessellation、HDAO、DirectCompute等招牌。该游戏要求不算太高,所以笔者直接将特效调至最高进行测试。
测试方法:游戏自带Benchmark
测试模式:以DX11模式运行,分辨率为画面设置High,开启AAA和16AF。
   差距依然不算很大的一款游戏,不过可以清楚的看到不同显存之间的差距。
DX11游戏:孤岛危机2
相关评测:
游戏介绍:《孤岛危机2》在游戏内容上与一代有很大变化,已经从秘密的丛林作战转向了公开、大规模的现城市战争。故事发生在距一代3年后的2023年。外星人在地球上的大片区域挑起了战争,各大城市都遭到攻击,人口锐减,玩家将要进行捍卫地球的末日战争。孤岛危机2将不同于原作,原作中调查了神秘的陨石后,最后美军舰队全数击沉,主角Nomad携科学家海伦娜逃离之后,外星人入侵了世界的各个地点,并极大的改变了环境,幸存的人类不得不联手起来对抗入侵者。孤岛危机2的主战场因此改变至纽约(的曼哈顿岛上,因此Crysis2依然是“孤岛危机”、而不是“城市危机”),同时更有神秘势力Crynet出现,孤岛危机2的世界将比起原作更加的凶险和刺激。
画面设置:游戏自从V1.9补丁开始加入了高材质和DX11画面选项。作为DX11显卡,开启DX11效果可以开启更高的效果和更好的执行效率,但是开启最高效果则会很吃力。
测试方法:采用第三方Benchmark软件。
测试模式:分辨率为,DX11模式,画面级别为High。
   孤岛危机2 DX11模式下的测试,除了GDDR5之外,其他频率、规格的显存表现都惨不忍睹。
DX11游戏:F1 2010
相关评测:
游戏介绍:自DirectX 11发布以来,N/A都推出了支持新技术的显卡产品。不过支持新技术的游戏并不多,目前市面上绝大多数游戏仍然是基于DX9制作。然而到了今年下半年,游戏大作潮水一般涌现,我们又看到了一些新的支持DX11的游戏:《F1 2010》。
画面设置:《F1 2010》虽然是一款DX11游戏,但却对硬件要求不是很高,因为它充分应用了DX11当中提升渲染和运算效率的技术,大大减轻了GPU的负担。得益于DX11技术的充分利用,我们可以以特效全开。
测试方法:游戏自带Benchmark
测试模式:分辨率为,画面级别为High。
   在DX11游戏中,GDDR5的性能表现要领先很多,但是GDDR3和共享内存之间差异往往很小。
DX11游戏:尘埃3
相关评测:
游戏介绍:09年末,其前作《尘埃2》带着首款DX11游戏的光环强势出击,成为众多DX11游戏中的经典。如今,新作《尘埃3》将在诸多DX11游戏特效的力助下,使得游戏画质的表现更加出色、完美。
画面设置:《尘埃3》虽然是一款DX11游戏,但却对显卡要求不是很高,因为它充分应用了DX11当中提升渲染和运算效率的技术,大大减轻了GPU的负担。得益于DX11技术的充分利用,我们可以以特效全开,并且开启2x抗锯齿的模式下流畅运行。
测试方法:游戏自带Benchmark
测试模式:分辨率为,画面设置为High,开启4倍反锯齿。
   开启抗锯齿时,显存容量和频率、类型的影响都缩小。
DX11游戏:文明5
相关评测:
游戏介绍:著名游戏制作人希德·梅尔的作品包括《半人马星座》、《铁路大亨》等众多模拟类精品,其中最为广大玩家熟知的便是《文明》系列。该系列自91年推出首部作品,至今共诞生了十余款正作和资料片,每一代都大受好评,是游戏史上评价最高的游戏系列之一。
测试方法:游戏自带Benchmark
测试模式:分辨率为,画面设置为High。
   GDDR5的性能优势比较大,而GDDR3和内存的差距很小,不同内存频率之间的帧数差异也仅仅在1帧左右。
DX11游戏:幕府2
游戏介绍:作为知名即时策略类游戏,《全面战争》系列一直深得游戏玩家的青睐。日前,有The Creative Assembly制作的《全面战争》系列的第七代《幕府将军2:全面战争》正式发售。该作也是继第一代作品《幕府将军1:全面战争》之后第二次将游戏的主题设在日本。
《幕府将军2》是一款非常平衡的回合制策略游戏,与强力AI和玩家进行实时策略较量。在庞大的多人模式组合和震撼的视觉效果和音效,《幕府将军2》是全战系列的巅峰之作,包含了强大的深度纹理细节和非常令人满意的操作。
测试方法:游戏自带Benchmark
测试模式:分辨率为,画面设置为Medium。
   GDDR5大幅领先,而使用DDR3内存和GDDR3显存的差距比较小。
成绩汇总:内存通道/频率对性能的影响
   在17项关于3D图形性能的测试中,我们可以明显看出不同显存规格之间的性能差异。不过,可以明显看出,不同内存频率对性能的影响很小,与GDDR3显存的差距也不大。但是GDDR5显存在大部分游戏中的性能会更好。而使用单通道内存则性能则会比较差。因此,使用Llano APU的用户一定要用双通道内存。下面来看看不同显存规格下的性能对比总结:
   双通道DDR3-1866MHz与DDR3-1333MHz的性能差距在10%以内。
   DDR3-1866MHz双/单通道内存对共享显存的GPU性能影响在30%以上。因此,APU用户如果用到内置显卡的话,双通道内存是必要的配置。否则性能会大大降低。而高频率的内存则量力而行了,毕竟高频内存的价格并不便宜,增加的投入带来的性能提升比较有限。
成绩汇总:GDDR5/DDR3独显PK APU集显
   接下来我们看看独立显卡与APU内置显卡的比较,包括GDDR5与GDDR3两个版本。
   使用双通道DDR3-1866MHz内存与1GB GDDR5显存的差距达到了接近30%。
   DDR3内存与GDDR3显存差距在5%左右,并不算大。再加上前面对不同内存频率的测试,我们可以看到,内存频率每提升266MHz,内置显卡的性能大概提升5%,以此粗略推算,要达到1000MHz GDDR5的显存效能,内存频率大概要3000MHz以上了。。。这显然是不现实的。
全文总结:没有显存性能损失较大
   可以看出,GDDR5与高频双通道DDR3内存的差距在30%左右,这个差距和双通道/单通道内存之间的差距一样大。而目前DDR3-1600MHz以上的内存价格还比较贵,而主流独立显卡的已经普遍配备了GDDR5显存。由此可见,Llano APU虽然融合了CPU和GPU,但是目前来看与独立显卡在系能上依然有差距。因此,即使是相同的GPU核心,拥有独立显存的显卡性能要更强。
   所以,APU集显虽然不错,但实际上和同等规格的独显差距还是很大的,显存/内存对显示性能的影响不容忽视。带有显存的独立显卡不但性能出色,而且不会占用系统内存,影响整体性能。当然独立显卡还是建议购买GDDR5显存的版本,频率要比DDR3版高将近一倍,性能也要强不少。
铭瑄HD6570变形金刚(499元)&& &耕昇GT430红旗版(499元)
影驰GT430中将版(499元) &&昂达GT440 512MB GD5(499元)
   鉴于目前APU尚未上市,因此中低端主流用户我们还是推荐购买Athlon II X4或者Core i3 2100搭配独立显卡的配置。目前配备GDDR5显存的独显价格也不贵,传统的CPU+GPU组合无论性能还是价格都比APU更好一些。
   而APU想要更佳性能的话,必须搭配1866MHz的高频内存条,这样的内存价格并不便宜,而且还要划分512MB容量给集显用,系统可用内存容量降低,怎么看都不太划算。所以除非Llano APU上市时降到一个合理的价位,否则真不如单独购买CPU+GPU来得灵活划算。■
显卡核心:Radeon HD 5570 显存容量:1024 显存位宽:128bit 显存类型:GDDR3 核心频率:650MHz 显存频率:1600MHz
扯扯车精品文章推荐}

我要回帖

更多关于 内存会影响显卡吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信