AMD Kaveri APU采用了全新的苏宁易购组织架构系统架构,上网查找有关HAS,hUMA等技术的解

当前位置: >
AMD新一代APU Kaveri解析与对比测试
文章来源:北京
作者:箱水母
日期: 11:00:34
Kaveri APU型号及规格一览
在今年的CES上,AMD正式发布了第四代APU——Kaveri,这是从2011年第一代APU发布之后最重要的一次升级,Kaveri实现了28nm工艺、压路机CPU架构、GCN GPU架构、HSA异构系统架构、hUMA内存统一寻址、最多12个计算核心、Mantle、TrueAudio、4K UHD超高清、PCI-E 3.0总线、SocketFM2+封装接口等一系列新的面貌。本次首发一共有三款型号A10-7850K是旗舰级产品,四核心,4MB二级缓存,主频3.7-4.0GHz,倍频解锁,图形核心Radeon R7,512个流处理器(相当于8个计算核心),频率720MHz,内存支持DDR3-2133,热设计功耗95W。官方标价173美元,附送“B-F4”(所以比上代旗舰贵了31美元),现已开卖。A10-7700K的主频将至3.4-3.8GHz,图形核心减至384个流处理器(6个计算单元),其他完全同上。官方标价152美元,仍然捆绑“B-F4”,也已开卖。A8-7600比较特殊一些。它也是四核心、4MB二级缓存,但是频率和功耗有两个档次:3.1-3.3GHz频率的时候,热设计功耗为45W;3.3-3.8GHz的时候,热设计功耗为65W。其他规格同A10-7700K。官方标价119美元,本季度内出货上市。市场定位方面,A10-7850K的对手是Corei5-4670K,这也就是AMD目前所能达到的最大高度了。A10-7700K、A8-7600竞争的分别是Core i5-4440S、Core i3-4330。三对的价格都是APU便宜很多,性价比依然只金字招牌。芯片组、接口、APU兼容性:Kaveri必须使用FM2+主板,FM2+主板同时支持Kaveri、Richland、Trinity。
北京 日期: 11:00:34
相关阅读:
参考价格:99元
精彩内容推荐
周热门处理器排行当前位置&&&&&&&&&
AMD揭露HSA运算架构技术(hUMA)细节
【文章摘要】AMD发布hUMA新运算架构技术,可让CPU与GPU共享同一内存空间,解决过去的数据重复拷贝问题。
  2012年,AMD就携手ARM、高通、三星、联发科等厂商成立HSA(Heterogeneous Systems Architecture)基金会,希望拓展CPU和GPU协同运算的新架构,并辅助此架构发展的异构运算新软件开发环境。  日前,AMD进一步公开说明此运算架构新技术:hUMA(heterogeneous Uniform Memory Access)。通过hUMA,CPU和GPU能共享同一个内存空间,并且CPU能够直接存取GPU的内存地址,不必像过去得花费大量时间再将GPU的运算数据复写到CPU上。过去CPU和GPU的内存池仍独立运作  换句话说,以过去技术发展的状态,即便GPU和CPU已整合到同一个芯片上(GPGPU技术),芯片在运算时要定位内存的位置仍然得经过繁杂的步骤,这是因为CPU和GPU的内存池仍然是独立运作。  先前为了解决两者内存池独立的运算问题,当CPU程序需要在GPU上进行部分运算时,CPU都必须从CPU的内存上复制所有的数据到GPU的内存上,而当GPU上的运算完成时,这些数据还得再复制回到CPU内存上。这些步骤都会不断耗费时间以及程序处理的效能。  此外,复制数据的步骤也代表着,当CPU正在运作时,GPU就无法同时运算相同的数据。而当不同程序语言间的关键术语(exact terminology)变化时,CPU数据架构会启动指针器(pointers)来指示相关的数据。但是,因为CPU的指标器是指示到CPU内存上的位置,而GPU的内存又是另一个独立架构,因此这样的架构若复制到GPU上运作,反而会产生位置错置的问题。  而hUMA技术,就是来解决两者内存独立的问题。hUMA能让GPU直接存取CPU的内存位置  hUMA像个连贯快取的系统,让CPU和GPU能共享同一个内存空间,让CPU和GPU在内存上看到的数据都能维持一致,如果其中一方上的数据改变,即便旧数据经过快取,另一方还是能看到经改变的数据。换句话说,hUMA能让GPU直接存取CPU的内存位置,当CPU在读写数据时,GPU也能同时读写数据。  此外,hUMA也能用在CPU的需要配置虚拟内存(demand-paged virtual memory)上。当GPU要存取写在磁盘上的位置时,CPU就能让操作系统去寻找,并加载相关的数据进内存中。  第一款支持hUMA的产品将会是AMD的Kaveri APU,预计今年下半年上市。根据AMD表示,hUMA将会支持C++和Java等开发语言。
责任编辑:张超勃
关于&AMD Kaveri APU AMD hUMA&相关报道
loading...
服务器最新文章
服务器最新专题当前位置&&&&&&&&&
台北电脑展:AMD展示新HAS架构处理器
【文章摘要】A系列高端APU推出四款,内建四核心,处理频率最高可达4.4Ghz,AMD并且在Computex上展示采用HAS异质系统架构的下一代APU处理器。根据AMD的产品规划,采用HAS架构的下一代APU预定于今年下半年问世,将用于平板电脑、笔记本、桌面PC、服务器及嵌入式设备等不同领域。
  【eNet硅谷动力消息】AMD宣布推出A系列顶级桌面APU处理器,处理频率达4Ghz以上,图形效能比前代提升15%,同时还展示下一代支持CPU与GPU协同运算的HSA(Heterogeneous Systems Architecture)架构APU处理器。  新推出的A系列APU先前代号为“Richland”,采用Piledriver CPU核心,可兼容于使用FM2主板的桌面计算器,包括两款A10、两款A8型号处理器,均内建四核心,最高版本处理频率可达4.4GHz,售价从112美元到142美元。  新款处理器整合Radeon 8000显示卡,依型号不同内建256或384个Radeom GPU核心,比先前代号“Trinity”处理器在图形效能提升15%,锁定台式机玩家市场,可支持2133MHz的AMD Radeon Gamer系列内存提升系统效能。  在此之前,AMD在5月推出三款行动APU处理器,包括代号“Temash”的28nm制程、四核心SoC单芯片APU,以及锁定低端、小尺寸触控笔记本,代号为“Kabini”的四核心APU。包括HP、宏将采用推出该平台产品。  除推出A系列新处理器,AMD还展示代号“Kaveri”的下一代APU,该处理器采用HAS异质系统架构,HAS为AMD在2012年加入ARM、高通、三星等组合的HAS基会金,推动CPU和GPU协同运算架构。  HAS运算架构以hUMA(heterogeneous Uniform Memory Access)作为CPU与GPU间的内存沟通信道,让CPU与GPU可协同工作,以提升处理器的效能。根据AMD的产品规划,采用HAS架构的下一代APU预定于今年下半年问世,将用于平板电脑、笔记本、桌面PC、服务器及嵌入式设备等不同领域。
责任编辑:张超勃
关于&微型服务器 AMD服务器&相关报道
loading...
服务器最新文章
服务器最新专题软件与服务//
AMD展示首款异构服务器芯片“柏林”
  AMD将在下周三于旧金山举办的红帽峰会上首次展出其第二代皓龙X系列服务器处理器――代号“柏林”。
  该公司在采访中表示,此次展示中将包含X2100系列皓龙处理器在基于Fedora项目的Linux环境下的实际运行效果。
  “柏林”并非基于传统皓龙处理器计算核心的衍生产品,事实上它应该被划归AMD所谓的APU阵营――也就是加速处理单元。在这套架构中,CPU与GPU核心将以共享内存的方式协同运作在同一套异构系统架构当中。
  在采用异构系统架构的X2100当中,计算与图形核心共同通过异构统一内存架构(简称hUMA)与异构队列(简称hQ)机制进行运作,这一方面使得各线程能够同时且彼此独立地运行在全部CPU与GPU核心之上、同时利用统一化内存空间共享方式消除了过去由CPU向GPU提供处理对象的环节。
  AMD的第一款异构系统架构APU为Kaveri,发布于今年一月。在对该方案进行简要介绍时,AMD公司CTO Joe Macri表示在异构系统架构领域,是时候将CPU以及GPU这类固有概念加以淘汰了。“我们将建立起一个全新概念,因为异构系统架构的出现彻底覆盖了图形组件在芯片上的作用与地位。”他同时建议称:将二者统称为计算核心即可。
  不过Kaveri的目标指向笔记本与台式机设备;相比之下,“柏林”则是一款服务器级组件,其设计初衷与针对视频、游戏以及其它消费级使用模式的Kaveri可谓大相径庭。有鉴于此,它的意义在服务器软件开发商眼中无疑更为重大。
  “随着服务器努力适应新型且不断变化的工作负载,”AMD公司服务器部门总经理Suresh Gopalakrishnan表示,“保证软件生态系统能够满足这些新型工作负载的需求就变得至关重要。我们正在积极而广泛地在数据中心软件领域建立合作伙伴关系,希望他们能为市场带来更多足以实现x86 APU服务器无缝化接入的软件基础方案。”
  没错,毕竟如果没有开发商的热情支持,即将于今年晚些时候推出的AMD hUMA hQ HAS APU产品将无法实现任何实际价值。
关键词:处理器
责任编辑:郑亮
All Rights Reserved, Copyright , .cn渝ICP证B2-号 如有意见请与我们联系 powered by 天极内容管理平台CMS4i
京公网安备84号タイトル/ワード名(記事数)
タイトル/ワード名(記事数)
QRコードでLINEの4Gamerアカウントを友達登録すると月?金の週5回,21時に厳選ニュースをお届けします!
※購読にはLINEアプリが必要です
13:01ニュース
AMD,次期主力APU「Kaveri」で対応する新技術「hUMA」を発表。CPUとGPUが同じメモリ空間を共有可能に
 日13:01,AMDは,同社が提唱するGPUコンピューティングフレームワーク「HSA」(Heterogeneous System Architecture)実現のカギとなる技術「hUMA」(heterogeneous Uniform Memory Access」を発表した。
 発表に先立って,同社はアジア太平洋地域の報道関係者向け電話会議を開催したので,今回はその内容を基に,hUMAのポイントをまとめてみたい。
 なお,電話会議でhUMAの解説を担当したのは,AMDのコーポレートフェローであるPhil Rogers(フィル?ロジャース)氏だ。
HSA,hUMAって何だろう?
?次世代APU「Kaveri」のカギとなる技術
2013年1月に示されたAMDのAPUロードマップ。Kaveriは「」(リッチランド)の後継と位置づけられる
 冒頭の話があまりにも突然すぎて,頭の上に大きな疑問符が浮かんだ人も多いのではなかろうか。本題に入る前に,予備知識を整理しておこう。
 HSAというのは,AMDの次世代主力APU「」(カヴェリ,開発コードネーム)で採用される予定になっているフレームワーク(=ソフトウェアのプログラミングを容易にするための仕組み)のことだ。
 GPUを汎用演算に応用するGPUコンピューティングにおいて主流なのは,CPU側のコードとGPU側のコードを別々に書いて実行するという考え方だ。プログラム言語もCPUとGPUでは別々で,CPU側だとC/C++やJava,各種スクリプトなど,多種多様な言語が用いられるのに対し,GPU側では,NVIDIAが推進する「CUDA」や,業界団体Khronos Groupが策定している「OpenCL」,あるいはMicrosoftがDirectXに組み込んでいる「DirectCompute」がメジャーどころとなっている。
 CUDAとOpenCL,DirectComputeはいずれもC/C++ベースではあるのだが,若干の拡張が入っており,CPU側で使われているC/C++とは少し異なる。その点についてRogers氏は「現在,プログラマーがGPUの性能を引き出すのは,かなり難しい。GPUの能力を使うにあたって,新しい言語や新しい技術を学ばなければならないからだ」と述べていた。
HSA陣営。ARMやImagination Technologies,Qualcomm,Mediatekなど,AMD以外はいずれもARMアーキテクチャと関わりの強い企業の名が並ぶ。「NVIDIAを除くARM陣営」と言っても通じてしまいそうだ
AMDによるUMAの説明
 これに対し,AMDが提唱するHSAは,以上のような「CPUとGPUのコードを別々に記述する煩雑さや複雑さ」をなくそうというものだ。簡単にいえば,同じプログラムでCPUとGPUの両方が動くようにしようというプロジェクトということになる。
 AMDはHSAを広げるべく,HSA Foundationという団体を立ち上げ,HSAの業界標準化を目指している最中だったりもする。
 そして,ここからが本題。HSA対応ハードウェア側のキーテクノロジーとして今回発表されたのが,本稿の主役でもあるhUMAだ。
 Rogers氏は,「CPUとGPUが同じデータ,同じメモリ空間を相互に共有できることが重要になる」と,hUMA開発の意図を述べている。
HSAでは,「同一のシリコン上にあるCPUとGPUが互いに協調して,シームレスにそれぞれのタスクをやり取りできるシステム」の実現を目標にしている。そのために重要なのが,CPUとGPUが相互に同じデータを共有できることだという
 hUMAというのはAMDによる造語だが,その基になっている「UMA」は聞いたことがある人も多いだろう。複数のプロセッサが物理的に単一のメモリ空間を共有する場合は「Unified Memory Architecture」,複数のプロセッサが論理的に単一のメモリ空間を共有する場合は「Uniform Memory Access」というが,今回のhUMAは,後者のUniform Memory Accessに「heterogeneous」(ヘテロジニアス,異種間の)という単語をくっつけたものになる。
CPUと現行APU,HSAに対応した次世代APUの違い。現行のAPUでは,物理的にはCPUコアとGPUコアが同じメモリ空間を共有しているが,CPUコアとGPUコアは内部的に独立している
 あらためて述べるまでもないが,ここでいうheterogeneousとはCPUとGPUによる異種混合のこと。なので,hUMAはCPUとGPUがソフトウェア的にメモリ空間を共有するという意味である。AMDは以前から,「HSAをサポートするプロセッサでは,CPUとGPUがソフトウェア的にメモリ空間を共有する」と,ことあるごとに繰り返していたのだが,今回の発表は言ってしまえば,それにhUMAという名前がついたことのお披露目という理解でいいと思う。
 ちなみに現行のAPUや,IntelのCoreプロセッサでは,GPUコアがCPUコアと単一のシリコン上に集積されていて,物理的には単一のメモリ空間を共有しているように見えるが,実際にはいくつかの理由で,両者はメモリ空間を共有していない。Rogers氏の言葉を借りるなら,現行のAPUやCoreプロセッサは,CPUコアとGPUコアとが論理的にそれぞれ異なるローカルメモリを持つアーキテクチャなので,hUMAではなく「NUMA」(Non-Uniform Memory Access)だ。
 話を戻すと,HSAをサポートする次世代APUで実現されるhUMAでは,現行世代のAPUにある,いくつかの“NUMA的な”制限が取り除かれることになる。具体的には,
CPUとGPUがアクセスするメモリ内のデータの一貫性が保たれるようになる
GPUがページフォルトを扱えるようになる
GPUがメモリ空間の全域にアクセスできるようになる
のである。
hUMAで実現される重要な3要素
 1.の「CPUとGPUがアクセスするメモリ内のデータの一貫性が保たれるようになる」はそのものズバリで,CPUとGPUとの間でキャッシュの一貫性(coherency,コヒーレンシ)を保つ仕組みが組み込まれるという意味になる。
 2.の「GPUがページフォルトを扱えるようになる」というのは少し説明が必要だろう。
 今日(こんにち)のOSでは,デマンドページング(demand paging)という方法で,OSがアプリケーションのメモリ空間を管理している。アプリケーションは,「仮想メモリ空間」上で動作するようになっており,デマンドページングでは,必要に応じて,OSがページ(page)という単位で仮想メモリ空間を物理メモリアドレスに割り当てる。
 そして,アプリケーションが「物理メモリページが割り当てられていない仮想メモリアドレス」にアクセスすると,ページフォルト(page fault)が発生する。ページフォルトが発生すると,OSはその情報を受け取って,空いている物理メモリページを,仮想メモリ空間の「ページフォルトが発生したアドレス」に割り当てるのだ。それによって,アプリケーションは処理を続行できるという仕組みである。
 OSが物理メモリアドレスをページ単位で管理し,アプリケーションの仮想メモリ空間に,要求(デマンド)に応じて適宜割り当てることによって,アプリケーションは物理メモリ容量を気にする必要がなくなる。つまり,「PCそれぞれにメインメモリがどの程度搭載されていて,空き容量がどれくらい残っているか」という面倒なやりとりから解放されるのだ。また,OSが空いている物理メモリページを管理して割り当てることで,メモリの虫食い状態が起こらなくなるなど,多くの利点があり,結果,デマンドページングは今日のOSを支える柱の機能になっている。
 要するに,CPUとGPUとが協調して動作していくにあたっては,GPU側がページの割り当てられていないメモリアドレスにアクセスしたらページフォルトが発生する(ような)仕組みが必要なのだ。CPUとGPUとが同じ仮想メモリ空間で処理を行っていくうえで必須の仕組みに,hUMAは対応するのである。
 最後に3.の「GPUがメモリ空間の全域にアクセスできるようになる」だが,これは1.と同じく,そのままの意味だ。1つだけ補足しておくと,ここでいう「メモリ空間」というのは仮想メモリ空間のこと。つまり,3.を実現するには,GPUとCPUのメモリマネージメントユニット(Memory Management Unit,MMU)の協調動作が必要ということになる。
hUMAの3要素を図示したスライド。CPUとGPUのキャッシュ整合性を保つ仕組みがあり,GPUがページフォルトを扱えて,仮想メモリ空間全体にアクセスできる
 では,hUMAを導入することで,APUでは何が実現できるようになるのだろうか。Rogers氏が挙げていたのは,CPUとGPU間でデータのコピーが不要になる点だ。
 「CPUでは連結リスト(linked list)のような複雑なデータ構造が使われるが,従来のシステムでは,GPU側からそれにアクセスできないため,GPU側からそのデータを使おうと思ったら,データをコピーするしかない。しかしhUMAのシステムなら,GPUが連結リストのポインタを共有し,複雑なデータをそのまま扱えるようになる」(Rogers氏)。
NUMA(左)とhUMA(右)の比較。NUMAだと,CPU側の連結リストにGPU側はアクセスできないので,リスト中のデータをGPU側へコピーする必要があり,性能面でオーバーヘッドが生じる。一方,右のhUMAでは,GPUがリストのポインタを使ってデータにアクセスできるので,オーバーヘッドが生じないという
Kaveriに関する何らかの発表は11月か
いよいよ動き出すHSA,早い段階での成果に期待
 Rogers氏はhUMAのメリットが「hUMAによってプログラマーは非常に容易にGPUのプログラミングが可能になり,PythonやJava,C++といった,ポピュラーなプログラミング言語が使える」点にあると強調していた。そして,冒頭でも紹介したように,それが可能になるのは,次世代主力APU,Kaveriからだ。
hUMAで得られるメリット
APU13の予告。?13日に米カリフォルニア州サンノゼ市の「McEnery Convention Center」で開催予定となっている
 ではKaveriはいつ出るのかという話だが,残念ながら,本稿の序盤で示したスライド以上の情報は提示されなかった。
 ただし,電話会議の最後にRogers氏が「11月に開発者会議『』を開催する」と宣言したのは,注目に値しそうだ。「APU13」とも呼ばれるこのイベントでは,HSAが主要なテーマになるとのことなので,ここで,Kaveriに関する詳細な情報が明らかとなる可能性はある。正式発表されるかは何とも言えないが,2013年中のリリースが予定されるKaveriが動く状態で披露される,くらいのことは大いにあり得るだろう。
 また,Kaveri以外でも,HSA Foundationから何らかのまとまった成果物が出てくるのではないかという期待も持てる。
 ところで4Gamer的には,APUの採用が確定しているPlayStation 4(以下,PS4)で,HSAがサポートされるのかという点が気になるところだろう。今回はPS4についての言及はなかったものの,PS4ではGPUコンピューティングが目玉のひとつであることを考えると,同等の機能を持っていても不思議ではない。
 とはいえ,ソニー?コンピュータエンタテインメント(以下,SCE)は,HSA Foundationのメンバーではあるものの,「Supporter」という,いわば末席に名を連ねているだけなので,HSAをサポートするかどうか,現時点では何とも言えない状況だ。11月のAPU13にSCEが登場するかどうかについても,注目しておくといいかもしれない。
キーワード
4Gamer.net最新情報
新着記事10件
トピックス
スペシャルコンテンツ
注目記事ランキング
集計:09月28日?09月29日
注目タイトルランキング
集計:09月23日?09月29日
読者のお勧めのゲーム
タイトル評価ランキング
2016年03月?2016年09月}

我要回帖

更多关于 苏宁易购组织架构图 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信