‘壹’ arm云终端和x86云终端有什么不一样吗arm云终端和x86云终端哪个更好用
云终端早期也被称为 MININPC迷你电脑,由于集成电路技术的进步,可以将电脑的尺寸做到非常小,目前体积最小的MINIPC还有一个成人的巴掌大,主板、CPU、内存、硬盘、各种接口全都具备;目前主要的架构有 ARM和 X86两种,X86不用讲采用的是 i386 (AMD64)指令与普通PC完全一致,可以直接运行Windows /Linux等PC操作系统。
ARM早期主要是为移动设备设计(比如手机、平板电脑等 ),其功耗更低更节能、成本也更低;ARM比同频的X86至不要便宜一半以上价格。但是ARM并不能直接运行PC桌面系统与应用软件。主要支持定制板的 Linux或 Android系统,ARM架构支持外设接口比较少,特别是非即插即用设备,比如 LPT 、COM 、PS/2等接口,整体的计算性能也无法与同频PC相比。
作为云终端,主要的区别在于 ARM的云终端会内置一个微型的Linux系统,通电之后linux系统启动,启动远程桌面客户端通过远程桌面协议连接云桌面的服务器,把服务器上虚拟机运行产生的画面传输到终端的显示器上。转发终端上的键盘鼠标等输入操作指令。实际 ARM云终端在此角色为一个输入输出转发设备,所有的计算工作都是在后端的服务器上进行的。一旦与服务器断开连接云终端就失去了工作能力。
而X86架构的云终端自带就具备PC的性能,因此它可以将云端虚拟机的镜像缓存到本地存储中,主要的运算工作可以由前端完成,后端服务器作为支撑,即前后端混合运算。即使与云桌面服务器断开了连接,云终端仍然可以持续工作。并且也能像远程桌面模式一样,从服务端对终端进行统一更新。
X86架构的云终端对服务器配置要求低很多,ARM云终端平均 50台需要一台服务器,而X86架构的云终端平均200台需要一台服务器,而服务器配置可以更低。
从整体性能性价比上看,X86架构是云终端更好的选择。
‘贰’ 处理器的线程数是什么线程数量的多少对处理器核心数量的多少有影响么
线程数就是核心数,跟人的脑子一样,核心数2就说明CPU有两个脑子。脑子越多解决问题速度越快。CPU的核心数越高处理速度就越高。核心数2通俗地说就是双核CPU了。但自超线程技术问世后,一个核心可以同时2个线程了。使CPU性能上升百分之40。
假设从服务端传送数据到用户端,把用户端和服务端比做两个小岛,线程数比做连接两个小岛之间的桥梁,架桥越多,单位时间内传送的数据越多,但如果桥梁架设超过双方所能承受的数量时,用户端将无法接受其他服务端的数据,而服务端将无法为其他用户端传送数据,因此,线程数的多少,要根据服务端和用户端的具体情况而定。
(2)x86前端扩展阅读
线程可以为操作系统内核调度的内核线程,如Win32线程;由用户进程自行调度的用户线程,如Linux平台的POSIXThread;或者由内核与用户进程,如Windows 7的线程,进行混合调度。
同一进程中的多条线程将共享该进程中的全部系统资源,如虚拟地址空间,文件描述符和信号处理等等。但同一进程中的多个线程有各自的调用栈(call stack),自己的寄存器环境(register context),自己的线程本地存储(thread-local storage)。
一个进程可以有很多线程,每条线程并行执行不同的任务。在多核或多CPU,或支持Hyper-threading的CPU上使用多线程程序设计的好处是显而易见,即提高了程序的执行吞吐率。
在单CPU单核的计算机上,使用多线程技术,也可以把进程中负责I/O处理、人机交互而常被阻塞的部分与密集计算的部分分开来执行,编写专门的workhorse线程执行密集计算,从而提高了程序的执行效率。
‘叁’ 鲁大师检测我的电脑为 x86 兼容 电脑 帮我看一下比普遍的配置怎么样
Z武器”是一款集专业而易用的硬件检测、系统漏洞扫描和修复、常用软件安装和升级的装机工具,专业而易用的硬件检测拥有专业而易用的硬件检测,不仅超级准确,而且向你提供中文厂商信息,让你的电脑配置一目了然,拒绝奸商蒙蔽。它适合于各种品牌台式机、笔记本电脑、DIY兼容机的硬件测试,实时的关键性部件的监控预警,全面的电脑硬件信息,有效预防硬件故障,让您的电脑免受困扰。 电池健康监控:电池状态、电池损耗、电池质量的检测,有效的提高电池的使用寿命和电脑的健康。 系统漏洞扫描和修复系统漏洞主要指操作系统中因Bug或疏漏而导致的一些系统程序或组件存在的后门。木马或者病毒程序通常都是利用它们绕过防火墙等防护软件,以达到攻击和控制用户个人电脑的目的。所以为了系统的安全和稳定,及时下载安装补丁、修复系统漏洞非常必要。 各类硬件温度实时监测在硬件温度监测内,Z武器显示计算机各类硬件温度的变化曲线图表。硬件温度监测包含以下内容(视当前系统的传感器而定):CPU温度、显卡温度(GPU温度)、主硬盘温度、主板温度。小提示:你可以在运行硬件温度监测时,最小化Z武器,然后运行3D游戏,待游戏结束后,观察各硬件温度的变化。 常用武器(清理武器、驱动武器、优化武器)清理武器扫描、清理系统垃圾迅速、全面,清理武器可以让电脑运行得更清爽、更快捷、更安全。驱动武器为用户提供驱动备份、还原和更新等功能。驱动武器具备软件界面清晰,操作简单,设置人性化等优点。优化武器提供全智能的一键优化和一键恢复功能,包括对系统响应速度、用户界面速度、文件系统、网络等优化。
特点
1、提供国内最领先的计算机硬件信息检测技术,包含最全面的硬件信息数据库。与国际知名的Everest相比,”Z武器”给用户提供更加简洁的报告,而不是一大堆连很多专业级别的用户都看不懂的参数。而与其他国际知名的CPU-Z(主要支持CPU信息)、GPU-Z(主要支持显卡信息)相比,”Z武器”提供更为全面的检测项目,并支持最新的各种CPU、主板、显卡等硬件; 2、“Z武器”能扫描定时您的计算机的安全情况,为您提供安全报告,到微软官方网站为您下载安装最适合您的机器的漏洞补丁。“Z武器”只会安装您的机器需要升级的漏洞补丁,并支持下载同时安装,大幅提高补丁安装速度,节省热门软件推荐安装您的等待时间。 3、“Z武器”能自动检测您的机器的软件安装信息,推荐最适合的软件进行下载安装;还能随时检查已经安装的软件信息,生成一个升级报告,可以单独升级任何一款软件,也可以直接点击全部升级;并自带软件管理器,可以方便的管理与卸载,省事省心。
‘肆’ 电脑CPU前端总线
前端总线 :
前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。
因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。
前端总线频率
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
外频与前端总线频率的区别:前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。
显卡渲染流程:
显卡的渲染管线是显示核心(也就是显卡的CPU,显卡的心脏,学名叫显示处理单元)的重要组成部分。现阶段的显卡(主要是针对微软DIRECTX(驱动和操作系统的接口技术)的版本来说的)都是非统一架构的,也就是分为顶点渲染和像素渲染。那么在显示核心的内部就分为两大区域,一个区域就是顶点渲染单元(也叫顶点着色或顶点着色引擎),主要负责描绘图形,也就是建立模形。一个就是像素渲染管线(也叫像素渲染管道),主要负责把顶点绘出的图形填上填色。然后再加上纹理贴图单元贴上纹理,一个精美的图形就出来了。如果你还不懂,那我举个简单的例子吧:比如现在要显卡绘出一个茶壶。当这个茶壶的顶点信息从显存传到顶点着色单元后,顶点着色单元就会依据这些信息绘出这个茶壶的轮廓。接下来像素渲染管线就会依据这个轮廓,把从显存中的有关这个茶壶的颜色信息读出来,给这个茶壶上色,如果这个茶壶是白色的,就上白色的。然后再由纹理贴图单元贴上精美的图案,最后这个精美的茶壶就出来了。你想一下,你平时画画,是不是也是先画个大概,然后再进行修改,上色,画上图案,最后才画好呀,其实显卡工作起来,也和我们画画差不多,只不过他的效率很高,每秒可以画上亿个罢了。
从上面我的解答中你就可以发现,渲染管线就是显示核心中负责给图形配上颜色的一组专门通道。它是显示核心中单独设计的一组电路,拥有单独的晶体管。渲染管线越多,那么所绘出的图形它的填充效率就越高,自然我们看到的画面也就越流畅越精美。这就是为什么渲染管线越多越好的原因。如果少了,那么自然就会使显卡的性能下降。当然渲染管线越多,显示核心就会越大,因为它所使用的晶体管数目增加了。
不过在微软的DIRECTX10出来后,顶点渲染和像素渲染将淡出我们的视线,因为它将采用统一架构。也就是一个核心中是由一组专门的通道既负责顶点渲染又负责像素渲染的。也就是只会有贴图单元。这个时候是贴图单元越多越好,画面越好,越流畅,性能越高。
‘伍’ x86兼容台式电脑换CPU
不能换双核的,建议你换掉CPU,主板,内存和显卡。
我看你的显卡还是VAG的吧,这样显卡也得换,这四样你去淘宝二手看看,很便宜,双核的大概500左右
‘陆’ 处理器架构的基本概念
Core架构的Merom处理器确实性能强劲。在多项测试中,频率2GHz的T7200能战胜频率2.33GHz的T2700就是最好的证明。但是您同时也注意到了,在移动平台Merom虽然性能强劲,但并没有给您带来太大的惊喜。虽然胜过Yonah,但幅度都不大,而且在一些测试项中,频率稍低的T7200也是输给了T2700的。因此可能在移动平台Core微架构的优势不像桌面平台那样出彩——一颗频率最低的E6300也可以全歼高频率的Pentium D。究其原因就是Yonah本身就比较优秀,而不像NetBurst那样失败,况且Core微架构本身就是在Yonah微架构改进而来,成绩不会形成太大的反差也在情理之中。
Core微架构是Intel的以色列设计团队在Yonah微架构基础之上改进而来的新一代微架构。最显着的变化在于在各个关键部分进行强化。为了提高两个核心的内部数据交换效率采取共享式二级缓存设计,2个核心共享高达4MB的二级缓存。其内核采用较短的14级有效流水线设计,每个核心都内建32KB一级指令缓存与32KB一级数据缓存,2个核心的一级数据缓存之间可以直接传输数据。每个核心内建4组指令解码单元,支持微指令融合与宏指令融合技术,每个时钟周期最多可以解码5条X86指令,并拥有改进的分支预测功能。每个核心内建5个执行单元子系统,执行效率颇高。加入对EM64T与SSE4指令集的支持。由于对EM64T的支持使得其可以拥有更大的内存寻址空间,弥补了Yonah的不足,在新一代内存消耗大户——Vista操作系统普及之后,这个优点可以使得Core微架构拥有更长的生命周期。而且使用了Intel最新的五大提升效能和降低功耗的新技术,包括:具有更好的电源管理功能;支持硬件虚拟化技术和硬件防病毒功能;内建数字温度传感器;提供功率报告和温度报告等。尤其是这些节能技术的采用对于移动平台意义尤为重大。
另外 酷睿支持64位
基于Core架构处理器面对不同消费群族,Core处理器出现了小小的分工,专门面对台式机使用的Conroe,笔记本使用Merom,服务器使用WoodCrest,这三款处理器全部基于Core核心架构。
英特尔处理器包括Core系列桌面型、移动型,以及Xeon处理器,甚至嵌入式处理器,全都将相继进入32纳米制程,逐渐代替了现今的45纳米制程。 随着CES脚步接近,英特尔已透露将在CES上发表多款Core i3、i5桌上型与笔记型处理器,包括笔电的Arrandale与桌电Clarkdale相继采用32纳米制程,强调更小的体积与功耗设计。2009年12月23日英特尔揭露,2010年第一季将推出的嵌入式Xeon处理器也将采用新制程。 09底开始投产的32纳米制程,相较于2008年底的45纳米制程,采用了第二代high-k金属闸极晶体管与浸润式微影技术( immersion lithography),强化对处理器内部用电控管,也比45纳米制程尺寸小30%,简化系统设计。根据英特尔的蓝图,2010第一季将针对嵌入式市场推出32纳米制程,代号为Jasper Forest的嵌入式Xeon处理器,比采用旧制程处理器高出30%到70%的每瓦效能,支持PCI 2.0及I/O虚拟化能力。而企业用的服务器Xeon处理器,随着2010年桌上型处理器Clarkdale的推出,与高阶桌上型市场关系密切的入门级Xeon 3000处理器也会在2009年进入32纳米新制程。
至于2009年采用Nehalem-EP架构的Xeon 5000,虽然一样采用Nehalem架构,但将在2010年上半年开始采用32纳米新制程,推出Westmere-EP处理器。而原来提供6核心的Xeon 7000处理器也会在2010上半年推出最多8核心的Nehalem-EX,在2010下半年同样进入新制程的Westmere-EX。
除了嵌入式系统、服务器、笔电与桌上型相继进入新制程后,目前就只剩下低功耗设计的Atom处理器尚未进入,仍采用45纳米制程。
相较于英特尔在2010年进入新制程,AMD则是要到2011年开始进入32纳米制程,届时将采用新的Bulldozer核心架构设计,包括效能级12至16核心的Interlagos,以及强调能源效益6至8核心的Valencia。
8核心的CPU 现在不可能对应现在的主板所以不可能大张旗鼓的宣传, 最便宜的8核CPU应该是SONY PS3的CELL, 拥有8个核心浮点性能是酷睿双核的N多倍,而现在4核心都没有普及, AMD INTEL是不会着急大量生产他们的8核CPU的,可以说现在的INTEL 4核心只是把2个酷睿内核封装在一个核心里面, 2个核心之间并没用直接通信, AMD倒是出了真4核,只是现在卖的不好还不能成为主流。总结一下5年之后4核心基本可以替换现在的双核成为主流,而8核心甚至16核心CPU将会成为那时候的高端产品! 1、X86
虽然上面说了按处理器架构分的话,目前就术语本身来说主要有四种说法,即IA-32、IA-64、x86-32、x86-64,但是其实它们分属于两类,IA-32、x86-32都属于x86,即英特尔的32位x86架构,x86-64是AMD在其最新的Athlon 64处理器系列中采用的新架构,但这一处理器基础架构还是IA-32(因英特尔的x86架构并未申请专利保护,所以绝大多数处理器厂商为了保持与Intel的主流处理器兼容,都不得不采用这一x86架构),只是在此架构基础之上作了一些扩展,以支持64位程序的应用,进一步提高处理器的运算性能。x86-64相比Intel的64位服务器处理器产品Itanium和 Itanium 2系列处理器产品来说最大的优点就是可以全面兼容以前的32位x86架构的应用程序,以保护用户以前的投资;而Intel的Itanium和Itanium 2系列处理器需要另外通过软件或硬件来实现对以前32位程序的兼容。
正因如此,以后我们看到诸如IA-32、x86-32、x86-64要清楚,其实它们都是一类型的,都属于x86架构的。如Intel的32位服务器Xeon(至强)处理器系列、AMD的全系列,还有VIA的全系列处理器产品都属于x86架构的。
2、IA64
IA-64架构是英特尔为了全面提高以前IA-32位处理器的运算性能,是Intel和Hp共同开发了6年的64位CPU架构,是专为服务器市场开发的一种全新的处理器架构,它放弃了以前的x86架构,认为它严重阻碍了处理器的性能提高。它的最初应用是英特尔的Itanium(安腾)系列服务器处理器,2009年最新的Itanium 2系列处理器也是采用这一架构的。由于它不能很好地解决与以前32位应用程序的兼容,所以应用受到较大的限制,尽管目前Intel采取了各种软、硬方法来弥补这一不足,但随着AMD Operon处理器的全面投入,Intel的IA-64架构的这两款处理器前景不容乐观。
3、RISC
除了以上所介绍的两类IA架构的服务器处理器外,还有一种主流的处理器架构,也可称之为“RISC”(其实它是一种按处理器指令执行方式划分的类型)。采用这一架构的仍是IBM、SUN和HP等。不过近几年由于这一处理器架构标准没有完全统一、处理器的发展和应用非常缓慢,使得原来本占有的绝大多数中高档服务器市场被IA架构瓜分了大部分江山,已是日趋衰落。目前连这几家服务器厂商也开始了自己放弃,转投IA旗下,推出越来越多的IA架构服务器,以保生存。
目前采用这一架构的主要服务器处理器有IBM的Power4、Compaq Alpha213 64、HP PA-8X00、Sun的UltraSPARC III、SGI的MIPS 64 20Kc等。
4、Intel
简介
Intel 常见服务器CPU分类。处理器技术发展真是日新月异,上一代产品还没被大家分清,马上就要被下一代产品替代了。在这里根据个人的一些了解,帮大家做个划分。
一,Xeon(至强)
目前全部Intel IA架构的双路,四路服务器,全部在采用Xeon(至强)CPU,它是基于X86架构的一种服务器专用的CPU 。早期的处理器名称是以数字来表示,并以“86”作为结尾,包括Intel 8086、80186、80286、80386、80486、80586、奔腾系列等等,因此其架构被称为“x86”,至今全部Xeon,包括双核、四核的,全部是基于X86架构的产品。
二,Itanium(安腾)
安腾处理器也常被称为IA-64位处理器,是Intel公司面向最顶级的高端应用开发一款纯64位处理器产品,具有64位寻址能力和64位宽的寄存器,它所具备的一系列特性,如EPIC指令等,都是为要求最苛刻的计算及企业级需求而设计的。对于最苛求性能的企业或者需要高性能运算功能支持的应用(包括电子交易安全处理、超大型数据库、电脑辅助机械引擎、尖端科学运算等)而言,Itanium处理器很好的满足了用户的要求。
Intel 服务器处理器列表 系列 Xeon3000 Xeon3200 Xeon3300 Xeon5000 Xeon5100 Xeon5300 Xeon5200 Xeon5400 Xeon7100 Xeon7300 Itanium9000 Itanium9100 CPU代号 ? ? ? Dempsey Woodcrest Clovertown Wolfdale-DP Harpertown Tulsa Tigerton Montecito Montvale 制造工艺 65nm 65nm 45nm 65nm 65nm 65nm 45nm 45nm 65nm 65nm 90nm 90nm 指令集 X86 X86 X86 X86 X86 X86 X86 X86 X86 X86 EPIC EPIC 酷睿微架构 √ √ √ × √ √ √ √ × √ × × 系统最大处理器数量 1 1 1 2 2 2 2 2 32 32 512 512 主频(GHz) 1.86/2.13/
2.33/2.4/
2.66/3.0 2.13/2.4/
2.66 2.5/2.83/
3.0 2.67/3.0/
3.2/3.73 1.6/1.86/
2.0/2.33/
2.66/3.0 1.6/1.86/
2.0/2.33/
2.66/3.0 1.86/3.4/
3.33 2.0/2.33/
2.5/2.66/
2.8/2.83/
3.0/3.16/
3.2 2.5/2.6/
3.0/3.16/
3.2/3.33/
3.4/3.5 1.6/1.86/
2.13/2.4/
2.93 1.4/1.42/
1.6 1.42/1.6/
1.66 二级缓存(MB) 2/4 8 6/12 4 4 8 6 12 2*1 8 ? ? 三级缓存(MB Technorati 标签: 处理器,CPU
) 54234 56456 564646 768678 978978 978978 87987 980898 4/8/16 8797 6/8/12/18/24 8/12/18/24 前端总线(MHZ) 1066/
1333 1066 1333 667/
1066 1066/
1333 1066/
1333 1066/
1333/
1600 1333/
1600 667/800 1066 400/533 400/533/667 功耗(W) 65 95 95 95/130 40/65/80 50/80/120 65/80 80/120/150 95/150 80/130 75/104 75/104 双核 √ ? ? √ √ ? √ ? √ ? √ √ 四核 ? √ √ ? ? √ ? √ ? √ ? ? 超线程 × × × √ × × × × √ × √ √ 64位运算 EM64T EM64T EM64T EM64T EM64T EM64T EM64T EM64T EM64T EM64T 纯64位 纯64位 三,处理器点评
1,首先看单路处理器,包括Xeon3000、3200、3300系列,其中3000和3200系列的单路处理器全部都采用了酷睿微架构,性能、功耗都非常理想,可以根据应用情况来选择主频,双核或四核。另外的3300系列采用了最新的45nm制造工艺,采用增强型酷睿微架构,性能更强,功耗更低。
2,双路处理器,Xeon5000系列功耗高,性能差,现在已经基本绝迹;5100,5300系列开始使用酷睿微架构,性能,功耗都非常好,可以说是Intel超级成功的一款处理器产品,性能相对于上代处理器有数倍提升,并且功耗有所降低,长时间让竞争对手根本就没有能与之抗衡的产品。而新推出的5200,5400系列更在已经基础上,采用了45nm制造工艺,采用增强型酷睿微架构,性能较5100、5300系列平均提高20%,功耗降低近38%,更为要命的是,价格还很低,简直是现阶段服务器CPU不二的选择。
3,多路至强处理器,在Intel官方的列表上,Xeon7100,7300处理器被标注可以单系统内支持到32处理器,但在国内市场上,能经常见到的只有4路的至强服务器。而Xeon7100处理器,因为当时还没有采用先进的酷睿微架构,所以4颗7100系列的CPU加起来还没有2颗5300系列的双路处理器跑的快,而且价格还很高,所以十分不推荐使用,况且Xeon7100也很快就要在市场上消失了。新的Xeon7300系列是一款非常优秀的多路至强CPU,采用了酷睿微架构,每CPU4核心,如果把4颗CPU组合在一起,搭配上大容量的内存,性能将会非常强劲,足以满足高性能,大数据量的计算需求。
4,安腾处理器,其实安腾处理器的主要竞争对手是IBM、SUN等品牌的高端的小型机CPU,如果您一直在使用高端小型机,比如安装IBM Power CPU的,那么我觉得您很有必要去了解一下安腾,去了解一下这款新一代开放性的高端CPU产品,也许您会发现,原来高稳定,高性能,不一定非得是高成本。除此外,在一些科学运算中,安腾也会给您带来意想不到的效果。
5、CORE
2006年3月上旬,Intel 于美国旧金山举办了2006年度的春季 IDF 大会(Intel Developer Forum)。在这届 IDF 大会上,有一个万众瞩目的焦点:Intel 宣布下一代处理器将采用的 Core 微架构。这也使得2009年的 IDF 大会成为近几年来最激动人心的一次。在2008年秋季的 IDF 大会的开幕主题演讲中,Intel 的执行长官 Paul Otellini 就曾经指出,未来处理器的技术发展重点将是“性能功耗比”(Performance per Watt)。而这届 IDF 大会的主题更加明确:功耗最优化平台(Power-Optimized Platforms)——与 Core 微架构紧密相关。根据 Intel 的说法,采用新的 Core 微架构的处理器将在整数性能和商业计算方面得到极大的飞跃,肯定将超过竞争对手 AMD 的产品。更加美妙的是,拥有这样强悍性能的 Core 微架构在功耗方面将比前任大幅下降,从而完美的体现了这届 IDF 大会的主题。
Core 微架构是由 Intel 位于以色列海法的研发团队负责设计的。该以色列团队早在2003年就因为设计出兼具高性能与低功耗的 Banias 处理器而闻名天下,Core 微架构也是他们在 Yonah 微架构之后的最新杰作。Core 微架构很早就出现在 Intel 的计划之中了,早在2003年夏天 Intel 就曾经隐约提到过,原定是 Centrino 平台的第三代 Napa 平台后期和第四代 Santa Rosa 平台所采用的处理器。没想到由于 NetBurst 微架构的失败,Core 微架构被 Intel 改弦易辙,推上前台,被赋予了取代 NetBurst 微架构、一统桌面、移动与服务器平台的历史使命。
作为 Intel 的新旗舰,Core 微架构拥有双核心、64bit指令集、4发射的超标量体系结构和乱序执行机制等技术,使用65nm制造工艺生产,支持36bit的物理寻址和48bit的虚拟内存寻址,支持 Intel 所有的扩展指令集。Core 微架构的每个内核拥有 32KB 的一级指令缓存、32KB 的双端口一级数据缓存,然后2个内核共同拥有 4MB 的共享式二级缓存。Core 微架构在2009年内发布的最高频率将是 Conroe XE 的3.33GHz。每种产品拥有自己的最高 TDP:Merom 最高35W,Conroe 最高65W,Woodcrest 最高80W。此外,针对不同客户的要求也可以提供低功耗的版本。例如,低电压版本的 Woodcrest 将会定位于刀片系统,通过降低频率等方法使 TDP 低达40W。
Intel 声称 Core 微架构拥有14级“有效”流水线。与 Banias 同出于一个设计团队,Core 微架构仅有14级的整数流水线,并不让人意外。但是,究竟什么是14级“有效”流水线?
在过去的几年里,有关流水线级数的几个概念经常被混淆。我们首先澄清一下,流水线的“条数”与“级数”是完全不同的概念。能够完整执行各种指令的一系列功能单元组成“一条”流水线。而关于流水线级数,可以这样简单理解:在传统意义上,一条流水线所包含的功能单元一般可以被划分为多个部分,它可以被划分成几个部分,就称这条流水线是“几级”的。然后让我们来了解一下“有效流水线”的定义,这也是在过去容易造成误解之处。简而言之,所谓的有效流水线,就是指发生分支预测错误时,所需要重新执行的流水线级数。以采用 NetBurst 微架构的处理器来说,Willamette、Northwood与Prescott核心的有效流水线级数分别是20、20和31,而原始的P6 微架构的处理器则是10级。
不过,对于现代的普遍采用乱序执行方式的X86处理器来说,有效流水线级数并不能代表真正意义上的流水线级数。NetBurst 微架构的处理器仅仅是 Trace Cache 的 Trace 建立过程,就有起码10级;P6 微架构的完整流水线级数应该是12至15(10级有效流水线加上指令执行完毕后的 Retire 动作,与可能出现的 Reorder Buffer延迟)。随着乱序执行引擎的工作方式越来越复杂,X86处理器流水线级数的概念也日益模糊。换言之,Core 微架构真正意义上的流水线级数并不会只有14。
Core 微架构的14级有效流水线与 Prescott 核心的31级有效流水线的对比,也只有参考意义。那些仅仅根据这个数字的对比就断言 Core 微架构只能达到很低的频率的说法是不具有足够的说服力的。Conroe XE 3.33GHz 处理器的存在已经让很多相信这个说法的用户大吃一惊。而实际上,已经有玩家声称,Conroe 处理器可以在风冷的情况下达到4GHz以上的频率。Core 微架构的频率到底能够到达什么样的高度,让我们拭目以待。
core与conroe的区别
我们把Core音译为酷睿,它是Intel下一代处理器产品将统一采用的微架构,而Conroe只是对基于Core微架构的Intel下一代桌面平台级产品的代号。除Conroe处理器之外,Core微架构还包括代号为Merom的移动平台处理器和代号为Woodcrest的服务器平台处理器。采用Core的处理器将被统一命名。由于上一代采用Yonah微架构的处理器产品被命名为Core Duo,因此为了便于与前代Intel双核处理器区分,Intel下一代桌面处理器Conroe以及下一代笔记本处理器Merom都将被统一叫做Core 2 Duo。另外,Intel的顶级桌面处理器被命名为Core 2 Extreme,以区别于主流处理器产品。
此次发布的Conroe/Merom共计10款,其中代号以E和X开头的5款面向台式机,以T开头的4款面向笔记本。
英特尔初期发布Core微架构处理器包含E6000桌面系列和T7000、T5000移动系列,E6000系列处理器外频为266MHz,前端总线频率为1066MHz,拥有2MB(E6300、E6320、E6400)或4MB(E6600、E6550、E6700) 二级缓存,面向高性能市场;稍后推出的E4000系列外频相对低一些,为200MHz,前端总线800MHz,定位低于E6000系列,发布时间将延后至2007年第一季度。除普通版Conroe之外,Intel还将发布Conroe XE处理器取代现有的旗舰产品Pentium XE——即X6800。
虽然桌面平台的Conroe的前端总线为1066MHz,但这次的主角移动版处理器Merom前端总线均为667MHz(Merom处理器原本是属于下一代移动平台Santa Rosa上的处理器产品,现在不得不在Santa Rosa平台推出之前先把Merom处理器推向市场,并可以顺利地植入目前的Napa平台上面。为了在Intel 945芯片组上面运行,其前端总线为了适合于Intel 945芯片组,而仍然保留667MHz的前端总线设计。而今后出现的Santa Rosa平台上的Merom处理器其前端总线就改为800MHz。这种情景与当年推出400MHz的Dothan为适应Intel 855芯片组的做法十分相似)。二级缓存则加大为4MB(低端的T5000系列仍为2MB),意味着缓存中可以寄存更多等待处理数据,减少处理器与内存以及外围设备间数据传输的瓶颈,提高指令的命中率,大大提高执行效能。
随着Napa平台上Yonah处理器被替换成Merom处理器,这也意味着英特尔移动处理器开始进入64位元双核技术时代,Yonah作为双核移动处理器的首战英雄将开始退居其后
‘柒’ NGD继任VDI的四个前提条件
1. 原先的使用的传统技术,因为业务增长已经无法满足用户的需求。比如早期磁盘容量只有1.44M ,在新的移动存储设备出现后迅速被替代。
2. 新技术相对原先的技术有质的超越,可以几何量的提升用户的体验。如原先需几个小时才能完成的计算,在新设备中仅需几秒钟。
3. 更换新技术的成本低,消耗小。 并能保留用户的一般性使用习惯。数据可以平稳的过渡。比如将原先5400PM 的机械式硬盘更换成SSD 闪存硬盘,数据必须可以无损的过渡到新存储中。
4. 有具备后续强大研发实力的机构不断为此技术提供支持。否则就是昙花一现。用户更换新技术后,无法得到必要的技术支持与后续后级将成为致命的风险。如一年以来多家提供云服务的厂商前后宣布结束一样。
‘捌’ 只有X86架构的服务器能玩游戏吗
g Unit/中央处理器”的缩写,CPU一般由逻辑运算单元、控制单元和存储单元组成。在逻辑运算和控制单元中包括一些寄存器,这些寄存器用于CPU在处理数据过程中数据的暂时保存。
CPU主要的性能指标有:
1.主频
主频也叫时钟频率,用来表示CPU内核工作的时钟频率(CPU Clock Speed),即CPU内数字脉冲信号震荡的速度。
2.外频
外频是CPU与主板之间同步运行的速度。
3.前端总线(FSB)频率
总线是将计算机微处理器与内存芯片以及与之通信的设备连接起来的硬件通道。前端总线将CPU连接到主内存和通向磁盘驱动器、调制解调器以及网卡这类系统部件的外设总线。人们常常以MHz表示的速度来描述总线频率。
前端总线(FSB)频率是直接影响CPU与内存直接数据交换速度。由于数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。
4、CPU的位和字长
位:在数字电路和电脑技术中采用二进制,代码只有“0”和“1”,其中无论是 “0”或是“1”在CPU中都是 一“位”。
字长:电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。字节和字长的区别:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。
5.倍频系数
倍频系数是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高倍频而得到高主频的CPU就会出现明显的“瓶颈”效应—CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,而AMD之前都没有锁。
6.缓存
缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小。
L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32—256KB。
L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,现在家庭用CPU容量最大的是512KB,而服务器和工作站上用CPU的L2高速缓存更高达256-1MB,有的高达2MB或者3MB。
L3 Cache(三级缓存),分为两种,早期的是外置,现在的都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显着的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。
其实最早的L3缓存被应用在AMD发布的K6-III处理器上,当时的L3缓存受限于制造工艺,并没有被集成进芯片内部,而是集成在主板上。在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。后来使用L3缓存的是英特尔为服务器市场所推出的Itanium处理器。接着就是P4EE和至强MP。Intel还打算推出一款9MB L3缓存的Itanium2处理器,和以后24MB L3缓存的双核心Itanium2处理器。
但基本上L3缓存对处理器的性能提高显得不是很重要,比方配备1MB L3缓存的Xeon MP处理器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。
7.CPU扩展指令集
CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE3也是最先进的指令集,英特尔Prescott处理器已经支持SSE3指令集,AMD会在未来双核心处理器当中加入对SSE3指令集的支持,全美达的处理器也将支持这一指令集。
8.CPU内核和I/O工作电压
从586CPU开始,CPU的工作电压分为内核电压和I/O电压两种,通常CPU的核心电压小于等于I/O电压。其中内核电压的大小是根据CPU的生产工艺而定,一般制作工艺越小,内核工作电压越低;I/O电压一般都在1.6~5V。低电压能解决耗电过大和发热过高的问题。
9.制造工艺
制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。现在主要的180nm、130nm、90nm。最近官方已经表示有65nm的制造工艺了。
10.指令集
(1)CISC指令集
CISC指令集,也称为复杂指令集,英文名是CISC,(Complex Instruction Set Computer的缩写)。在CISC微处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。顺序执行的优点是控制简单,但计算机各部分的利用率不高,执行速度慢。其实它是英特尔生产的x86系列(也就是IA-32架构)CPU及其兼容CPU,如AMD、VIA的。即使是现在新起的X86-64(也被成AMD64)都是属于CISC的范畴。
要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU—i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加了X87芯片,以后就将X86指令集和X87指令集统称为X86指令集。
虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到过去的PII至强、PIII至强、Pentium 3,最后到今天的Pentium 4系列、至强(不包括至强Nocona),但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU(如AMD Athlon MP、)都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。x86CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。
(2)RISC指令集
RISC是英文“Reced Instruction Set Computing ” 的缩写,中文意思是“精简指令集”。它是在CISC指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做“超标量和超流水线结构”,大大增加了并行处理能力。RISC指令集是高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,现在Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。
目前,在中高档服务器中采用RISC指令的CPU主要有以下几类:PowerPC处理器、SPARC处理器、PA-RISC处理器、MIPS处理器、Alpha处理器。
(3)IA-64
EPIC(Explicitly Parallel Instruction Computers,精确并行指令计算机)是否是RISC和CISC体系的继承者的争论已经有很多,单以EPIC体系来说,它更像Intel的处理器迈向RISC体系的重要步骤。从理论上说,EPIC体系设计的CPU,在相同的主机配置下,处理Windows的应用软件比基于Unix下的应用软件要好得多。
Intel采用EPIC技术的服务器CPU是安腾Itanium(开发代号即Merced)。它是64位处理器,也是IA-64系列中的第一款。微软也已开发了代号为Win64的操作系统,在软件上加以支持。在Intel采用了X86指令集之后,它又转而寻求更先进的64-bit微处理器,Intel这样做的原因是,它们想摆脱容量巨大的x86 ISA架构,从而引入精力充沛而又功能强大的指令集,于是采用EPIC指令集的IA-64架构便诞生了。IA-64 在很多方面来说,都比x86有了长足的进步。突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。
IA-64微处理器最大的缺陷是它们缺乏与x86的兼容,而Intel为了IA-64处理器能够更好地运行两个朝代的软件,它在IA-64处理器上(Itanium、Itanium2 ……)引入了x86-to-IA-64的解码器,这样就能够把x86指令翻译为IA-64指令。这个解码器并不是最有效率的解码器,也不是运行x86代码的最好途径(最好的途径是直接在x86处理器上运行x86代码),因此Itanium 和Itanium2在运行x86应用程序时候的性能非常糟糕。这也成为X86-64产生的根本原因。
(4)X86-64 (AMD64 / EM64T)
AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑寻址,同时提供转换为32位寻址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。
x86-64(也叫AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器。
而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E处理器也支持64位技术。
应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。
11.超流水线与超标量
在解释超流水线与超标量前,先了解流水线(pipeline)。流水线是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5—6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5—6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。经典奔腾每条整数流水线都分为四级流水,即指令预取、译码、执行、写回结果,浮点流水又分为八级流水。
超标量是通过内置多条流水线来同时执行多个处理器,其实质是以空间换取时间。而超流水线是通过细化流水、提高主频,使得在一个机器周期内完成一个甚至多个操作,其实质是以时间换取空间。例如Pentium 4的流水线就长达20级。将流水线设计的步(级)越长,其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。
12.封装形式
CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。
13、多线程
同时多线程Simultaneous multithreading,简称SMT。SMT可通过复制处理器上的结构状态,让同一个处理器上的多个线程同步执行并共享处理器的执行资源,可最大限度地实现宽发射、乱序的超标量处理,提高处理器运算部件的利用率,缓和由于数据相关或Cache未命中带来的访问内存延时。当没有多个线程可用时,SMT处理器几乎和传统的宽发射超标量处理器一样。SMT最具吸引力的是只需小规模改变处理器核心的设计,几乎不用增加额外的成本就可以显着地提升效能。多线程技术则可以为高速的运算核心准备更多的待处理数据,减少运算核心的闲置时间。这对于桌面低端系统来说无疑十分具有吸引力。Intel从3.06GHz Pentium 4开始,所有处理器都将支持SMT技术。
14、多核心
多核心,也指单芯片多处理器(Chip multiprocessors,简称CMP)。CMP是由美国斯坦福大学提出的,其思想是将大规模并行处理器中的SMP(对称多处理器)集成到同一芯片内,各个处理器并行执行不同的进程。与CMP比较, SMT处理器结构的灵活性比较突出。但是,当半导体工艺进入0.18微米以后,线延时已经超过了门延迟,要求微处理器的设计通过划分许多规模更小、局部性更好的基本单元结构来进行。相比之下,由于CMP结构已经被划分成多个处理器核来设计,每个核都比较简单,有利于优化设计,因此更有发展前途。目前,IBM 的Power 4芯片和Sun的 MAJC5200芯片都采用了CMP结构。多核处理器可以在处理器内部共享缓存,提高缓存利用率,同时简化多处理器系统设计的复杂度。
2005年下半年,Intel和AMD的新型处理器也将融入CMP结构。新安腾处理器开发代码为Montecito,采用双核心设计,拥有最少18MB片内缓存,采取90nm工艺制造,它的设计绝对称得上是对当今芯片业的挑战。它的每个单独的核心都拥有独立的L1,L2和L3 cache,包含大约10亿支晶体管。
15、SMP
SMP(Symmetric Multi-Processing),对称多处理结构的简称,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构。在这种技术的支持下,一个服务器系统可以同时运行多个处理器,并共享内存和其他的主机资源。像双至强,也就是我们所说的二路,这是在对称处理器系统中最常见的一种(至强MP可以支持到四路,AMD Opteron可以支持1-8路)。也有少数是16路的。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。在高性能服务器和工作站级主板架构中最为常见,像UNIX服务器可支持最多256个CPU的系统。
构建一套SMP系统的必要条件是:支持SMP的硬件包括主板和CPU;支持SMP的系统平台,再就是支持SMP的应用软件。
为了能够使得SMP系统发挥高效的性能,操作系统必须支持SMP系统,如WINNT、LINUX、以及UNIX等等32位操作系统。即能够进行多任务和多线程处理。多任务是指操作系统能够在同一时间让不同的CPU完成不同的任务;多线程是指操作系统能够使得不同的CPU并行的完成同一个任务。
要组建SMP系统,对所选的CPU有很高的要求,首先、CPU内部必须内置APIC(Advanced Programmable Interrupt Controllers)单元。Intel 多处理规范的核心就是高级可编程中断控制器(Advanced Programmable Interrupt Controllers--APICs)的使用;再次,相同的产品型号,同样类型的CPU核心,完全相同的运行频率;最后,尽可能保持相同的产品序列编号,因为两个生产批次的CPU作为双处理器运行的时候,有可能会发生一颗CPU负担过高,而另一颗负担很少的情况,无法发挥最大性能,更糟糕的是可能导致死机。
16、NUMA技术
NUMA即非一致访问分布共享存储技术,它是由若干通过高速专用网络连接起来的独立节点构成的系统,各个节点可以是单个的CPU或是SMP系统。在NUMA中,Cache 的一致性有多种解决方案,需要操作系统和特殊软件的支持。图2中是Sequent公司NUMA系统的例子。这里有3个SMP模块用高速专用网络联起来,组成一个节点,每个节点可以有12个CPU。像Sequent的系统最多可以达到64个CPU甚至256个CPU。显然,这是在SMP的基础上,再用NUMA的技术加以扩展,是这两种技术的结合。
17、乱序执行技术
乱序执行(out-of-orderexecution),是指CPU允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理的技术。这样将根据个电路单元的状态和各指令能否提前执行的具体情况分析后,将能提前执行的指令立即发送给相应电路单元执行,在这期间不按规定顺序执行指令,然后由重新排列单元将各执行单元结果按指令顺序重新排列。采用乱序执行技术的目的是为了使CPU内部电路满负荷运转并相应提高了CPU的运行程序的速度。分枝技术:(branch)指令进行运算时需要等待结果,一般无条件分枝只需要按指令顺序执行,而条件分枝必须根据处理后的结果,再决定是否按原先顺序进行。
18、CPU内部的内存控制器
许多应用程序拥有更为复杂的读取模式(几乎是随机地,特别是当cache hit不可预测的时候),并且没有有效地利用带宽。典型的这类应用程序就是业务处理软件,即使拥有如乱序执行(out of order execution)这样的CPU特性,也会受内存延迟的限制。这样CPU必须得等到运算所需数据被除数装载完成才能执行指令(无论这些数据来自CPU cache还是主内存系统)。当前低段系统的内存延迟大约是120-150ns,而CPU速度则达到了3GHz以上,一次单独的内存请求可能会浪费200-300次CPU循环。即使在缓存命中率(cache hit rate)达到99%的情况下,CPU也可能会花50%的时间来等待内存请求的结束- 比如因为内存延迟的缘故。
你可以看到Opteron整合的内存控制器,它的延迟,与芯片组支持双通道DDR内存控制器的延迟相比来说,是要低很多的。英特尔也按照计划的那样在处理器内部整合内存控制器,这样导致北桥芯片将变得不那么重要。但改变了处理器访问主存的方式,有助于提高带宽、降低内存延时和提升处理器性能。
CPU就像一个人的大脑,你要做一件事必须得经过大脑的思考,电脑也是这样。
‘玖’ 前端需要编译器吗vscode这个不是编译器吗
编译器就是将“一种语言(通常为高级语言)”翻译为“另一种语言(通常为低级语言)”的程序。一个现代编译器的主要工作流程:源代码 (source code) → 预处理器 (preprocessor) → 编译器 (compiler) → 目标代码 (object code) → 链接器 (Linker) → 可执行程序 (executables)
从这个意义上来说,前端是没有编译器的,但是会有开发环境(IDE)一说,前端虽然是纯文本,可以用普通的记事本或者editplus之类来的编辑,但会缺少象语法补全、代码格式化、脚本调试、语法高亮这些功能,所以才会需要有这些功能的IDE存在,vscode不是编译器,它只是一个代码编辑器,仅就前端来说,如果不用vscode,也可以用象hbuilderX这类软件。