看cpu的方法有很多,也很简单。最直接的方法是进入-我的电脑-在空白区点击鼠标右键,选择-属性。
可以看到电脑最重要的硬件部分CPU和内存的一些参数,如下图所示。
如何看cpu的性能
cpu性能主要取决于以下参数
CPU系列,比如早期的赛扬,奔腾双核和酷睿双核,目前主流的处理器是酷睿i3和i5,i7和AMD四核处理器。
核心CPU核心处理器
64位CPU架构
核心数量有双核、四核,甚至更高。内核越高,性能越好。
核心电压(V) 1.25-1.4V电压越低,功耗越低。
制造工艺(微米)0.065微米目前大部分处理器采用45nm工艺,高端处理器目前采用32nm工艺。工序越低,相对等级越高。
2800 MHz的CPU频率(MHz)越高,处理器速度越快。
总线频率(MHz) 800MHz
下面是决定cpu性能的决策参数性能指标。
主频
主频也叫时钟频率,单位是兆赫(MHz)或千兆赫(GHz),用来表示CPU运行和数据处理的速度。
CPU主频=外部频率倍频系数。很多人认为主频决定CPU的运行速度,这不仅是片面的,对于服务器来说也是一种偏差。到目前为止,还没有一个确定的公式可以实现主频与实际计算速度之间的数值关系。甚至两大处理器厂商Intel和AMD在这一点上也有很大的争议。从英特尔产品的发展趋势可以看出,英特尔非常重视加强自身主频的发展。和其他处理器厂商一样,曾经有人拿一款1GHz的全美达处理器做对比,其运行效率相当于2GHz的Intel处理器。主频和实际运算速度有一定的关系,但不是简单的线性关系。所以CPU的主频和CPU的实际运算能力没有直接关系。主频表示CPU中数字脉冲信号振荡的速度。在英特尔的处理器产品中,我们也可以看到这样的例子:1 GHz的安腾芯片的性能并不能和2.66 GHz的至强/骁龙媲美,或者说1.5 GHz的安腾2和4 GHz的至强/骁龙差不多快。CPU的运算速度取决于CPU的流水线、总线等性能指标。
主频与实际运行速度有关。只能说主频只是CPU性能的一个方面,而不是CPU的整体性能。
PS:有网友分享了使用电脑的经验【32位和64位的区别】,很有参考价值。这里给大家整理一下。
外部频率
外部频率是CPU的参考频率,单位为MHz。CPU的外接频率决定了整个主板的运行速度。一般来说,在台式电脑中,超频是CPU的外频(当然,一般来说,CPU的倍频是锁定的)。我相信这是很好理解的。但是对于服务器CPU来说,超频是绝对不允许的。前面说过,CPU决定主板的运行速度,两者同步运行。如果服务器CPU超频,改变外部频率,就会异步运行。(很多台式电脑的主板都支持异步运行。)这会造成整个服务器系统的不稳定。
目前,在大多数计算机系统中,外部频率与主板前端总线不同步,外部频率容易与FSB频率混淆。下面前端总线介绍两者的区别。
前端总线(FSB)频率
前端总线(FSB)频率(即总线频率)直接影响CPU与内存直接数据交换的速度。有一个公式可以算出来,就是数据带宽=(总线频率数据位宽)/8。数据传输的最大带宽取决于同时传输的所有数据的宽度和传输频率。比如现在的Xeon Nocona支持64位,它的前端总线是800MHz。根据公式,其数据传输的最大带宽为6.4GB/s。
外频和FSB频率的区别:FSB的速度是指数据传输的速度,外频是指CPU和主板同步运行的速度。那是为了s
实际上,“HyperTransport”架构的出现改变了FSB的实际频率。IA-32架构必须具备三个重要组件:内存控制器中枢(MCH)、I/O控制器中枢和PCI中枢,比如英特尔典型的芯片组Intel 7501和Intel7505,它们是为双至强处理器量身定制的。其中包含的MCH为CPU提供了533MHz频率的前端总线,配合DDR内存,前端总线的带宽可以达到4.3GB/s,但是随着处理器性能的不断提升,给系统架构带来了很多问题。“HyperTransport”架构不仅解决了问题,还更有效地提高了总线带宽。比如AMD Opteron处理器,灵活的HyperTransport I/O总线架构使其集成了内存控制器,使得处理器可以直接与内存交换数据,而不需要通过系统总线发送到芯片组。这样一来,AMD皓龙处理器中FSB的频率就不知道从何说起了。
CPU的位和字长
位:在数字电路和计算机技术中,采用二进制,代码只有“0”和“1”,其中“0”或“1”在CPU中均为一位。
字长:在计算机技术中,CPU在单位时间内(同一时刻)一次能处理的二进制数的位数称为字长。因此,能够处理字长为8位的数据的CPU通常称为8位CPU。类似地,32位CPU可以在单位时间内处理字长为32位的二进制数据。以及字节长度和字长的区别:由于常见的英文字符可以用8位二进制表示,所以8位通常称为一个字节。一个字的长度不是固定的,对于不同的CPU,这个字的长度是不一样的。8位CPU一次只能处理一个字节,而32位CPU一次可以处理四个字节。类似地,64位CPU一次可以处理8个字节。
倍频系数
倍频系数是指CPU的主频率与外部频率的相对比例关系。在外部频率相同的情况下,倍频越高,CPU频率越高。但实际上,在外部频率相同的前提下,高倍频的CPU本身意义不大。这是因为CPU与系统之间的数据传输速度是有限的,一味追求高主频、高倍频的CPU会有明显的“瓶颈”效应——CPU从系统获取数据的极限速度无法满足CPU运行的速度。一般除了工程样片版的Inter的CPU,倍频都是锁定的。少部分奔腾双核E6500K配InterCore 2核和部分至尊版CPU不锁倍频,AMD之前也不锁。现在AMD推出了CPU黑盒版(也就是倍频版解锁,用户可以自由调节倍频。调整倍频的超频方式比调整外频稳定得多)。
隐藏物
缓存大小也是CPU的重要指标之一,缓存的结构和大小对CPU速度影响很大。CPU中缓存的运行频率极高,通常与处理器同频运行,因此工作效率远大于系统内存和硬盘。实际中,CPU经常需要重复读取同一个数据块,缓存容量的增加可以大大提高CPU中读取数据的命中率,而不是在内存或硬盘中搜索,从而提高系统性能。但是由于CPU芯片面积和成本的原因,缓存很小。
L1缓存(一级缓存)是CPU的第一级缓存,分为数据缓存和指令缓存。内置L1缓存的容量和结构对CPU的性能有很大影响。但是缓存全部由静态RAM组成,结构复杂,所以如果CPU管芯面积不太大的话,L1缓存的容量不能做得太大。一般来说,服务器CPU的L1缓存容量通常为32-256KB。
L2缓存(二级缓存)是CPU的二级缓存,分为内部和外部芯片。内部芯片L2缓存运行速度与主频相同,而外部L2缓存只有主频的一半。L2缓存容量也会影响CPU的性能。原则是越大越好。以前家用CPU最大容量是512KB,现在笔记本电脑可以达到2M,而服务器和工作站CPU的L2 cache更高,达到8M以上。
L3 (Level L3 Cache),分为两种。早期的都是外在的,现在都是内在的。其实际作用是L3缓存的应用可以进一步降低内存延迟,提高处理器在大数据计算中的性能。降低内存延迟,提高大数据量的计算能力,对游戏很有帮助。但是,在服务器领域添加L3缓存仍然可以显著提高性能。例如,具有大型L3缓存的配置可以更有效地使用物理内存,因此它可以比较慢的磁盘I/O子系统处理更多的数据请求。具有更大L3缓存的处理器提供了更高效的文件系统缓存行为以及更短的消息和处理器队列长度。
其实最早的L3缓存应用在AMD发布的K6-III处理器上。当时L3缓存受制造工艺限制,没有集成到芯片中,而是在主板上。L3缓存,只能和系统总线频率同步,和主存区别不大。后来,英特尔为服务器市场推出的安腾处理器被用于L3缓存。然后是P4EE和至强MP。英特尔还计划在未来推出9MB三级高速缓存的Itanium2处理器和24MB三级高速缓存的双核Itanium2处理器。
但是基本上L3缓存对于处理器的性能提升并不是很重要。比如配备1MB三级缓存的至强MP处理器仍然不是骁龙的对手,所以可以看出前端总线的增加会比缓存的增加带来更有效的性能提升。
CPU扩展指令集
根据来自计算和控制系统的指令,每个CPU都设计有一系列与其硬件电路相匹配的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率最有效的工具之一。从现阶段的主流架构来看,指令集可以分为两部分:复杂指令集和精简指令集(指令集有四种类型)。从具体的应用来看,比如Intel的MMX(Multi Media Extended,是AMD猜测的全称,但Intel没有说明其词源)、SSE、SSE 2(streaming-single instruction multiple data-extensions 2)、SSE3、SSE4系列以及AMD的3DNow!都是CPU的扩展指令集,分别增强了CPU和互联网的多媒体、图形、图像的处理能力。CPU的扩展指令集通常称为“CPU指令集”。SSE3指令集也是目前最小的指令集。以前,MMX包含57个命令,SSE包含50个命令,SSE2包含144个命令,SSE3包含13个命令。目前SSE4也是最先进的指令集。英特尔酷睿系列处理器已经支持SSE4指令集。AMD将在未来的双核处理器中加入对SSE4指令集的支持,全美达处理器也将支持该指令集。
CPU内核和I/O的工作电压
从586CPU开始,CPU的工作电压可以分为核心电压和I/O电压。通常,CPU的核心电压小于或等于I/O电压。核心电压由CPU的生产工艺决定。一般生产工艺越小,磁芯的工作电压越低。I/O电压一般为1.6~5V。低电压可以解决功耗过大和发热量过大的问题。
制造工艺
制造微米指的是IC中电路之间的距离。制造业的趋势是向更高的密度发展。IC电路设计密度越高,意味着同样尺寸和面积的IC可以拥有更高的密度和更复杂的功能。现在主要的180nm,130nm,90nm,65nm,45nm。最近inter有了32nm制造工艺的酷睿i3/i5系列。
AMD表示,其产品将直接跳过32nm工艺(少数32nm产品,如蛇少女和Llano,是在2010年第三季度生产的),28nm产品将在2011年年中开始发布(名称未定)。
指令组
(1)CISC指令集
CISC指令集又称复杂指令集,被称为CISC(Complex Instruction Set Computer的缩写)。在CISC微处理器中,程序的每个指令都是按顺序执行的,每个指令中的每个操作也是按顺序执行的。顺序执行的优点是容易控制,但计算机各部分利用率不高,执行速度慢。其实就是Intel生产的x86系列(也就是IA-32架构)CPU以及与其兼容的CPU,比如AMD、VIA。甚至新的X86-64(也称为AMD64)也属于CISC。
要知道什么是指令集,要从今天的X86 CPU说起。X86指令集是Intel专门为其第一个16位CPU(i8086)开发的,IBM IBM1981年推出的全球第一台PC中的CPU-i8088(i8086简化版)也使用了X86指令。同时在计算机中加入了X87芯片,提高了浮点数据处理能力,以后将X86指令集和X87指令集统称为X86指令集。
随着CPU技术的不断发展,英特尔相继开发了更新的i80386和i80486,上至过去的PII至强、PIII至强、奔腾3和奔腾4系列,最后到今天的酷睿2系列和至强(不包括至强诺科纳)。但是,为了保证计算机能够继续运行过去开发的各种应用程序,以保护和继承丰富的软件资源,英特尔生产的所有CPU仍然使用X86指令集,因此其CPU仍然使用X86指令集。由于Intel X86系列及其兼容CPU(如AMD Athlon MP,)都使用X86指令集,所以形成了今天X86系列及兼容CPU的庞大阵容。目前x86CPU主要包括intel的服务器CPU和AMD的服务器CPU。
(2)RISC指令集
RISC是英文“Reduced Instruction Set Computing”的缩写,中文意思是“精简指令集”。它是在CISC指令系统的基础上开发的。有人测试过CISC机器,它显示出各种指令的频率差别很大。最常用的是一些简单的指令,只占指令总数的20%,但它们在程序中出现的频率却占了80%。复杂的指令系统必然会增加微处理器的复杂度,使得处理器的开发时间长,成本高。而且复杂的指令需要复杂的运算,必然会拖慢计算机的速度。基于以上原因,RISC CPU于80年代诞生。与CISC CPU相比,RISC CPU不仅简化了指令系统,而且采用了“超标量和超级流水线结构”,大大增加了并行处理能力。RISC指令集是高性能CPU的发展方向。它与传统的CISC(复杂指令集)相反。相比之下,RISC比复杂指令集有统一的指令格式、更少的类型、更少的寻址方式。当然处理速度要高很多。目前,采用这种指令系统的CPU广泛应用于中高端服务器,尤其是高端服务器,都采用RISC指令系统。RISC指令系统更适合UNIX,高端服务器的操作系统,现在Linux也是类UNIX的操作系统。RISC CPU在软件和硬件上与Intel和AMD CPU不兼容。
目前中高端服务器使用RISC指令的CPU主要有以下几类:PowerPC处理器、SPARC处理器、PA-RISC处理器、MIPS处理器、Alpha处理器。
IA-64
关于EPIC(显式并行指令计算机)是否是RISC和CISC系统的继承者,一直有许多争论。单就EPIC系统而言,更像是英特尔的处理器走向RISC系统的重要一步。理论上,在相同的主机配置下,EPIC系统设计的CPU处理Windows应用的能力要比基于Unix的好得多。
采用英特尔EPIC技术的服务器CPU为安腾安腾(开发代码为Merced)。它是64位处理器,是IA-64系列中的第一款处理器。微软还开发了一个名为Win64的操作系统,由软件提供支持。英特尔采用X86指令集后,转向更先进的64位微处理器。英特尔之所以这么做,是因为他们想摆脱容量巨大的x86架构,然后引入精力充沛、功能强大的指令集,于是诞生了带有EPIC指令集的IA-64架构。在很多方面,IA-64都比x86有了很大的进步。它突破了传统IA32架构的诸多限制,在数据处理能力、系统稳定性、安全性、可用性和可观测性方面实现了突破性的提升。
IA-64微处理器最大的缺陷就是不兼容x86,而Intel为了让IA-64处理器更好的运行两个朝代的软件,在IA-64处理器(Itanium,Itanium2 ……)上推出了x86转IA-64解码器,让x86指令翻译成IA-64指令。这个解码器不是最高效的解码器,也不是运行x86代码的最佳方式(最好的方式是直接在x86处理器上运行x86代码),所以Itanium和Itanium2在运行x86应用时性能非常差。这也是X86-64的根本原因。
(4)X86-64 (AMD64/EM64T)
由AMD设计,可同时处理64位整数运算,兼容X86-32架构。其中支持64位逻辑寻址,并提供转换为32位寻址的选项。但数据操作指令默认为32位和8位,并提供转换为64位和16位的选项;支持通用寄存器。如果是32位操作,结果应该扩展到完整的64位。这样指令中就有了“直接执行”和“转换执行”的区别,它的指令字段是8位或者32位,可以避免长字段。
x86-64(也叫AMD64)的出现不是空穴来风。x86处理器的32位寻址空间仅限于4GB内存,而IA-64处理器与x86不兼容。AMD充分考虑客户的需求,加强了x86指令集的功能,使这个指令集可以同时支持64位计算模式,所以AMD把他们的结构称为x86-64。在技术上,AMD推出了R8-R15通用寄存器,作为x86-64架构中64位操作的原始X86处理器寄存器的扩展,但这些寄存器在32位环境中没有得到充分使用。EAX和EBX等原始寄存器也从32位扩展到64位。SSE单元增加了八个新寄存器来支持SSE2。寄存器数量的增加将导致性能的提高。同时,为了同时支持32位和64位代码和寄存器,x86-64架构允许处理器工作在以下两种模式:长模式和传统模式。长模式分为两个子模式(64位模式和兼容模式兼容模式)。AMD服务器处理器的Opteron处理器已经引入了这个标准。
今年推出了支持64位的EM64T。在正式命名为EM64T之前,它是IA32E,IA32E是英特尔64位扩展技术的名称,用于区分X86指令集。英特尔EM64T支持64位子模式,类似于AMD的X86-64技术。它使用64位线性平面寻址,添加了8个新的通用寄存器(GPRs),并添加了8个寄存器来支持SSE指令。与AMD类似,英特尔的64位技术将兼容IA32和IA32E,只有在运行64位操作系统时才会采用IA32E。IA32E将由两个子模式组成:64位子模式和32位子模式,这两个子模式与AMD64一样来自向后兼容。英特尔EM64T将完全兼容AMD的X86-64技术。现在一些64位技术已经被添加到Nocona处理器中,英特尔奔腾4E处理器也支持64位技术。
应该说两者都是兼容x86指令集的64位微处理器架构,但EM64T和AMD64还是有一些区别的。AMD64处理器中的NX位不会在英特尔处理器中提供。
超级流水线和超标量
在解释超级流水线和超标量之前,先了解一下流水线。这是英特尔首次在486芯片中使用流水线技术。装配线就像工业生产中的装配线一样工作。在CPU中,一条指令处理流水线由5-6个不同功能的电路单元组成,然后将一条X86指令分成5-6步,分别由这些电路单元执行,这样一条指令就可以在一个CPU时钟周期内完成,从而提高了CPU的运行速度。奔腾的每个整数流水线分为四个阶段,分别是指令预取、解码、执行和回写结果,浮点流水线分为八个阶段。
超标量是多个处理器通过多个内置流水线同时执行,其本质是以空间换时间。超级流水线通过细化流水,提高主频,可以在一个机器周期内完成一个或多个操作。其本质是以时间换取空间。比如奔腾4流水线就长达20级。流水线设计的步骤(阶段)越长,完成一条指令的速度就越快,因此可以适应工作频率更高的CPU。但是长流水线也带来了一些副作用,很可能时钟速度更高的CPU实际运算速度会更低。英特尔奔腾4就是这种情况。虽然它的主频可以高达1.4G以上,但计算性能却远不如AMD 1.2G的迅猛龙甚至奔腾III。
包裹
CPU的封装是CPU芯片或CPU模块用特定材料固化以防止损坏的一种保护措施。一般CPU封装后才能交付给用户。CPU的封装方式取决于CPU的安装形式和设备集成的设计。一般来说,Socket socket安装的CPU都是PGA(网格阵列)封装的,而Slot x slot安装的CPU都是SEC(单面插件盒)封装的。有封装技术,如PLGA(塑料栅格阵列)和奥尔加(有机栅格阵列)。由于市场竞争日益激烈,目前CPU封装技术的发展方向主要是节约成本。
多线程操作
同时,同步多线程(简称SMT)。SMT通过复制处理器的结构状态,使同一个处理器上的多个线程同步执行,共享处理器的执行资源,可以最大限度地实现宽发出、乱序的超标量处理,提高处理器计算部件的利用率,缓解数据相关或缓存缺失带来的内存访问延迟。当没有多线程可用时,SMT处理器几乎与传统的宽发射超标量处理器相同。SMT最吸引人的地方在于,它可以通过在小范围内改变处理器内核的设计来显著提高性能,而几乎不需要额外的成本。多线程技术可以为高速计算核心准备更多的待处理数据,减少计算核心的空闲时间。这对于桌面低端系统来说无疑是很有吸引力的。从3.06 GHz的英特尔奔腾4开始,所有处理器都将支持SMT技术。
多心的
多核,也称为芯片多处理器(CMP)。CMP是由美国斯坦福大学提出的。它的思想是将大规模并行处理器中的SMP(对称多处理器)集成到同一个芯片中,每个处理器并行执行不同的进程。与CMP相比,SMT处理器结构的灵活性更加突出。而当半导体工艺达到0.18微米时,线延迟已经超过了门延迟,这就要求微处理器的设计要通过划分许多尺度更小、局部性更好的基本单元结构来进行。相比之下,CMP结构被分成了几个处理器核来设计,每个核都比较简单,有利于优化设计,所以更有发展前途。目前IBM的Power 4芯片和Sun的MAJC5200芯片都采用了CMP结构。多核处理器可以在处理器内部共享缓存,提高了缓存利用率,简化了多处理器系统设计的复杂度。
2005年下半年,Intel和AMD的新处理器也将集成到CMP结构中。全新安腾处理器的开发代号为Montecito,采用双核设计,拥有至少18MB片上缓存,采用90nm工艺制造。它的设计绝对是对当今芯片行业的挑战。它的每个内核都有独立的L1、L2和L3高速缓存,包含大约10亿个晶体管。
对称多处理
SMP(Symmetric Multi-Processing)是对称多处理结构的简称,是指聚集在一台计算机上的一组处理器(多CPU),所有CPU共享内存子系统和总线结构。在这项技术的支持下,服务器系统可以同时运行多个处理器,并共享内存和其他主机资源。像双至强,也就是所谓的双路,这是对称处理器系统中最常见的一种(至强MP最多支持4路,AMD Opteron最多支持1-8路)。16路公交车上也有几个。不过一般来说,SMP机的扩展性较差,很难做到100个以上的多处理器,但常规的数量通常是8到16个,对于大部分用户来说已经足够了。它在高性能服务器和工作站级主板架构中最为常见,例如可以支持多达256个CPU系统的UNIX服务器。
搭建一个SMP系统的必要条件是:支持SMP的硬件包括主板和CPUSMP支持的系统平台,然后是支持SMP的应用软件。为了使SMP系统高效运行,操作系统必须支持SMP系统,如WINNT、LINUX、UNIX等32位操作系统。即可以进行多任务多线程处理。多任务是指操作系统可以让不同的CPU同时完成不同的任务;多线程是指操作系统可以让不同的CPU并行完成同一任务。
搭建SMP系统,对所选CPU有很高的要求。首先,APIC(高级可编程中断控制器)单元必须内置在CPU中。英特尔多处理规范的核心是使用高级可编程中断控制器(APICS)。再次,相同的产品型号,相同类型的CPU核心,相同的工作频率;最后,尽可能保持相同的产品序列号,因为当两个生产批次的CPU作为双处理器运行时,可能会出现一个CPU负担过重,另一个负担过轻的情况,无法发挥其最大性能,更严重的可能会导致死机。
NUMA科技
NUMA是一种非均匀访问的分布式共享存储技术,它是由多个独立的节点通过高速专用网络连接而成的系统,每个节点可以是单个CPU或SMP系统。在NUMA,有很多解决缓存一致性的方案,需要操作系统和专用软件的支持。图2显示了Sequent公司的NUMA系统的一个例子。有三个SMP模块通过高速专用网连接成一个节点,每个节点可以有12个CPU。像Sequent这样的系统最多可以有64个甚至256个CPU。很明显,这是基于SMP,然后由NUMA技术扩展而来,是这两种技术的结合。
无序执行
乱序执行(Out-of-orderexecution)是指CPU允许多条指令按照程序指定的顺序被开发并发送到相应的电路单元进行处理的技术。这样,根据每个电路单元的状态和每个指令是否可以提前执行的具体情况,可以提前执行的指令会被立即发送到相应的电路单元执行。在此期间,指令不会按照指定的顺序执行,然后重排单元会按照指令顺序重排各个执行单元的结果。采用乱序执行技术的目的是使CPU内部电路满负荷运行,相应提高CPU运行程序的速度。分支技术:(分支)指令在操作时需要等待结果。一般无条件分支只需要按照指令的顺序执行,而条件分支必须根据处理结果决定是否按照原来的顺序进行。
CPU内部的内存控制器
许多应用程序具有更复杂的读取模式(几乎是随机的,尤其是在缓存命中不可预测的情况下),并且不能有效利用带宽。典型的应用是业务处理软件,即使它具有乱序执行等CPU特性,也会受到内存延迟的限制。这样,CPU必须等到操作所需数据的被除数加载完毕后才能执行指令(无论数据来自CPU缓存还是主存系统)。目前低端系统的内存延迟在120-150ns左右,而CPU速度在3GHz以上。单个内存请求可能会浪费200-300个CPU周期。即使缓存命中率达到99%,CPU也可能会花50%的时间等待内存请求的结束——比如因为内存延迟。
你可以看到骁龙集成的内存控制器,它的延迟比支持双通道DDR内存控制器的芯片组低很多。英特尔还按计划将内存控制器集成在处理器内部,这使得北桥芯片变得不那么重要。但是,它改变了处理器访问主内存的方式,有助于增加带宽,减少内存延迟,提高处理器性能。
制造工艺:现在CPU的制造工艺是45nm。最新的I5I,今年1月10日上市,可以达到32nm。未来CPU的制造工艺可以达到24nm。