电脑硬件入门知识全解

社区服务
高级搜索
猴岛论坛电脑百科电脑硬件入门知识全解
发帖 回复
正序阅读 最近浏览的帖子最近浏览的版块
5个回复

[网络问题]电脑硬件入门知识全解

楼层直达
zhangfuru

ZxID:1965347

等级: 贵宾
玩就玩的疯狂/////

举报 只看楼主 使用道具 楼主   发表于: 2009-11-02 0
一:CPU篇

一:CPU主频率
      这是一个最受新手关注的指标,指的就是CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某款CPU是多少兆赫兹的,而这个多少兆赫兹就是“CPU的主频”。主频虽与CPU速度有关系,但不是绝对的正比关系,因为CPU的运算速度还要看CPU流水线(流水线下面介绍)的各方面性能指标(缓存、指令集,CPU位数等)。因此主频不代表CPU的整体性能,但提高主频对于提高CPU运算速度却是至关重要的。主频的计算公式为:主频=外频*倍频。

二:外频:
   
外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现。

三:倍频
  CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 = 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。

四:流水线
     
对于CPU来说,它的工作可分为获取指令、解码、运算、结果几个步骤。其中前两步由指令控制器完成,后两步则由运算器完成。按照传统的方式,所有指令按顺序执行,先由指令控制器工作,完成一条指令的前两步,然后运算器工作,完成后两步,依此类推……很明显,当指令控制器工作时运算器基本上处于闲置状态,当运算器在工作时指令控制器又在休息,这样就造成了相当大的资源浪费。于是CPU借鉴了工业生产中被广泛应用的流水线设计,当指令控制器完成了第一条指令的前两步后,直接开始第二条指令的操作,运算器单元也是,这样就形成了流水线。流水线设计可最大限度地利用了 CPU资源,使每个部件在每个时钟周期都在工作,从而提高了CPU的运算频率。
        工业生产中采用增设工人的方法加长流水线作业可有效提高单位时间的生产量,而CPU采用级数更多的流水线设计可使它在同一时间段内处理更多的指令,有效提高其运行频率。如Intel在Northwood核心Pentium 4处理器中设计的流水线为20级,而在Prescott核心Pentium 4处理器中其流水线达到了31级,而正是超长流水线的使用,使得Pentium 4在和Athlon XP(整数流水线10级,浮点流水线15级)的频率大战中取得了优势。
        CPU工作时,指令并不是孤立的,许多指令需要按一定顺序才能完成任务,一旦某个指令在运算过程中发生了错误,就可能导致整条流水线停顿下来,等待修正指令的修正,流水线越长级数越多,出错的几率自然也变得更大,旦出错影响也越大。在一条流水线中,如果第二条指令需要用到第一条指令的结果,这种情况叫做相关,一旦某个指令在运算过程中发生了错误,与之相关的指令也都会变得无意义。

        最后,由于导电体都会产生延时,流水线级数越长导电延迟次数就越多,总延时自然也就越长,CPU完成单个任务的时间就越长。因此,流水线设计也不是越长越好的。

五:CPU缓存
     
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
        缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
        正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
        最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
        随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。

        二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。 CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
        为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
        CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。


六:前端总线
      前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。
      总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
      CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
      CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。


七:CPU核心类型
Athlon XP的核心类型
        Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。
Palomino
        这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。
Thoroughbred
      这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。
Thorton
      采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。
Barton
      采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。
新Duron的核心类型
AppleBred
        采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。
Athlon 64系列CPU的核心类型
Clawhammer
        采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。
Newcastle
        其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。
AMD双核心处理器
        分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。
        AMD推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。
        双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。
        与Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。
        对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明显优于Pentium D架构。
虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。
        AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。


英特尔CPU核心
Tualatin
      这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。
Willamette

      这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。
Northwood
        这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。
Prescott

        这是Intel最新的CPU核心,目前Pentium 4 XXX(如Pentium 4 530)和Celeron D采用该核心,还有少量主频在2.8GHz以上的CPU采用该核心。其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,目前生产的全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),最高有1066MHz的Pentium 4至尊版。其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB或2MB,封装方式采用PPGA,Prescott核心已经取代Northwood核心成为市场的主流产品。
Intel双核心处理器
      目前Intel推出的双核心处理器有Pentium D和Pentium Extreme Edition,同时推出945/955芯片组来支持新推出的双核心处理器,采用90nm工艺生产的这两款新推出的双核心处理器使用是没有针脚的LGA 775接口,但处理器底部的贴片电容数目有所增加,排列方式也有所不同。
        桌面平台的核心代号Smithfield的处理器,正式命名为Pentium D处理器,除了摆脱阿拉伯数字改用英文字母来表示这次双核心处理器的世代交替外,D的字母也更容易让人联想起Dual-Core双核心的涵义。
ntel的双核心构架更像是一个双CPU平台,Pentium D处理器继续沿用Prescott架构及90nm生产技术生产。Pentium D内核实际上由于两个独立的2独立的Prescott核心组成,每个核心拥有独立的1MB L2缓存及执行单元,两个核心加起来一共拥有2MB,但由于处理器中的两个核心都拥有独立的缓存,因此必须保正每个二级缓存当中的信息完全一致,否则就会出现运算错误。
        为了解决这一问题,Intel将两个核心之间的协调工作交给了外部的MCH(北桥)芯片,虽然缓存之间的数据传输与存储并不巨大,但由于需要通过外部的MCH芯片进行协调处理,毫无疑问的会对整个的处理速度带来一定的延迟,从而影响到处理器整体性能的发挥。
由于采用Prescott内核,因此Pentium D也支持EM64T技术、XD bit安全技术。值得一提的是,Pentium D处理器将不支持Hyper-Threading技术。原因很明显:在多个物理处理器及多个逻辑处理器之间正确分配数据流、平衡运算任务并非易事。比如,如果应用程序需要两个运算线程,很明显每个线程对应一个物理内核,但如果有3个运算线程呢?因此为了减少双核心Pentium D架构复杂性,英特尔决定在针对主流市场的Pentium D中取消对Hyper-Threading技术的支持。
        同出自Intel之手,而且Pentium D和Pentium Extreme Edition两款双核心处理器名字上的差别也预示着这两款处理器在规格上也不尽相同。其中它们之间最大的不同就是对于超线程(Hyper-Threading)技术的支持。Pentium D不能支持超线程技术,而Pentium Extreme Edition则没有这方面的限制。在打开超线程技术的情况下,双核心Pentium Extreme Edition处理器能够模拟出另外两个逻辑处理器,可以被系统认成四核心系统。


八:CPU工艺
      指在硅材料上生产CPU时内部各元器材的连接线宽度,一般用微米表示。微米值越小制作工艺越先进,CPU可以达到的频率越高,集成的晶体管就可以更多。目前Intel的P4和AMD的XP都已经达到了0.65微米的制造工艺。

九:CPU扩展指令集
        CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为CPU的指令集。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE3也是最先进的指令集。

十:流水线与超流水线
虽然流水线之前说过了,但是在这再说说超流水线
流水线(pipeline)是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5~ 6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5~6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。超流水线(superpiplined)是指某型CPU内部的流水线超过通常的5~6步以上,例如Pentium pro的流水线就长达14步。将流水线设计的步(级)其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。


十一:封装形式
      CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。

十二:HT(超线程)
        说说INTEL大展的HT技术吧,Intel正式发布了“Hyper-Threading Technology(超线程技术)”这项技术率先在XERON处理器上得到应用。通过使用该技术,Intel将提供世界上首枚集成了双逻辑处理器单元的物理处理器(其实就是在一个处理器上整合了两个逻辑处理器单元),据说能够提高40%的处理器性能,类似的技术似乎也出现在AMDK8-Hammer处理器上。


何为Hyper-Threading:
  当今的处理器发展普遍向着提高处理器指令平铺速率的方向迈进,但由于所使用的处理器资源会有冲突,因此性能提升的效果并不理想。而通过Hyper-Threading技术,通过在一枚处理器上整合两个逻辑处理器(注:是处理器而不是运算单元)单元,使得具有这种技术的新型CPU具有能同时执行多个线程的能力,而这是现有其它微处理器都不能做到的。
        简单的说,Hyper Threading是一种同步多执行绪(SMT,simultaneous Multi-threading)技术,它的原理很简单,就是把一颗CPU当成两颗来用,将一颗具Hyper-Threading功能的“实体”处理器变成两个“逻辑”处理器而逻辑处理器对于操作系统来说跟实体处理器并没什么两样,因此操作系统会把工作线程分派给这“两颗”处理器去执行,让多种应用程序或单一应用程序的多个执行绪(thread),能够同时在同一颗处理器上执行;不过两个逻辑处理器是共享这颗CPU的所有执行资源。
760963495

ZxID:8615878

等级: 中校
真心想学技术......QQ760963495
举报 只看该作者 5楼  发表于: 2009-11-02 0
呵呵自己都顶了一页
我也顶你
zhangfuru

ZxID:1965347

等级: 贵宾
玩就玩的疯狂/////

举报 只看该作者 4楼  发表于: 2009-11-02 0
五:硬盘篇

一:硬盘的转速(Rotationl Speed)
        也就是硬盘电机主轴的转速,转速是决定硬盘内部传输率的关键因素之一,它的快慢在很大程度上影响了硬盘的速度,同时转速的快慢也是区分硬盘档次的重要标志之一。硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方。要将所要存取资料的扇区带到磁头下方,转速越快,等待时间也就越短。因此转速在很大程度上决定了硬盘的速度。目前市场上常见的硬盘转速一般有5400rpm、7200rpm、甚至10000rpm。理论上,转速越快越好。因为较高的转速可缩短硬盘的平均寻道时间和实际读写时间。可是转速越快发热量越大,不利于散热。现在的主流硬盘转速一般为7200rpm以上。
  随着硬盘容量的不断增大,硬盘的转速也在不断提高。然而,转速的提高也带来了磨损加剧、温度升高、噪声增大等一系列负面影响。于是,应用在精密机械工业上的液态轴承马达(Fluid dynamic bearing motors)便被引入到硬盘技术中。液态轴承马达使用的是黏膜液油轴承,以油膜代替滚珠。这样可以避免金属面的直接磨擦,将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;更可减少磨损,提高寿命。

二:时间
平均寻道时间(Average seek time)
        指硬盘在盘面上移动读写头至指定磁道寻找相应目标数据所用的时间,它描述硬盘读取数据的能力,单位为毫秒。当单碟片容量增大时,磁头的寻道动作和移动距离减少,从而使平均寻道时间减少,加快硬盘速度。
平均潜伏时间(Average latency time)
        指当磁头移动到数据所在的磁道后,然后等待所要的数据块继续转动到磁头下的时间,一般在2ms-6ms之间。
平均访问时间(Average access time)
        指磁头找到指定数据的平均时间,通常是平均寻道时间和平均潜伏时间之和。平均访问时间最能够代表硬盘找到某一数据所用的时间,越短的平均访问时间越好。
单磁道时间(Single track seek time)
        指磁头从一磁道转移至另一磁道所用的时间。
全程访问时间(Max full seek time)
        指磁头开始移动直到最后找到所需要的数据块所用的全部时间。
平均潜伏期(average latency)
        指当磁头移动到数据所在的磁道后,然后等待所要的数据块继续转动(半圈或多些、少些)到磁头下的时间,单位为毫秒(ms)。平均潜伏期是越小越好,潜伏期小代表硬盘的读取数据的等待时间短,这就等于具有更高的硬盘数据传输率。
道至道时间(single track seek)
        指磁头从一磁道转移至另一磁道的时间,单位为毫秒(ms)。
全程访问时间(max full seek)
        指磁头开始移动直到最后找到所需要的数据块所用的全部时间,单位为毫秒(ms)。
反应时间
      指的是硬盘中的转轮的工作情况。反应时间是硬盘转速的一个最直接的反应指标。5400RPM的硬盘拥有的是5.55 MS的反应时间,而7200RPM的可以达到4.17 MS。反应时间是硬盘将利用多长的时间完成第一次的转轮旋转。如果我们确定一个硬盘达到120周旋转每秒的速度,那么旋转一周的时间将是1/120即0.008333秒的时间。如果我们的硬盘是0.0041665秒每周的速度,我们也可以称这块硬盘的反应时间是4.17 ms(1ms=1/1000每秒)。
连续无故障时间(MTBF)
        指硬盘从开始运行到出现故障的最长时间。一般硬盘的MTBF至少在30000或40000小时。

三:传输速率
突发数据传输率(Burst data transfer rate)
        指的是电脑通过数据总线从硬盘内部缓存区中所读取数据的最高速率。也叫外部数据传输率(External data transfer rate)。目前采用UDMA/66技术的硬盘的外部传输率已经达到了66.6MB/s。
最大内部数据传输率(Internal data transfer rate)
        指磁头至硬盘缓存间的最大数据传输率,一般取决于硬盘的盘片转速和盘片数据线密度(指同一磁道上的数据间隔度)。也叫持续数据传输率(sustained transfer rate)。一般采用UDMA/66技术的硬盘的内部传输率也不过25-30MB/s,只有极少数产品超过30MB/s,由于内部数据传输率才是系统真正的瓶颈,因此大家在购买时要分清这两个概念。不过一般来讲,硬盘的转速相同时,单碟容量大的内部传输率高;在单碟容量相同时,转速高的硬盘的内部传输率高。
突发数据传输率(burst data transfer rate)
        指从硬盘缓冲区读取数据的速率,常以数据接口速率代替,单位为MB/S。目前主流硬盘普通采用的是Ultra ATA/66,它的最大外部数据率即为66.7MB/s,2000年推出的Ultra ATA/100,理论上最大外部数据率为100MB/s,但由于内部数据传输率的制约往往达不到这么高。


四:技术
自动检测分析及报告技术(Self-Monitoring Analysis and Report Technology,简称S.M.A.R.T)
          现在出厂的硬盘基本上都支持S.M.A.R.T技术。这种技术可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。S.M.A.R.T技术必须在主板支持的前提下才能发生作用,而且S.M.A.R.T技术也不能保证能预报出所有可能发生的硬盘故障。
磁阻磁头技术MR(Magneto-Resistive Head)
          MR(MAGNETO-RESITIVEHEAD)即磁阻磁头的简称。MR技术可以更高的实际记录密度、记录数据,从而增加硬盘容量,提高数据吞吐率。目前的MR技术已有几代产品。MAXTOR的钻石三代/四代等均采用了最新的MR技术。磁阻磁头的工作原理是基于磁阻效应来工作的,其核心是一小片金属材料,其电阻随磁场变化而变化,虽然其变化率不足2%,但因为磁阻元件连着一个非常灵敏的放大器,所以可测出该微小的电阻变化。MR技术可使硬盘容量提高40%以上。GMR(GiantMagnetoresistive)巨磁阻磁头GMR磁头与MR磁头一样,是利用特殊材料的电阻值随磁场变化的原理来读取盘片上的数据,但是GMR磁头使用了磁阻效应更好的材料和多层薄膜结构,比MR磁头更为敏感,相同的磁场变化能引起更大的电阻值变化,从而可以实现更高的存储密度,现有的MR磁头能够达到的盘片密度为3Gbit-5Gbit/in2(千兆位每平方英寸),而GMR磁头可以达到10Gbit-40Gbit/in2以上。
部分响应完全匹配技术PRML(Partial Response Maximum Likelihood)
        能使盘片存储更多的信息,同时可以有效地提高数据的读取和数据传输率。是当前应用于硬盘数据读取通道中的先进技术之一。PRML技术是将硬盘数据读取电路分成两段“操作流水线”,流水线第一段将磁头读取的信号进行数字化处理然后只选取部分“标准”信号移交第二段继续处理,第二段将所接收的信号与PRML芯片预置信号模型进行对比,然后选取差异最小的信号进行组合后输出以完成数据的读取过程。PRML技术可以降低硬盘读取数据的错误率,因此可以进一步提高磁盘数据密集度。
超级数字信号处理器(Ultra DSP)技术
        用Ultra DSP进行数学运算,其速度较一般CPU快10到50倍。采用Ultra DSP技术,单个的DSP芯片可以同时提供处理器及驱动接口的双重功能,以减少其它电子元件的使用,可大幅度地提高硬盘的速度和可*性。接口技术可以极大地提高硬盘的最大外部传输率,最大的益处在于可以把数据从硬盘直接传输到主内存而不占用更多的CPU资源,提高系统性能。
硬盘表面温度: 指硬盘工作时产生的温度使硬盘密封壳温度上升情况。硬盘工作时产生的温度过高将影响薄膜式磁头(包括MR磁头)的数据读取灵敏度,因此硬盘工作表面温度较低的硬盘有更好的数据读、写稳定性。
AMR(Anisotropic Magneto Resistive,AMR)
        一种磁头技术,AMR技术可以支持3.3GB/平方英寸的记录密度,在1997年AMR是当时市场的主流技术。
GMR(Giant Magneto Resistive,巨磁阻)
        比AMR技术磁头灵敏度高2倍以上,GMR磁头是由4层导电材料和磁性材料薄膜构成的:一个传感层、一个非导电中介层、一个磁性的栓层和一个交换层。前3个层控制着磁头的电阻。在栓层中,磁场强度是固定的,并且磁场方向被相临的交换层所保持。而且自由层的磁场强度和方向则是随着转到磁头下面的磁盘表面的微小磁化区所改变的,这种磁场强度和方向的变化导致明显的磁头电阻变化,在一个固定的信号电压下面,就可以拾取供硬盘电路处理的信号。
OAW(光学辅助温式技术)
        OAW技术可以在1英寸宽内写入105000以上的磁道,单碟容量有望突破36GB。单碟容量的提高不仅可以提高硬盘总容量、降低平均寻道时间,还可以降低成本、提高性能。
PRML(局部响应最大拟然,Partial Response Maximum Likelihood)
        除了磁头技术的日新月异之外,磁记录技术也是影响硬盘性能非常关键的一个因素。当磁记录密度达到某一程度后,两个信号之间相互干扰的现象就会非常严重。为了解决这一问题,人们在硬盘的设计中加入了PRML技术。PRML读取通道方式可以简单地分成两个部分。首先是将磁头从盘片上所读取的信号加以数字化,并将未达到标准的信号加以舍弃,而没有将信号输出。这个部分便称为局部响应。最大拟然部分则是拿数字化后的信号模型与PRML芯片本身的信号模型库加以对比,找出最接近、失真度最小的信号模型,再将这些信号重新组合而直接输出数据。使用PRML方式,不需要像脉冲检测方式那样高的信号强度,也可以避开因为信号记录太密集而产生的相互干扰的现象。 磁头技术的进步,再加上目前记录材料技术和处理技术的发展,将使硬盘的存储密度提升到每平方英寸10GB以上,这将意味着可以实现40GB或者更大的硬盘容量。

五:缓存
        缓存是硬盘与外部总线交换数据的场所。硬盘的读数据的过程是将磁信号转化为电信号后,通过缓存一次次地填充与清空,再填充,再清空,一步步按照PCI总线的周期送出,可见,缓存的作用是相当重要的。在接口技术已经发展到一个相对成熟的阶段的时候,缓存的大小与速度是直接关系到硬盘的传输速度的重要因素。目前主流硬盘的缓存主要有512KB和2MB等几种。其类型一般是EDO DRAM或SDRAM,目前一般以SDRAM为主。根据写入方式的不同,有写通式和回写式两种。写通式在读硬盘数据时,系统先检查请求指令,看看所要的数据是否在缓存中,如果在的话就由缓存送出响应的数据,这个过程称为命中。这样系统就不必访问硬盘中的数据,由于SDRAM的速度比磁介质快很多,因此也就加快了数据传输的速度。回写式就是在写入硬盘数据时也在缓存中找,如果找到就由缓存就数据写入盘中,现在的多数硬盘都是采用的回写式硬盘,这样就大大提高了性能。

六:接口
        接口技术可极大地提高硬盘的最大外部数据传输率,现在普遍使用的ULTRAATA/66已大幅提高了E-IDE接口的性能,所谓UltraDMA66是指一种由Intel及Quantum公司设计的同步DMA协议。使用该技术的硬盘并配合相应的芯片组,最大传输速度可以由16MB/s提高到66MS/s。它的最大优点在于把CPU从大量的数据传输中解放出来了,可以把数据从HDD直接传输到主存而不占用更多的CPU资源,从而在一定程度上提高了整个系统的性能。由于采用ULTRAATA技术的硬盘整体性能比普通硬盘可提高20%~60%,所以已成为目前E-IDE硬盘事实上的标准。
  SCSI硬盘的接口技术也在迅速发展。Ultra160/mSCSI被引入硬盘世界,对硬盘在高计算量应用领域的性能扩展极有裨益,处理关键任务的服务器、图形工作站、冗余磁盘阵列(RAID)等设备将因此得到性能提升。从技术发展看,Ultra160/mSCSI仅仅是硬盘接口发展道路上的一环而已,200MB的光纤技术也远未达到止境,未来的接口技术必将令今天的用户瞠目结舌。
  光纤通道技术具有数据传输速率高、数据传输距离远以及可简化大型存储系统设计的优点。目前,光纤通道支持每秒200MB的数据传输速率,可以在一个环路上容纳多达127个驱动器,局域电缆可在25米范围内运行,远程电缆可在10公里范围内运行。某些专门的存储应用领域,例如小型存储区域网络(SAN)以及数码视像应用,往往需要高达每秒200MB的数据传输速率和强劲的联网能力,光纤通道技术的推出正适应了这一需求。同时,其超长的数据传输距离,大大方便了远程通信的技术实施。由于光纤通道技术的优越性,支持光纤界面的硬盘产品开始在市场上出现。这些产品一般是大容量硬盘,平均寻道时间短,适应于高速、高数据量的应用需求,将为中高端存储应用提供良好保证。
ST-506/412接口
        这是希捷开发的一种硬盘接口,首先使用这种接口的硬盘为希捷的ST-506及ST-412。ST-506接口使用起来相当简便,它不需要任何特殊的电缆及接头,但是它支持的传输速度很低,因此到了1987年左右这种接口就基本上被淘汰了,采用该接口的老硬盘容量多数都低于200MB。早期IBM PC/XT和PC/AT机器使用的硬盘就是ST-506/412硬盘或称MFM硬盘-MFM(Modified Frequency Modulation)是指一种编码方案。
ESDI接口
        即(Enhanced Small Drive Interface)接口,它是迈拓公司于1983年开发的。其特点是将编解码器放在硬盘本身之中,而不是在控制卡上,理论传输速度是前面所述的ST-506的2…4倍,一般可达到10Mbps。但其成本较高,与后来产生的IDE接口相比无优势可言,因此在九十年代后就被淘汰了。
IDE及EIDE接口
        IDE(Integrated Drive Electronics)的本意实际上是指把控制器与盘体集成在一起的硬盘驱动器,我们常说的IDE接口,也叫ATA(Advanced Technology Attachment)接口,现在PC机使用的硬盘大多数都是IDE兼容的,只需用一根电缆将它们与主板或接口卡连起来就可以了。把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可*性得到了增强,硬盘制造起来变得更容易,因为厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容,对用户而言,硬盘安装起来也更为方便。
ATA-1(IDE)
        ATA是最早的IDE标准的正式名称,IDE实际上是指连在硬盘接口的硬盘本身。ATA在主板上有一个插口,支持一个主设备和一个从设备,每个设备的最大容量为504MB,ATA最早支持的PIO-0模式(Programmed I/O-0)只有3.3MB/s,而ATA-1一共规定了3种PIO模式和4种DMA模式(没有得到实际应用),要升级为ATA-2,需要安装一个EIDE适配卡。
ATA-2 (EIDE Enhanced IDE/Fast ATA)
        这是对ATA-1的扩展,它增加了2种PIO和2种DMA模式,把最高传输率提高到了16.7MB/s,同时引进了LBA地址转换方式,突破了老BIOS固有504MB的限制,支持最高可达8.1GB的硬盘。如你的电脑支持ATA-2,则可以在CMOS设置中找到(LBA,LogicalBlock Address)或(CHS,Cylinder,Head,Sector)的设置。其两个插口分别可以连接一个主设备和一个从设置,从而可以支持四个设备,两个插口也分为主插口和从插口。通常可将最快的硬盘和CD-ROM放置在主插口上,而将次要一些的设备放在从插口上,这种放置方式对于486及早期的Pentium电脑是必要的,这样可以使主插口连在快速的PCI总线上,而从插口连在较慢的ISA总线上。
S-ATA Ⅰ
        Serial ATA也就是串行ATA,它与目前广泛采用的ATA/100或ATA/133等接口最根本的不同在于,以前硬盘所有的ATA接口类型都是采用并行方式进行数据通信,因而统称并行ATA。而Serial ATA,顾名思义,也就是采用串行方式(Serial ATA采用“序列式”的结构,把若干位(bit)数据打包,然后采用比并行式更
高的速度(高50%),把数据分组形式传输至主机的方式)进行数据传输。
S-ATA Ⅱ
        S-ATA Ⅱ技术产品将突破SATA技术面临的一些局限,其中最主要一点是对原本相对较低性能的提高,其次则是可靠性的改善。 SATA2.0的规格特征: 1)支持NCQ(Native Command Queue,本机命令队列). 由于磁道捕捉时间和转速的改善和优化,硬盘可更有效的进行信息捕捉/读/写数据。同时,由于硬盘读写头更加有效的转动,也使机械部件之间的磨损减少,增加了硬盘的寿命。 2)SATA 2.0可将性能/带宽提升至300MB/秒,性能上的飞跃使SATA 2.0成为购买的最好的选择。

七:其它

碟片
      硬盘的所有数据都存储在碟片上,碟片是由硬质合金组成的盘片,现在还出现了玻璃盘片。目前的硬盘产品内部盘片大小有:5.25,3.5,2.5和1.8英寸(后两种常用于笔记本及部分袖珍精密仪器中,现在台式机中常用3.5英寸的盘片)。
磁头
      硬盘的磁头是用线圈缠绕在磁芯上制成的,最初的磁头是读写合一的,通过电流变化去感应信号的幅度。对于大多数计算机来说,在与硬盘交换数据的过程中,读操作远远快于写操作,而且读/写是两种不同特性的操作,这样就促使硬盘厂商开发一种读/写分离磁头。在1991年,IBM提出了它基于磁阻(MR)技术的读磁头技术 D D各项异性磁 ,磁头在和旋转的碟片相接触过程中,通过感应碟片上磁场的变化来读取数据。在硬盘中,碟片的单碟容量和磁头技术是相互制约、相互促进的。
间隔因子
      硬盘磁道上相邻的两个逻辑扇区之间的物理扇区的数量。因为硬盘上的信息是以扇区的形式来组织的,每个扇区都有一个号码,存取操作要通过这个扇区号,所以使用一个特定的间隔因子来给扇区编号而有助于获取最佳的数据传输率。
着陆区(LZ)
      为使硬盘有一个起始位置,一般指定一个内层柱面作为着陆区,它使硬盘磁头在电源关闭之前停回原来的位置。着陆区不用来存储数据,因些可避免磁头在开、关电源期间紧急降落时所造成数据的损失。目前,一般的硬盘在电源关闭时会自动将磁头停在着陆区,而老式的硬盘需执行PARK命令才能将磁头归位。
主轴转速
      是指硬盘内电机主轴的转动速度,目前ATA(IDE)硬盘的主轴转速一般为5400-7200rpm,主流硬盘的转速为7200RPM,至于SCSI硬盘的主轴转速可达一般为7200-10,000RPM,而最高转速的SCSI硬盘转速高达15,000RPM。
数据缓存
        指在硬盘内部的高速存储器,在电脑中就象一块缓冲器一样将一些数据暂时性的保存起来以供读取和再读取。目前硬盘的高速缓存一般为512KB-2MB,目前主流ATA硬盘的数据缓存为2MB,而在SCSI硬盘中最高的数据缓存现在已经达到了16MB。对于大数据缓存的硬盘在存取零散文件时具有很大的优势。
硬盘表面温度
        它是指硬盘工作时产生的温度使硬盘密封壳温度上升情况。硬盘工作时产生的温度过高将影响磁头的数据读取灵敏度,因此硬盘工作表面温度较低的硬盘有更好的数据读、写稳定性。
MTBF(连续无故障时间):它指硬盘从开始运行到出现故障的最长时间,单位是小时。一般硬盘的MTBF至少在30000或40000小时。
S.M.A.R.T.(自监测、分析、报告技术)
        这是现在硬盘普遍采用的数据安全技术,在硬盘工作的时候监测系统对电机、电路、磁盘、磁头的状态进行分析,当有异常发生的时候就会发出警告,有的还会自动降速并备份数据。
噪音与防震技术
        硬盘主轴高速旋转时不可避免的产生噪音,并会因金属磨擦而产生磨损和发热问题,“液态轴承马达”就可以解决这一问题。它使用的是黏膜液油轴承,以油膜代替滚珠,可有效地降低以上问题。同时液油轴承也可有效地吸收震动,使硬盘的抗震能力由一般的一二百个G提高到了一千多G,因此硬盘的寿命与可靠性也可以得到提高。
zhangfuru

ZxID:1965347

等级: 贵宾
玩就玩的疯狂/////

举报 只看该作者 地板   发表于: 2009-11-02 0
四:内存篇

一:动态随机存取内存 DRAM
        DRAM 是Dynamic Random Access Memory 的缩写,通常是计算机内的主存储器,它是而用电容来做储存动作,但因电容本身有漏电问题,所以内存内的资料须持续地存取不然资料会不见。

二:随机存取内存RAM
        随机存取内存RAM ( Random Access Memory):RAM是可被读取和写入的内存,我们在写资料到RAM内存时也同时可从RAM读取资料,这和ROM内存有所不同。但是RAM必须由稳定流畅的电力来保持它本身的稳定性,所以一旦把电源关闭则原先在RAM里头的资料将随之消失。

三:内存双通道
        双通道内存技术其实是一种内存控制和管理技术,它依赖于芯片组的内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和工作站系统中了,只是为了解决台式机日益窘迫的内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,英特尔公司曾经推出了支持双通道内存传输技术的i820芯片组,它与RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于英特尔已经放弃了对RDRAM的支持,所以目前主流芯片组的双通道内存技术均是指双通道DDR内存技术。
      双通道内存技术是解决CPU总线带宽与内存带宽的矛盾的低价、高性能的方案。现在CPU的FSB(前端总线频率)越来越高,英特尔 Pentium 4比AMD Athlon XP对内存带宽具有高得多的需求。英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是外频的4倍。英特尔 Pentium 4的FSB分别是400、533、800MHz,总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266、DDR 333、DDR 400所能提供的内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是外频的2倍,其对内存带宽的需求远远低于英特尔 Pentium 4平台,其FSB分别为266、333、400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用单通道的DDR 266、DDR 333、DDR 400就能满足其带宽需求,所以在AMD K7平台上使用双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的整合型主板。

四:ECC
      ECC是“Error Checking and Correcting”的简写,中文名称是“错误检查和纠正”。ECC是一种能够实现“错误检查和纠正”的技术,ECC内存就是应用了这种技术的内存,一般多应用在服务器及图形工作站上,这将使整个电脑系统在工作时更趋于安全稳定。

五:SPD
        SPD(Serial Presence Detect),翻译为“配置(存在位)串行探测”,而不是“连续存在探测”,如果单从字意上理解,后者的翻译并没有问题,但从其真正用意与工作方式来看,前者更准确一些。为什么呢?下面具体说说。
        SPD是一组关于内存模组的配置信息,如P-Bank数量、电压、行地址/列地址数量、位宽、各种主要操作时序(如CL、tRCD、tRP、tRAS等)……它们存放在一个容量为256字节的EEPROM(ElectricallyErasableProgrammableReadOnlyMemory,电擦除可编程只读存储器)中。
        实际上在SPD中,JEDEC规定的标准信息只用了128个字节(还有128字节,属于厂商自己的专用区)。一般的,一个字节至少对应一种参数,有的参数需要多个字节来表述(如产品续列号,生产商在JEDEC组织中的代码)。
        其中,一个字节中的每个bit都可能用来表示这一参数的具体数值。由于SPD的信息很多,在此就不一一列出了,有兴趣的读者可以参阅相关文档。
SPD内的时序信息由模组生产商根据所使用的内存芯片的特点编写并写入至EEPROM,主要用途就是协助北桥芯片精确调整内存的物理/时序参数,以达到最佳的使用效果。如果在BIOS中将内存设置选项定为“By SPD”。
        那么在开机时,北桥会根据SPD中的参数信息来自动配置相应的内存时序与控制寄存器,避免人为出现调校错误而引起故障。当然,对于DIYer来说,也可以自由调整时序与控制参数(物理参数仍要借助SPD或北桥自己检测来确定)。

六:DDR
      以往的SDRAM都只是单面取数据,而现在的DDR可以实现双面存取,速度当然快多啦。
      DDR是Double Data Rate SDRAM的缩写(双倍数据速率)。DDR SDRAM内存技术是从主流的PC66,PC100,PC133 SDRAM技术发展而来。这一新技术使新一代的高性能计算机系统成为可能,包括台式机、工作站、服务器、便携式,也包括新的通信产品,如路由器。DDR内存目前被广泛应用于高性能图形适配器。 DDR DIMMs与SDRAM DIMMs的物理元数相同,但两侧的线数不同,DDR应用184pins,而SDRAM则应用168pins。因此,DDR内存不向后兼容SDRAM,要求专为DDR设计的主板与系统。
      DDR内存技术是成熟的PC100和PC133SDRAM技术的革命性进步。DDR内存芯片由半导体制造商用现有的晶圆片,程序及测试设备生产,从而降低了内存芯片的成本DDR2:

DDR2(Double Data Rate 2)
        SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。

DDR3
        DDR3显存可以看作是DDR2的改进版,二者有很多相同之处,例如采用1.8V标准电压、主要采用144Pin球形针脚的FBGA封装方式。不过DDR3核心有所改进:DDR3显存采用0.11微米生产工艺,耗电量较DDR2明显降低。此外,DDR3显存采用了“Pseudo Open Drain”接口技术,只要电压合适,显示芯片可直接支持DDR3显存。当然,显存颗粒较长的延迟时间(CAS latency)一直是高频率显存的一大通病,DDR3也不例外,DDR3的CAS latency为5/6/7/8,相比之下DDR2为3/4/5。

DDR2与DDR的区别:
1、延迟问题:
        从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。
        这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。
2、封装和发热量:
        DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。
        DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。
        DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。

DDR3相比DDR2的性能优势:
  (1)功耗和发热量较小:吸取了DDR2的教训,在控制成本的基础上减小了能耗和发热量,使得DDR3更易于被用户和厂家接受。
  (2)工作频率更高:由于能耗降低,DDR3可实现更高的工作频率,在一定程度弥补了延迟时间较长的缺点,同时还可作为显卡的卖点之一,这在搭配DDR3显存的显卡上已有所表现。
  (3)降低显卡整体成本:DDR2显存颗粒规格多为4M X 32bit,搭配中高端显卡常用的128MB显存便需8颗。而DDR3显存规格多为8M X 32bit,单颗颗粒容量较大,4颗即可构成128MB显存。如此一来,显卡PCB面积可减小,成本得以有效控制,此外,颗粒数减少后,显存功耗也能进一步降低。
  (4)通用性好:相对于DDR变更到DDR2,DDR3对DDR2的兼容性更好。由于针脚、封装等关键特性不变,搭配DDR2的显示核心和公版设计的显卡稍加修改便能采用DDR3显存,这对厂商降低成本大有好处。
  目前,DDR3显存在新出的大多数中高端显卡上得到了广泛的应用。
zhangfuru

ZxID:1965347

等级: 贵宾
玩就玩的疯狂/////

举报 只看该作者 板凳   发表于: 2009-11-02 0
三:显卡篇

一:显卡容量

五:显存时钟周期  
        显存时钟周期就是显存时钟脉冲的重复周期,它是作为衡量显存速度的重要指标。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频率=1÷时钟周期×1000。那么显存频率为166MHz,那么它的时钟周期为1÷166×1000=6ns。对于DDR SDRAM显存来说,描述其工作频率时用的是等效输出频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的等效输出频率是SDRAM显存的两倍。例如,5ns的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM显存的等效工作频率就是400MHz。常见显存时钟周期有7.5ns、7ns、6ns、5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns,甚至更低。

六:显存封装
  显存封装是指显存颗粒所采用的封装技术类型,封装就是将显存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。显存封装形式主要有QFP、TSOP-II、MBGA等。

七:DX
      由微软公司所制定的3D规格界面,与Windows 操作系统兼容性好,可绕过图形显示接口(GDI)直接进行支持该API的各种硬件的底层操作,大大提高了游戏的运行速度。目前常用的是DX9.0C。

八:图形芯片
     示主芯片自然是显示卡的核心,它们的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定这显示卡性能的高低,不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。

九:双线过滤
     这是一种较好的材质影像插补的处理方式,会先找出最接近像素的四个图素,然后在它们之间做差补效果,最后产生的结果才会被贴到像素的位置上,这样不会看到“马赛克”现象。这种处理方式较适用于有一定景深的静态影像,不过无法提供最佳品质,也不适用于移动中的物件。
三线过滤:
     这是一种更复杂材质影像插补处理方式,会用到相当多的材质影像,而每张的大小恰好会是另一张的四分之一。例如有一张材质影像是512×512个图素,第二张就会是256×256个图素,第三张就会是128×128个图素等,总之,最小的一张是1×1。凭借这些多重解析度的材质影像,当遇到景深极大的场景时(如飞行模拟),就能提供高品质的贴图效果。一个“双线过滤”需要三次混合,而“三线过滤”就得做七次混合处理,所以每个像素就需要多用21/3倍以上的计算时间。还需要两倍大的存储器时钟带宽。但是“三线过滤”可以提供最高的贴图品质,会去除材质的“闪烁”效果。对于需要动态物体或景深很大的场景应用方面而言,只有“三线过滤”才能提供可接受的材质品质。

十:加速图形接口
        常见的AGP和最新的主流PCI-E接口,现在购机的第一选择自然是PCI-E了 。
     显卡容量也叫显示内存容量,是指显示卡上的显示内存的大小。显示内存的主要功能在将显示芯片处理的资料暂时储存在显示内存中,然后再将显示资料映像到显示屏幕上,显示卡欲达到的分辨率越高,屏幕上显示的像素点就越多,所需的显示内存也就越多。而每一片显示卡至少需要具备512KB的内存,显示内存可以说是随着3 D加速卡的演进而不断地跟进。而显示内存的种类也由早期的DRAM到现在广泛流行的DDR,DDR2/DDR3。 显存与系统内存一样,也是多多益善。显存越大,可以储存的图像数据就越多,支持的分辨率与颜色数也就越高。以下计算显存容量与分辨率关系的公式: 所需显存===图形分辨率×色彩精度/8 。
        例如要上16bit真彩的1024×768,则需要1024×768×16/8===1.6M,即2M显存。
        对于三维图形,由于需要同时对Front buffer、Back buffer和Z buffer进行处理,因此公式为:所需显存(帧存)===图形分辨率×3×色彩精度/8 。
      例如一帧16bit、1024×768的三维场景,所需的帧缓存为1024×768×3×16bit/8===4.71M,即需要8M显存。

二:显存的种类
      显存的种类有EDORAM、MDRAM、SDRAM、SGRAM、VRAM、WRAM、DDR等许多种。EDO显存曾用在Voodoo、Voodoo 2等显卡上,但目前已消声匿迹。SGRAM显存支持块写和掩码,可以看作是SDRAM的加强版,曾流行一时,但由于价格较SDRAM稍高,现在也已甚少采用。目前显卡上被广泛使用的显存就是SDRAM和DDR SDRAM了。SDRAM可以与CPU同步工作,无等待周期,减少数据传输延迟。优点是价格低廉,在中低端显卡上得到了广泛的应用。DDR是Double Data Rate是缩写,它是现有的SDRAM内存的一种进化。在设计和操作上,与SDRAM很相似,唯一不同的是DDR在时钟周期的上升沿和下降沿都能传输数据,而SDRAM则只可在上升沿传输数据,所以DDR的带宽是SDRAM的两倍,而DDR比SDRAM的数据传输率也快一倍。如果SDRAM内存的频率是133MHz,则DDR内存的频率是266MHz,因此在中高档显卡上应用广泛。

三:显存的数据位数与带宽
        数据位数指的是在一个时钟周期之内能传送的bit数,它是决定显存带宽的重要因素,与显卡性能息息相关。当显存种类相同并且工作频率相同时,数据位数越大,它的性能就越高。 显存带宽的计算方法是:运行频率×数据带宽/8。以目前的GeForce3显卡为例,其显存系统带宽===230MHz×2(因为使用了DDR显存,所以乘以2)×128/8===7.36GB。
        数据位数是显存也是显卡的一个很重要的参数。在显卡工作过程中,Z缓冲器、帧缓冲器和纹理缓冲器都会大幅占用显存带宽资源。带宽是3D芯片与本地存储器传输的数据量标准,这时候显存的容量并不重要,也不会影响到带宽,相同显存带宽的显卡采用64MB和32MB显存在性能上区别不大。因为这时候系统的瓶颈在显存带宽上,当碰到大量像素渲染工作时,显存带宽不足会造成数据传输堵塞,导致显示芯片等待而影响到速度。目前显存主要分为64位和128位,在相同的工作频率下,64位显存的带宽只有128位显存的一半。这也就是为什么Geforce2 MX200(64位SDR)的性能远远不如Geforce2 MX400(128位SDR)的原因了。目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。目前已推出最大显示芯片位宽是512位。显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。

四:显存的速度
        显存的速度一般以ns为单位。常见的显存有2.5ns甚至更的显存。额定工作频率===1/显存速度。当然,对于一些质量较好的显存来说,显存的实际最大工作频率是有一定的余量的。显存的超频就是基于这一原理,列如将额定频率为6ns的显存超至190MHz的运行频率。
这里还要说一说显存的实际运行频率和等效工作频率。DDR显存因为能在时钟的上升沿和下降沿都能传送数据,因此,在相同的时钟频率和数据位宽度的情况下显存带宽是普通SDRAM的两倍。换句话说,在显存速度相同的情况下,DDR显存的实际工作频率是普通SDRAM显存的2倍。同样,DDR显存达到的带宽也是普通SDRAM显存的2倍。例如,5ns的SDRAM显存的工作频率为200MHZ,而5ns的DDR显存的等效工作频率就是400MHZ。
zhangfuru

ZxID:1965347

等级: 贵宾
玩就玩的疯狂/////

举报 只看该作者 沙发   发表于: 2009-11-02 0
二:主板篇

一:电源回路


三:硬盘接口
        硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。

四:I/O地址
        这个学过编程的都知道了,I/O地址中I是input的简写,O是output的简写,也就是输入输出地址。每个设备都会有一个专用的I/O地址,用来处理自己的输入输出信息。因此这是绝对不能够重复的。如果这两个资源有了冲突,系统硬件就会工作不正常。

五:前端总线
        前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。
      总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。 CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz甚至更高,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。 CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

六:南桥芯片
  南桥芯片(South Bridge)是主板芯片组的重要组成部分,一般位于主板上离CPU插槽较远的下方,PCI插槽的附近,这种布局是考虑到它所连接的I/O总线较多,离处理器远一点有利于布线。相对于北桥芯片来说,其数据处理量并不算大,所以南桥芯片一般都没有覆盖散热片。南桥芯片不与处理器直接相连,而是通过一定的方式(不同厂商各种芯片组有所不同,例如英特尔的英特尔Hub Architecture以及SIS的Multi-Threaded“妙渠”)与北桥芯片相连。南桥芯片负责I/O总线之间的通信,如PCI总线、USB、LAN、ATA、SATA、音频控制器、键盘控制器、实时时钟控制器、高级电源管理等,这些技术一般相对来说比较稳定,所以不同芯片组中可能南桥芯片是一样的,不同的只是北桥芯片。所以现在主板芯片组中北桥芯片的数量要远远多于南桥芯片。 南桥芯片的发展方向主要是集成更多的功能,例如网卡、RAID、IEEE 1394、甚至WI-FI无线网络等等。主板中间靠下的那个较大的芯片,就是主板的南桥芯片。不过有的主板已经南北桥芯片合二为一了。

七:硬件错误侦测
  由于硬件的安装错误、不兼容或硬件损坏等原因,容易引起的硬件错误,从而导致轻则运行不正常,重则系统无法工作的故障。碰到此类情况,以前只能通过POST自检时的BIOS报警提示音,硬件替换法或通过DEBUG卡来查找故障原因。但这些方法使用起来很不方便,而且对用户的专业知识也要求较高,对普通用户并不适用。针对此问题,现在的主板厂商加如了许多人性化的设计,以方便用户快速,准确地判断故障原因。例如,现在许多主板特别设计了硬件加电自检故障的语言播报功能。以华硕的“POST播报员”为例,这个功能主要由华邦电子的W83791SD芯片,配合华硕自己设计芯片组合而成。可以监测CPU电压、CPU风扇转速、CPU温度、机壳风扇转速、电源风扇是否失效、机箱入侵警告等。这样就较好地保持了电脑的最佳工作状态。当系统有某个设备出故障时,POST播报员就会用语音提醒该配件出了故障。在硬件侦错报警方面,一些主板大厂都有自己非常独到的设计,譬如微星主板,用四支LED来反映主板的故障所在。而有的主板则干脆引入了早些年的Debug侦错卡的侦错技术,采用了更为直接的数码管来指出故障所在。另外,许多厂商还为主板设计了AGP保护电路,除了起显卡保护作用之外,保护电路还用一个LED发光二极管来告诉用户故障是否由显卡引起。

八:主板架构
        BTX是英特尔提出的新型主板架构Balanced Technology Extended的简称,是ATX结构的替代者,这类似于前几年ATX取代AT和Baby AT一样。革命性的改变是新的BTX规格能够在不牺牲性能的前提下做到最小的体积。新架构对接口、总线、设备将有新的要求。重要的是目前所有的杂乱无章,接线凌乱,充满噪音的PC机将很快过时。当然,新架构仍然提供某种程度的向后兼容,以便实现技术革命的顺利过渡。 BTX具有如下特点:支持Low-profile,也即窄板设计,系统结构将更加紧凑; 针对散热和气流的运动,对主板的线路布局进行了优化设计; 主板的安装将更加简便,机械性能也将经过最优化设计。
ATX:
        英特尔在95年1月公布了扩展AT主板结构,即ATX(AT extended)主板标准。这一标准得到世界主要主板厂商支持,目前已经成为最广泛的工业标准。97年2月推出了ATX2.01版。 ATX主板针对AT和Baby AT主板的缺点做了以下改进:主板外形在Baby AT的基础上旋转了90度,其几何尺寸改为30.5cm×24.4cm。 采用7个I/O插槽,CPU与I/O插槽、内存插槽位置更加合理。 优化了软硬盘驱动器接口位置。 提高了主板的兼容性与可扩充性。 采用了增强的电源管理,真正实现电脑的软件开/关机和绿色节能功能。

九:硬件监控
  为了让用户能够了解硬件的工作状态(温度、转速、电压等),主板上通常有一块至两块专门用于监控硬件工作状态的硬件监控芯片。当硬件监控芯片与各种传感元件(电压、温度、转速)配合时,便能在硬件工作状态不正常时,自动采取保护措施或及时调整相应元件的工作参数,以保证电脑中各配件工作在正常状态下。常见的有温度控制芯片和通用硬件监控芯片等等。温度控制芯片:主流芯片可以支持两组以上的温度检测,并在温度超过一定标准的时候自动调整处理器散热风扇的转速,从而降低CPU的温度。超过预设温度时还可以强行自动关机,从而保护电脑系统。常见的温度控制芯片有Analog Devices的ADT7463等等。通用硬件监控芯片:这种芯片通常还整合了超级I/O(输出/输出管理)功能,可以用来监控受监控对象的电压、温度、转速等。对于温度的监控需与温度传感元件配合;对风扇电机转速的监控,则需与CPU或显卡的散热风扇配合。

十:显示芯片
  显示芯片是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡就能实现普通的显示功能,以满足一般的家庭娱乐和商业应用,节省用户购买显卡的开支。板载显示芯片可以分为两种类型:整合到北桥芯片内部的显示芯片以及板载的独立显示芯片,市场中大多数板载显示芯片的主板都是前者。主板板载显示芯片的历史已经非常悠久了,从较早期VIA的MVP4芯片组到后来英特尔的810系列,815系列,845GL/845G/845GV/845GE,865G/865GV以及即将推出的910GL/915G/915GL/915GV等芯片组都整合了显示芯片。而英特尔也正是依靠了整合的显示芯片,才占据了图形芯片市场的较大份额。目前各大主板芯片组厂商都有整合显示芯片的主板产品,而所有的主板厂商也都有对应的整合型主板。英特尔平台方面整合芯片组的厂商有英特尔,VIA,SIS,ATI等,AMD平台方面整合芯片组的厂商有VIA,SIS,NVIDIA等等。
十一:BIOS
      计算机用户在使用计算机的过程中,都会接触到BIOS,它在计算机系统中起着非常重要的作用。
BIOS,完整地说应该是ROM-BIOS,是只读存储器基本输入/输出系统的简写,它实际上是被固化到计算机中的一组程序,为计算机提供最低级的、最直接的硬件控制。准确地说,BIOS是硬件与软件程序之间的一个“转换器”或者说是接口(虽然它本身也只是一个程序),负责解决硬件的即时需求,并按软件对硬件的操作要求具体执行。从功能上看,BIOS分为三个部分:自检及初始化程序;硬件中断处理; 程序服务请求。由于BIOS直接和系统硬件资源打交道,因此总是针对某一类型的硬件系统,而各种硬件系统又各有不同,所以存在各种不同种类的BIOS,随着硬件技术的发展,同一种BIOS也先后出现了不同的版本,新版本的BIOS比起老版本来说,功能更强。目前市场上主要的BIOS有AMI BIOS和Award BIOS。

十二:CMOS
        CMOS(本意是指互补金属氧化物半导体-----一种大规模应用于集成电路芯片制造的原料)是微机主板上的一块可读写的RAM芯 片,用来保存当前系统的硬件配置和用户对某些参数的设定。CMOS可由主板的电池供电,即使系统掉电,信息也不会丢失。 CMOS RAM本身只是一块存储器,只有数据保存功能,而对CMOS中各项参数的设定要通过专门的程序。早期的CMOS设置程序驻留 在软盘上的(如IBM的PC/AT机型),使用很不方便。现在多数厂家将CMOS设置程序做到了BIOS芯片中,在开机时通过特定的按键 就可进入CMOS设置程序方便地对系统进行设置,因此CMOS设置又被叫做BIOS设置。 早期的CMOS是一块单独的芯片MC146818A(DIP封装),共有64个字节存放系统信息,见CMOS配置数据表。386以后的微机一般将 MC146818A芯片集成到其它的IC芯片中(如82C206,PQFP封装),最新的一些586主板上更是将CMOS与系统实时时钟和后备电池集 成到一块叫做DALLDA DS1287的芯片中。随着微机的发展、可设置参数的增多,现在的CMOS RAM一般都有128字节及至256字节 的容量。为保持兼容性,各BIOS厂商都将自己的BIOS中关于CMOS RAM的前64字节内容的设置统一与MC146818A的CMOS RAM格式 一致,而在扩展出来的部分加入自己的特殊设置,所以不同厂家的BIOS芯片一般不能互换,即使是能互换的,互换后也要对 CMOS信息重新设置以确保系统正常运行. 你认识主板上的BIOS芯片吗? 介绍常见的BIOS芯片的识别 ROM BIOS是主板上存放微机基本输入输出程序的只读存贮器,其功能是微机的上电自检、开机引导、基本外设I/O和系统CMOS 设置。 主板上的ROM BIOS芯片是主板上唯一贴有标签的芯片,一般为双排直插式封装(DIP),上面印有“BIOS”字样。虽然有些BIOS 芯片没有明确印出“BIOS”,但凭借外贴的标签也能很容易地将它认出。 586以前的BIOS多为可重写EPROM芯片,上面的标签起着保护BIOS内容的作用(紫外线照射会使EPROM内容丢失),不能随便撕下。 586以后的ROM BIOS多采用EEPROM(电可擦写只读ROM),通过跳线开关和系统配带的驱动程序盘,可以对EEPROM进行重写,方便 地实现BIOS升级。 常见的BIOS芯片有AMI、Award、Phoenix等,在芯片上都能见到厂商的标记。

十三:电容
      所谓电容,就是容纳和释放电荷的电子元器件。电容的基本工作原理就是充电放电,当然还有整流、振荡以及其它的作用。另外电容的结构非常简单,主要由两块正负电极和 夹在中间的绝缘介质组成,所以电容类型主要是由电极和绝缘介质决定的。电容的用途非常多,主要有如下几种:
1.隔直流:作用是阻止直流通过而让交流通过。
2.旁路(去耦):为交流电路中某些并联的元件提供低阻抗通路。
3.耦合:作为两个电路之间的连接,允许交流信号通过并传输到下一级电路
4.滤波:这个对DIY而言很重要,显卡上的电容基本都是这个作用。
5.温度补偿:针对其它元件对温度的适应性不够带来的影响,而进行补偿,改善电路的稳定性。
6.计时:电容器与电阻器配合使用,确定电路的时间常数。
7.调谐:对与频率相关的电路进行系统调谐,比如手机、收音机、电视机。
8.整流:在预定的时间开或者关半闭导体开关元件。
9.储能:储存电能,用于必须要的时候释放。例如相机闪光灯,加热设备等等。
固态电容:
        固态电容全称为:固态铝质电解电容。它与普通电容(即液态铝质电解电容)最大差别在于采用了不同的介电材料,液态铝电容介电材料为电解液,而固态电容的介电材料则为导电性高分子。
那固态电容又好在哪里呢?对于经常去网吧或者长时间使用电脑的朋友,一定有过或者听过由于主板电容导致电脑不稳定,甚至于主板电容爆裂的事情!那就是因为一方面主板在长时间使用中,过热导致电解液受热膨胀,导致电容失去作用甚至由于超过沸点导致膨胀爆裂!另一方面是,如果主板在长期不通电的情形下,电解液容易与氧化铝形成化学反应,造成开机或通电时形成爆炸的现象。但是如果采用固态电容,就完全没有这样的隐患和危险了!
      由于固态电容采用导电性高分子产品作为介电材料,该材料不会与氧化铝产生作用,通电后不致于发生爆炸的现象;同时它为固态产品,自然也就不存在由于受热膨胀导致爆裂的情况了。
      固态电容具备环保、低阻抗、高低温稳定、耐高纹波及高信赖度等优越特性,是目前电解电容产品中最高阶的产品。由于固态电容特性远优于液态铝电容,固态电容耐温达摄氏 260度,且导电性、频率特性及寿命均佳,适用于低电压、高电流的应用,主要应用于数字产品如薄型DVD、投影机及工业计算机等。
      电源回路是主板中的一个重要组成部分,其作用是对主机电源输送过来的电流进行电压的转换,将电压变换至CPU所能接受的内核电压值,使CPU正常工作,以及对主机电源输送过来的电流进行整形和过滤,滤除各种杂波和干扰信号以保证电脑的稳定工作。电源回路的主要部分一般都位于主板CPU插槽附近。

二:北桥芯片
就是主板上离CPU最近的一块芯片,负责与CPU的联系并控制内存,作用是在处理器与PCI总线、DRAM、AGP和L2高速缓存之间建立通信接口。北桥芯片提供对CPU类型,主频,内存的类型,内存的最大容量,PCI/AGP插槽等设备的支持。北桥起到的作用非常明显,在电脑中起着主导的作用,所以人们习惯的称为主桥(Host Bridge)。
« 返回列表
发帖 回复