昨日答应了博士一起去上海超算参加一个培训,关于HPC(High Performance Computing)的。按理说这个方向是我的研究方向,而且我也比较感兴趣,可是最近实在忙啊,不想去,最后实在避不开的话,去就去吧。

早晨5点多就起床,还是被叫起来的,我的手机晚上开了Gmail客户端忘记关,没电了自然闹钟也不响了,真囧…

Anyway,顶着早高峰狂奔50公里到了张江高科的上海超算,会议还没开始。人不是很多,大部分是复旦学高分子的,计算机的大约只占一半左右吧。首先一个姚经理做了关于HPC的简介性质的报告,讲得比较好,我感觉这个人也不错。

不过,技术层面上的东西还是有不少争议,比如,姚博士说,程序员必须学习并行编程,因为将来的世界是Many Core的世界,其实不然,我认为,并行优化可以放到编译器和Framework中去自动进行,如果还需要程序员进行并发程序的思虑,实在是太矬了。

下午陈老师紧急找人,我们三个打车回去了,应该是坐过的最长的Taxi,整整50公里。

服务器内存也是内存(RAM),它与普通PC(个人电脑)机内存在外观和结构上没有什么明显实质性的区别,主要是在内存上引入了一些新的特有的技术,如ECC、ChipKill、热插拔技术等,具有极高的稳定性和纠错性能。
服务器内存主要技术:

  • ECC
    在普通的内存上,常常使用一种技术,即Parity,同位检查码(Parity check codes)被广泛地使用在侦错码(error detectioncodes)上,它们增加一个检查位给每个资料的字元(或字节),并且能够侦测到一个字符中所有奇(偶)同位的错误,但Parity有一个缺点,当计算机查到某个Byte有错误时,并不能确定错误在哪一个位,也就无法修正错误。基于上述情况,产生了一种新的内存纠错技术,那就是ECC, ECC本身并不是一种内存型号,也不是一种内存专用技术,它是一种广泛应用于各种领域的计算机指令中,是一种指令纠错技术。ECC的英文全称是“ Error Checking and Correcting”,对应的中文名称就叫做“错误检查和纠正”,从这个名称我们就可以看出它的主要功能就是“发现并纠正错误”,它比奇偶校正技术更先进的方面主要在于它不仅能发现错误,而且能纠正这些错误,这些错误纠正之后计算机才能正确执行下面的任务,确保服务器的正常运行。之所以说它并不是一种内存型号,那是因为并不是一种影响内存结构和存储速度的技术,它可以应用到不同的内存类型之中,就象前讲到的“奇偶校正”内存,它也不是一种内存,最开始应用这种技术的是EDO内存,现在的SD也有应用,而ECC内存主要是从SD内存开始得到广泛应用,而新的DDR、RDRAM也有相应的应用,目前主流的 ECC内存其实是一种SD内存。
  • Chipkill
    Chipkill技术是IBM公司为了解决目前服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准。我们知道ECC内存只能同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则一般无能为力。目前ECC技术之所以在服务器内存中广泛采用,一则是因为在这以前其它新的内存技术还不成熟,再则在目前的服务器中系统速度还是很高,在这种频率上一般来说同时出现多比特错误的现象很少发生,正因为这样才使得ECC技术得到了充分地认可和应用,使得ECC内存技术成为几乎所有服务器上的内存标准。
    但随着基于Intel处理器架构的服务器的CPU性能在以几何级的倍数提高,而硬盘驱动器的性能同期只提高了少数的倍数,因此为了获得足够的性能,服务器需要大量的内存来临时保存CPU上需要读取的数据,这样大的数据访问量就导致单一内存芯片上每次访问时通常要提供4(32位)或8(64位)比特以上的数据,一次性读取这么多数据,出现多位数据错误的可能性会大大地提高,而ECC又不能纠正双比特以上的错误,这样就很可能造成全部比特数据的丢失,系统就很快崩溃了。IBM的 Chipkill技术是利用内存的子结构方法来解决这一难题。内存子系统的设计原理是这样的,单一芯片,无论数据宽度是多少,只对于一个给定的ECC识别码,它的影响最多为一比特。举个例子来说明的就是,如果使用4比特宽的DRAM,4比特中的每一位的奇偶性将分别组成不同的ECC识别码,这个ECC识别码是用单独一个数据位来保存的,也就是说保存在不同的内存空间地址。因此,即使整个内存芯片出了故障,每个ECC识别码也将最多出现一比特坏数据,而这种情况完全可以通过ECC逻辑修复,从而保证内存子系统的容错性,保证了服务器在出现故障时,有强大的自我恢复能力。采用这种内存技术的内存可以同时检查并修复4个错误数据位,服务器的可靠性和稳定得到了更加充分的保障。
  • Register
    Register即寄存器或目录寄存器,在内存上的作用我们可以把它理解成书的目录,有了它,当内存接到读写指令时,会先检索此目录,然后再进行读写操作,这将大大提高服务器内存工作效率。带有Register的内存一定带Buffer(缓冲),并且目前能见到的Register内存也都具有 ECC功能,其主要应用在中高端服务器及图形工作站上,如IBM Netfinity 5000。
  • Buffer和Unbuffer
    Buffer即缓存器,也可理解成高速缓存,在服务器及图形工作站内存有较多应用,容量多为64K,但随着内存容量的不断增大,其容量也不断增加,具有 Buffer的内存将对内存的读写速度有较大提高,象早起168芯EDOECC服务器内存大多都带Buffer,Unbuffer表示不具有高速缓存。有 Buffer的内存几乎都带有ECC功能,Unbuffer内存只有少数带 ECC功能。其在内存编号上也有较明显特征,以维京内存PC133 128M为例,其编号为ME16641U4SS-CL3,其中的字母U就代表Unbuffer。

目前服务器常用的内存有SDRAM和DDR两种内存。
SDRAM是“Synchronous Dynamic random access memory”的缩写,意思是“同步动态随机存储器”,就是我们平时所说的“同步内存”,这种内存采用168线结构.
从理论上说,SDRAM与CPU频率同步,共享一个时钟周期。SDRAM内含两个交错的存储阵列,当CPU从一个存储阵列访问数据的同时,另一个已准备好读写数据,通过两个存储阵列的紧密切换,读取效率得到成倍提高。目前,最新的SDRAM的存储速度已高达5纳秒。
DDR SDRAM DDR是一种继SDRAM后产生的内存技术,DDR,英文原意为“DoubleDataRate”,顾名思义,就是双数据传输模式。之所以称其为“双”,也就意味着有“单”,我们日常所使用的SDRAM都是“单数据传输模式”,这种内存的特性是在一个内存时钟周期中,在一个方波上升沿时进行一次操作(读或写),而DDR则引用了一种新的设计,其在一个内存时钟周期中,在方波上升沿时进行一次操作,在方波的下降沿时也做一次操作,所以在一个时钟周期中, DDR则可以完成SDRAM两个周期才能完成的任务,所以理论上同速率的DDR内存与SDR内存相比,性能要超出一倍,可以简单理解为100MHZ DDR = 200MHZ SDRAM。
DDR内存采用184线结构,DDR内存不向后兼容SDRAM,要求专为DDR设计的主板与系统
DDR2的定义:
DDR2(Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。
此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。

2006 年5月4日,JEDEC正式发布最终敲定的FB-DIMM规格标准,FB-DIMM是由Intel提出的一项新存储器架构,用意在于提升伺服器及高阶工作站的存储器效能,同时也扩增存储器的容量潜能。FB-DIMM(Full Buffered Dual In Line Memory Module,有时也写成FBDIMM)与现有的存储器架构相较到底有何承袭与革新?本文以下将对此更深入解析。

传统架构的效能、容量皆已受限
长久以来存储器一直倚赖两种手法来提升效能,一是加宽资料传输的并行度,另一是加快资料传输的时脉速度,不断加宽的结果是存储器模组(DIMM)的接脚数愈来愈多,从过去的FPM/EDO RAM 72pin、SDR SDRAM 168pin、DDR SDRAM 184pin,到今日DDR2 SDRAM的240pin,然而主机板的电路布局面积有限,难以再用拓宽线路数的方式来提升效能,虽然可以用增加电路板层数的方式来因应,但成本也会大增。
更具体而言,今日一个存储器通道(Channel)的宽度为64bit,在并行线路数的限制下,一般的运算系统多只能有两个通道,即是 128bit,难以再更宽,更宽多半要付出极高的代价,同时线路数愈多也就愈难掌控并行传输的时序准确性,使得实际布线设计变的困难,过往就经常要用蛇绕方式的布线来求取并列时序的同步。
另一个问题是时脉,透过并列同步频率的提升以达成加速的目标会带来副作用,即是愈高速愈会使传输线路的长度受限,这同样会造成电路布线设计时的难度,连带的也会使每通道的连接模组数受到约束,过去一个通道允许连接四条模组,之后降成两条模组,若方式不变未来一个通道仅能连接一个模组,这并非不可能,看看ATA硬碟介面,更高速的SATA仅允许一个通道连接一个ATA装置(硬碟),而过去较慢速的PATA则仍允许一个通道连接两个ATA装置。
即便模组数可以增加,然现有存储器架构的连接拓朴(Topology)属Stub-bus作法,即是同一时间、同一通道内只能有一个DIMM进行传输,其余的DIMM都必须闲置等候,如此传输效率依然卡在通道数、资料宽度的环节,难以改变。
通道数受限、模组数受限,自然存储器的扩充容量也会受限,倘若情形不改变,就只能倚赖存储器颗粒(晶片)的容量密度提升,然这就得倚赖半导体制程技术的精进才行(如从90nm进步至65nm)。很明显的,传统存储器架构已至多方窘困:效能、容量、线路数、时脉速、通道数、模组数、同步设计难度、电路面积成本等。

FB-DIMM的沿袭与变革
接着来看FB-DIMM的作法,FB-DIMM其实只改变存储器的连接架构与传输方式,在存储器颗粒方面仍是用今日常见的DDR2 SDRAM,但是在每个DIMM模组上追加一颗先进存储器缓冲(Advanced Memory Buffer;AMB)晶片,所有在DIMM上头的DDR2 SDRAM颗粒都与AMB晶片相连,再由AMB晶片与主机板相连,不再是过去让每颗DDR2 SDRAM颗粒自行与主机板相连,简单说即是一律透过AMB来转换、转接。
至于如何转换转接呢?AMB将原有DDR2 DIMM的64bit并列资料传输转换成24bit的串列传输,过去64bit并列传输是使用统一的传输时脉,且64bit在单一时间内只能在读取「或」写入,不能让读取与写入同时发生,而AMB转换后变成14bit读取与10bit写入,且在串列传输中夹带时脉信号(类似PCIe的8b10b法),各 bit的传输时序不用整齐一致(即指同步),没有过去并列传输常要担忧的串音干扰,并允许各bit尽其所能的加快传输。
此外,DDR2 SDRAM使用的单端式(Single End)传输,逻辑定义来自绝对性的电压准位,如LVTTL、SSTL、HSTL等,难以长距离传输,如今AMB将单端传输转换成差动式(Differential)传输,以一对传输线路间的相对电压差作为逻辑定义,因此可长距、高速传输,也因此FB-DIMM的每通道可串接八个 DIMM,不似现有传统架构仅能两个DIMM。
从64bit同步并列改成24bit非同步串列后,FB-DIMM的线路数也获得大幅缩减,过去要用240pin与存储器控制器(即北桥晶片)相连,如今只需用69pin相连,如此布线设计更容易(线路减少,不用时序同步),电路面积、层数等制造成本也可缩减。
进一步地说,每个FB-DIMM上的AMB晶片会相互串接,且如前所述可在单一通道内串接八条DIMM,即是串接八颗AMB,八颗AMB相互间以点对点(Point-to-Point)的方式连接,因此两点间可高速交换传递资讯,逐颗串接后会形成一个链(Chain)状连接,每个通道中只有第一颗 AMB晶片会与存储器控制器连接,其余都是相互串接,串接的结果变成每颗AMB(DIMM)随时都可以传输,不似传统Stub-bus架构同时间只能有一条DIMM传输,明显的FB-DIMM/AMB作法较不易产生传输瓶颈,进而增加整体传输率。附带一提的是,串接的部分包含14pin的读取与10pin 的写入,每个bit用一对差动线路构成,在专业用语上称为传输巷(Lane),而14pin的串接称为北面(Northbound),10bit写入称为南面(Southbound)。
此外,为何要称为Full Buffered,因为过去SDR SDRAM时代就用过Buffer技术,但只用在位址线路与控制线路,未用在资料线路,属于部分性的Buffer运用,运用Buffer缓冲可提升信号的发散(Fan Out;扇出)驱动力,这在过去单一DIMM上的颗粒过多时必须使用。如今FB-DIMM则是各颗粒的所有运作信号都要进行Buffered,所以称为 Full Buffered。
之后,由于并列宽度与速度都提升,Buffer没有并列传输的同步机制,容易使传输失误,所以改成有同步机制的Registered作法,即是今日所称的Registered SDRAM,然预计Full Buffered作法将在二、三年内取代Registered。至于为何不在DIMM上也用Registered?因为各bit的传输已内含自用的时脉(称为Self-Clocking),各bit不用时序同步,所以不需要。
而AMB的转换也将侦错、更错机制进行改变,由过去的ECC(Error Correcting Code)换成CRC(Cyclical Redundancy Check),使侦错、更错能力获得提升。

计算FB-DIMM的提升效益
改采FB-DIMM架构后真的可以加速与容量拓增吗?对此一样以机制原理来解释。
以现有DDR2 800而言,使用200MHz时脉可得到800Mbps传输率,乘以64bit可得51.2Gbps,除以8则成6.4GB/Sec。
同样的时脉频率用于FB-DIMM,则每个bit能有4.8Gbps,乘以24bit可得115.2Gbps,除以8为14.4GB/Sec,如此在同样的单一通道、同样的传输时脉下,FB-DIMM的14.4GB/Sec远胜传统的6.4GB/Sec。而且如前所述,FB-DIMM仅有69pin 与存储器控制器相连,远少于现今的240pin,这意味着:取消一个传统通道的设置,可以改设置三个FB-DIMM通道,且使用线路、占用面积依然少于传统通道(69pinx3<240pin),串接方式也比Stub-bus更省电路面积。如此,原本可以设置两个传统通道的电路板,可以改设置成六个FB- DIMM通道,六个通道同时启用,则最高传输率可达86.4GB/Sec。
不过,86.4GB/Sec只是理想值,重点依旧在存储器颗粒上,FB-DIMM仍是使用DDR2颗粒,DDR2颗粒并行传输若只能达 6.4GB/Sec,那么六个通道同时启用也只能获得38.4GB/Sec,此一瓶颈与硬碟的内外部传输率相类似,FB-DIMM的极致传输值如同硬碟外部的介面传输率,DDR2颗粒的传输率如同硬碟内部的磁头感应速率,真正的整体效能取决于内部、外部居次,外部更快速只是预留频宽,以待日后内部传输率提升时仍可因应,使外部不至成为整体传输的碍阻。
如此,FB-DIMM将DIMM数从二增至八,Channel数从二增至六,使FB-DIMM架构的最高DIMM数达四十八条,相对的传统架构仅四条,差异为二十四倍。


图左为一个DDR2 Registered DIMM通道的布线图,图右则为二个FB-DIMM通道的布线图

更多的益处
FB-DIMM除了能提升传输、拓增容量,其实还带来更多传统架构时所较难实现的好处:

  • 由AMB晶片统管各存储器颗粒,反而能消弥以往传统架构所常出现的DRAM颗粒相容性问题,因为此一电气特性差异已由AMB转化吸收,只要通道内的每条 DIMM都使用同一业者的同一型款AMB晶片,颗粒相容性问题就容易排除,其他如负载效应平衡、阻抗匹配问题也都容易解决。
  • 更容易实现伺服器系统所需要的存储器坚稳机制,例如由AMB负责管控,若某颗DRAM颗粒暂时或永久失效,则可由其他备援颗粒来暂顶或取代。此外,也因为相同线路数下可比过去多设置1、2个通道,因此要实现如Chipkill之类的记忆体镜射阵列(Memory RAID)防护也更容易。类似的情况,当某一传输巷(Lane、bit)失效或故障时,因为各bit毫无相依关连,也可即时由其他传输巷来替顶。
  • 要在串列传输中增加特色功效机制也比并列方式容易,例如改用更先进的侦错、除错编码法,或添入传输加密等,这些追加只需稍减损原有的传输频宽即可达成,相对的并列传输得拓增更多的相关线路才能办到,在硬体工程上有较高的变更成本。
  • 过去伺服器管理者经常碍于单一系统内可用的DIMM数过少,迫使采购初期就得用单条高容量的DIMM,但也必须接受较贵的单价,否则没有足够的DIMM数可供扩充,而改採FB-DIMM后则可抒解此一问题,因为一通道内最多可有八个DIMM,使存储器的容量组态弹性、最高扩充容量都获得改善。
  • 此一特点其实也源自第一项特点,透过AMB的转化,日后即便DRAM颗粒改朝换代也可持续相容,现在使用DDR2 SDRAM,日后也可升级使用新一代的DDR3 SDRAM,或其他类型的DRAM。

FB-DIMM也有隐忧、威胁
乍听之下FB-DIMM的一切表现都超越传统,然事实真如此吗?事实上FB-DIMM也有其隐忧,以下也逐一讨论:

  • 高速的AMB晶片功耗相当高,就一般而言,过去的DDR DIMM约5.4W,DDR2 DIMM因颗粒制程的进步而降至约4.4W,然使用DDR2颗粒的FB-DIMM却增至10.4W(因为加了AMB晶片),这在讲究营运成本精省的今天是一大致命伤,同时更高的功耗也使散热更困难,多条密排的DIMM将不易设计散热,如此不易运用在刀锋伺服器或超薄伺服器等散热空间有限的系统上,例如 Sun在评估过FB-DIMM后就透露出可能放弃在薄型或省电型的伺服器中使用。
  • 在DIMM上追加AMB晶片也使DIMM模组上的电路复杂度增加,这对DIMM模组的制造商而言也有些挑战要克服。
  • 老实说FB-DIMM的原理与Rambus的RDRAM相近,主要差别只在FB-DIMM是以相容现有DRAM颗粒的方式来实现,以此规避技术专利,但就成本与简化性而言,反而是RDRAM较有利。
  • Rambus 已在推行比RDRAM更先进的XDR RAM及XDR2 RAM,XDR RAM是RDRAM的进化,将位址线、控制线分立出来,如此传输的延迟性(Latency)可低于RDRAM,且将用在Sony的新一代电视游乐器: PlayStation 3(PS3)上,FB-DIMM面对RDRAM已居弱位,如今就更难面对XDR RAM,唯FB-DIMM是JEDEC国际标准,此点胜过RDRAM、XDR RAM的独家业者授权。

支持业者与展望未来
最后,除了Intel发起外,Dell、HP等系统大厂都已表态支持FB-DIMM,DIMM模组业者如A-DATA、Apacer、Crucial、 Kingston、SMART Modular Technologies也都支持,存储器颗粒业者也是全面投入AMB的研发及量产,如Samsung、Micron、Hynix、 NEC/Elpida、Infineon等,就连IDT也投入AMB晶片的战局,同时各大厂也将持续提升FB-DIMM的传输率,预计将既有每Lane的 4.8Gbps提升至6.4Gbps,甚至上看9.6Gbps。

Xeon(至强)是英特尔生产的400MHz的奔腾微处理器,它用于”中间范围”的企业服务器和工作站。在英特尔的服务器主板上,多达八个Xeon处理器能够共用 100MHz的总线而进行多路处理。Xeon正在取代Pentium Pro而成为英特尔的主要企业微芯片。Xeon设计用于因特网以及大量的数据处理服务,例如工程、图像和多媒体等需要快速传送大量数据的应用。Xeon是 奔腾生产线的高端产品。
Xeon基于奔腾微处理器P6构架,它设计成与新的快速外围元件互连线以及加速图形端口一起工作。Xeon具有:512千字节或1兆字节,400MHz的高速缓冲存储器、在处理器、RAM和I/O器件之间传递数据的高速总线、能提供36位地址的扩展服务器内存结构。
装有Xeon微处理器的计算机一般可使用Windows NT、NetWare或Unix操作系统,其系统可与Sun Microsystem、Silicon Graphics等媲美。
现代Xeon 则是作为intel的高端处理器形象出现。现在基本已经形成如下格局:高端Xeon,中端Core/Pentium,低端Celeron赛扬。其中Xeon由于可以使用多处理器技术,因此尤其受到多任务用户推荐。

  • 至强的诞生:Pentium II Xeon
    1998年英特尔发布了Pentium II Xeon(至强)处理器。Xeon是英特尔引入的新品牌,当时Intel公司为了区分服务器市场和普通个人电脑市场,决定研制全新的服务器CPU,命名也 跟普通CPU做了一些明显的区分,称为Pentium II Xeon,取代之前所使用的Pentium Pro品牌。这个产品线面向中高端企业级服务器、工作站市场;是英特尔公司进一步区格市场的重要步骤。Xeon主要设计来运行商业软件、因特网服务、公司 数据储存、数据归类、数据库、电子,机械的自动化设计等。
    Pentium II Xeon处理器不但有更快的速度,更大的缓存,更重要的是可以支持多达4路或者8路的SMP对称多CPU处理功能,它采用和Pentium II Slot1接口不同的Slot 2接口,必须配合专门的服务器主板才能使用。
  • 巨大的成功:Pentium III Xeon
    1999年,英特尔发布了Pentium III Xeon处理器。相信大家都还记得,采用“铜矿”核心的奔腾3处理器那几年是如何的风光,至今都还被誉为一代经典产品,而作为Pentium II Xeon的后继者,除了在内核架构上采纳全新设计以外,也继承了Pentium III处理器新增的70条指令集,以更好执行多媒体、流媒体应用软件。除了面对企业级的市场以外,Pentium III Xeon加强了电子商务应用与高阶商务计算的能力。Intel还将Xeon分为两个部分,低端Xeon和高端Xeon。其中,低端Xeon和普通的 Coppermine一样,仅装备256KB二级缓存,并且不支持多处理器。这样低端Xeon和普通的Pentium III的性能差距很小,价格也相差不多;而高端Xeon还是具有以前的特征,支持更大的缓存和多处理器。
  • 前赴后继:Pentium 4 Xeon
    2001年英特尔发布了Xeon处理器。英特尔将Xeon的前面去掉了Pentium的名号,并不是说就与x86脱离了关系,而是更加明晰品牌概念。Xeon处理器的市场定位也更加瞄准高性能、均衡负载、多路对称处理等特性,而这些是台式电脑的Pentium品牌所不具备的。Xeon处理器实际上还是 基于Pentium 4的内核,而且同样是64位的数据带宽,但由于其利用了与AGP 4X相同的原理--“四倍速”技术,因此其前端总线有了巨大的提升,表现更是远胜过Pentium III Xeon处理器。Xeon处理器基于英特尔的NetBurst架构,有更高级的网络功能,及更复杂更卓越的3D图形性能,另一方面,支持至强的芯片组也在 并行运算、支持高性能I/O子系统(如SCSI磁盘阵列、千兆网络接口)、支持PCI总线分段等方面更好地支持服务器端的运算。
  • Prestonia
    是Xeon处理器的第二代核心,Prestonia同第一代的Foster核心之间的首要区别就是整合的二级缓存容量的差别,前者为512KB,而后者仅 为256KB。Prestonia核心处理器也采用了先进的0.13微机制造工艺。但是Prestonia核心最大的优势就是增加了对Hyper- Threading(超线程)的支持。Hyperthreading早先称为Jackson技术,这是一种多线程(SMT Simultaneous Multi-Threading)技术的扩展,其主要功能就是让处理器在单处理器工作模式下也进行多线程工作(每块处理器可以同时进行一个以上进程的处理)。
  • Nocona
    这是Intel的XEON CPU核心,采用90nm制程,使用800Mhz FSB,具有16KB L1缓存、1MB L2缓存和12KB uOps Trace缓存,同时支持SSE3以及HyperThreading。对应Xeon处理器通过EM64T技术同时支持32位和64位计算,并通过集成 DBS(Demand Based Switching,基于需要切换技术)实现增强型SpeedStep技术,可以根据工作负载动态调整处理器运行频率和功耗。
  • Irwindale
    Xeon产品的核心,前端总线、HyperThreadingII、增强型Speedstep、EDB以及EM64T都和Nocona完全一致。该核心与 Nocona核心最大的不同就是二级缓存进一步提升到2MB,频率由3.0G开始起跳,与Pentium 4 600系列处理器的架构有些类似。不过由于二级缓存的加大,工艺也没得得到改进,导致该处理器的功率和发热量均大大高于Nocona,在选购该处理器时散 热应该引起足够的重视。
  • Conroe(双核心)
    Intel Xeon 3000系列的新核心,与Intel Core 2 Duo采用相同的LGA 775针脚,而非Woodcrest所用的LGA 771针脚。Xeon 3000系列处理器运行于1066 MHz系统总线(FSB),内含4 MB或2 MB共享型二级缓存,支持Intel 64位扩展技术(Intel EM64T),Intel虚拟化技术(Intel Virtualization Technology)及Enhanced Intel SpeedStep技术,其中包括 Xeon 3040, 3050, 3060和3070,Intel Xeon 3070 (2.66 GHz/4MB L2/FSB1066),Intel Xeon 3060 (2.40 GHz/4MB L2/FSB1066),Intel Xeon 3050 (2.13 GHz/2MB L2/FSB1066),Intel Xeon 3040 (1.83 GHz/2MB L2/FSB1066)。其中3040和3050配备了2MB二级缓存,而3060和3070配备了4MB二级缓存。新的Xeon处理器采用了Core核 心,与前代的NetBurst相比,在性能和功耗方面都有了很大的提高和改善。
  • Dempsey(双核心)
    Dempsey是Xeon的双核心版本,型号命名为50xx的双核处理器,包括5030(2x2MB/2.67GHz/667 MHz前端总线/功率95W/DP)、5050(2x2MB/3.00GHz/667MHz前端总线/功率95W/DP)、5060 (2x2MB/3.20GHz/前端总线1066 MHz/功率130W/DP)、5063(2x2MB/3.20GHz/前端总线1066 MHz/功率95W/DP)、(5080 2x2MB/3.73 GHz/前端总线1066 MHz/功率130W/DP)。这些Xeon 50XX系列均为双核心,主频从2.50GHz到3.73GHz,所有处理器采用 65 纳米制造工艺,均支持FB-DIMM内存,英特尔虚拟化技术、超线程(HT)技术、增强型英特尔SpeedStep动态节能技术(其中5063、5060 不支持)、英特尔64位内存扩展技术、英特尔病毒防护技术。这些处理器均配置了4MB L2缓存,其中每个核心独享2MB L2缓存,其前端总线为1066MHz或者667MHz,可以提供8.5GB/s或者5.3GB/s的传输带宽。采用65nm工艺的双核心Xeon Dempsey使用LGA771接口。与此50XX系列配合的芯片组为INTEL 5000X,5000P,5000Z,5000V。
  • WoodCrest(双核心)
    这是XEON采用Core微架构的服务器级双核心处理器,WoodCrest核心处理器包括Xeon 5110(1.6GHz/4MB L2/1066MHz FSB)、Xeon 5120(1.86GHz/4MB L2/1066MHz FSB)、Xeon 5130(2GHz/4MB L2/1333MHz FSB)、Xeon 5140(2.33GHz/4MB L2/1333MHz FSB)、Xeon 5150(2.66GHz/4MB L2/1333MHz FSB)及最高型号Xeon 5160(3GHz/4MB L2/1333MHz FSB),采用LGA 771处理器接口,全线最高功耗只有80W,对比上代Dempsey核心最高功耗可高达130W有着明显的改善,支持Intel EM64T、Intel Execute Disable Bit、Intel Virtualization Technology功能,而Demand-Based Switching功能则只提供于Xeon 5140或以上的型号。另有一款低功耗产品XEON 5148 LV,频率为2.33GHz/4MB L2 Cache/1333MHz FSB,但最高功耗只有40W,是正常型号的一半,并完全支持援Intel EM64T、Intel Execute Disable Bit、Intel Virtualization Technology功能及Demand-Based Switching功能。与此51XX系列配合的芯片组为Intel5000X,5000P,5000Z,5000V。
  • 45nm 至强至尊处理器(四核心)
    随着Intel Xeon QX9650的诞生,处理器开始进入45NM时期。这款处理器以其卓越的性能,超低的发热量,让Intel芯片巨头的位置更加稳定

前段时间把笔记本装成了Windows Server 2003,苦于找不到我的Intel PRO/1000 MT网卡在Windows Server 2003(32bit)的驱动,着实郁闷了好久。终于在某台湾站点上找到了这个万能驱动,并从Intel下载到。

此驱动程序适用于8255x、82562、8254x及8257x Intel Ethernet等网络适配器。

  • Intel 82540EM Gigabit Ethernet 控制器
  • Intel 82540EP Gigabit Ethernet 控制器
  • Intel 82541EI Gigabit Ethernet 控制器
  • Intel 82541GI Gigabit Ethernet 控制器
  • Intel 82541PI Gigabit Ethernet 控制器
  • Intel 82543GC Gigabit Ethernet 控制器
  • Intel 82544 Gigabit Ethernet 控制器
  • Intel 82544EI Gigabit Ethernet 控制器
  • Intel 82544GC Gigabit Ethernet 控制器
  • Intel 82545EM Gigabit Ethernet 控制器
  • Intel 82545GM Gigabit Ethernet 控制器
  • Intel 82546EB Dual Port Gigabit Ethernet 控制器
  • Intel 82546GB Gigabit Ethernet 控制器
  • Intel 82547EI Gigabit Ethernet 控制器
  • Intel 82547GI Gigabit Ethernet 控制器
  • Intel 8254x 以太网控制器
  • Intel 82550 高速以太网多功能控制器
  • Intel 82558 32 位元 PCI 汇流排 LAN 控制器
  • Intel 82559 10/100 Mbps 高速以太网控制器
  • Intel 82562 高速以太网控制器
  • Intel 82562ET 高速以太网控制器
  • Intel 82562EX 高速以太网控制器
  • Intel 82562EZ 高速以太网控制器
  • Intel 82571EB Gigabit Ethernet 控制器
  • Intel 82572EI Gigabit Ethernet 控制器
  • Intel 82573E Gigabit 以太网控制器
  • Intel 82573L Gigabit 以太网控制器
  • Intel 82573V Gigabit 以太网控制器
  • Intel PRO/100 M 桌上型介面卡
  • Intel PRO/100 S Desktop Adapter
  • Intel PRO/100 S Dual Port 服务器介面卡
  • Intel PRO/100 S Management Adapter
  • Intel PRO/100 S 服务器介面卡
  • Intel PRO/100 VE Desktop Adapter
  • Intel PRO/100+ Adapter
  • Intel PRO/100+ Management Adapter
  • Intel PRO/100+ 服务器介面卡
  • Intel PRO/1000 GT 四重连接埠服务器介面卡
  • Intel PRO/1000 GT 桌上型介面卡
  • Intel PRO/1000 MF 服务器介面卡
  • Intel PRO/1000 MF 服务器介面卡 (LX)
  • Intel PRO/1000 MF 双连接埠服务器介面卡
  • Intel PRO/1000 MT 服务器介面卡
  • Intel PRO/1000 MT 四重连接埠服务器介面卡
  • Intel PRO/1000 MT 桌上型介面卡
  • Intel PRO/1000 MT 双连接埠服务器介面卡
  • Intel PRO/1000 PF 服务器介面卡
  • Intel PRO/1000 PT 服务器介面卡
  • Intel PRO/1000 PT 桌上型介面卡
  • Intel PRO/1000 PT 双连接埠服务器介面卡
  • Intel PRO/1000 XF 服务器介面卡
  • Intel PRO/1000 XT 服务器介面卡
  • Intel PRO/1000 XT 低设定档服务器介面卡
  • Intel PRO/100B 介面卡
  • Intel PRO/10GbE LR 服务器介面卡
  • Intel PRO/10GbE SR 服务器介面卡

点此下载

SAS(Serial Attached SCSI)即串行连接SCSI,是新一代的SCSI技术,和现在流行的Serial ATA(SATA)硬盘相同,都是采用串行技术以获得更高的传输速度,并通过缩短连结线改善内部空间等。SAS是并行SCSI接口之后开发出的全新接口。此接口的设计是为了改善存储系统的效能、可用性和扩充性,并且提供与SATA硬盘的兼容性。
SAS的接口技术可以向下兼容SATA。具体来说,二者的兼容性主要体现在物理层和协议层的兼容。在物理层,SAS接口和SATA接口完全兼容,SATA 硬盘可以直接使用在SAS的环境中,从接口标准上而言,SATA是SAS的一个子标准,因此SAS控制器可以直接操控SATA硬盘,但是SAS却不能直接使用在SATA的环境中,因为SATA控制器并不能对SAS硬盘进行控制;在协议层,SAS由3种类型协议组成,根据连接的不同设备使用相应的协议进行数据传输。其中串行SCSI协议(SSP)用于传输SCSI命令;SCSI管理协议(SMP)用于对连接设备的维护和管理;SATA通道协议(STP)用于 SAS和SATA之间数据的传输。因此在这3种协议的配合下,SAS可以和SATA以及部分SCSI设备无缝结合。
SAS系统的背板(Backplane)既可以连接具有双端口、高性能SAS驱动器,也可以连接高容量、低成本SATA驱动器。所以SAS驱动器和 SATA驱动器可以同时存在于一个存储系统之中。但需要注意的是,SATA系统并不兼容SAS,所以SAS驱动器不能连接到SATA背板上。由于SAS系统的兼容性,使用户能够运用不同接口的硬盘来满足各类应用在容量上或效能上的需求,因此在扩充存储系统时拥有更多的弹性,让存储设备发挥最大的投资效益。
在系统中,每一个SAS端口可以最多可以连接16256个外部设备,并且SAS采取直接的点到点的串行传输方式,传输的速率高达3Gbps,估计以后会有 6Gbps乃至12Gbps的高速接口出现。SAS的接口也做了较大的改进,它同时提供了3.5英寸和2.5英寸的接口,因此能够适合不同服务器环境的需求。SAS依靠SAS扩展器来连接更多的设备,目前的扩展器以12端口居多,不过根据板卡厂商产品研发计划显示,未来会有28、36端口的扩展器引入,来连接SAS设备、主机设备或者其他的SAS扩展器。
和传统并行SCSI接口比较起来,SAS不仅在接口速度上得到显著提升(现在主流Ultra 320 SCSI速度为320MB/sec,而SAS才刚起步速度就达到300MB/sec,未来会达到600MB/sec甚至更多),而且由于采用了串行线缆,不仅可以实现更长的连接距离,还能够提高抗干扰能力,并且这种细细的线缆还可以显著改善机箱内部的散热情况。
SAS目前的不足主要有以下方面:

  • 硬盘、控制芯片种类少:只有希捷、迈拓以及富士通等为数不多的硬盘厂商推出了SAS接口硬盘,品种太少,其他厂商的SAS硬盘多数处在产品内部测试阶段。此外周边的SAS控制器芯片或者一些SAS转接卡的种类更是不多,多数集中在LSI以及Adaptec公司手中。
  • 硬盘价格太贵:比起同容量的Ultra 320 SCSI硬盘,SAS硬盘要贵了一倍还多。一直居高不下的价格直接影响了用户的采购数量和渠道的消化数量,而无法形成大批量生产的SAS 硬盘,其成本的压力又会反过来促使价格无法下降。如果用户想要做个简单的RAID级别,那么不仅需要购买多块SAS硬盘,还要购买昂贵的RAID卡,价格基本上和硬盘相当。
  • 实际传输速度变化不大:SAS硬盘的接口速度并不代表数据传输速度,受到硬盘机械结构限制,现在SAS硬盘的机械结构和SCSI硬盘几乎一样。目前数据传输的瓶颈集中在由硬盘内部机械机构和硬盘存储技术磁盘转速所决定的硬盘内部数据传输速度,也就是80MBsec左右,SAS硬盘的性能提升不明显。
  • 用户追求成熟、稳定的产品:从现在已经推出的产品来看,SAS硬盘更多的被应用在高端4路服务器上,而4路以上服务器用户并非一味追求高速度的硬盘接口技术,最吸引他们的应该是成熟、稳定的硬件产品,虽然SAS接口服务器和SCSI接口产品在速度、稳定性上差不多,但目前的技术和产品都还不够成熟。

不过随着英特尔等主板芯片组制造商、希捷等硬盘制造商以及众多的服务器制造商的大力推动,SAS的相关产品技术会逐步成熟,价格也会逐步滑落,早晚都会成为服务器硬盘的主流接口。

最近做网管,整理一堆堆的线真是花了大工夫,可惜忘记把前后效果照下来了。

如果你是一个服务器机房的管理人员,平时就一定要有个良好的生活习惯,管理好自己的行为举止,若然你是管理一个大型服务器机房的话,那么就更加要对自己约束起来。平日喜欢把东西乱丢乱放,那么你管理的机房里很可能是这样的一番景象。想找到特定的一根网线就如同大海捞针一样咯。
简直是“痴晒线”,最乱线路展示: