账号:
密码:
最新动态
产业快讯
CTIMES / 文章 /
10年历史的PCI由谁接棒?
新世代汇流排技术展望

【作者: 陳隱志】2002年06月05日 星期三

浏览人次:【8227】

人们对资讯运算与资讯传输频宽的需求似乎从未满足过,1992年Intel提出了PCI汇流排,在32-bit、33MHz时可达132MB/Sec的高传输率,就当年而言可谓是惊为天人的规格,但时至今日PCI的传输频宽已成为许多资讯发展的瓶颈,为了寻求频宽的突破,这阵子资讯组件厂商又开始了新一波的介面/汇流排制订风潮,因此许多崭新或强化的名词纷纷出现,以下我们便就数个最常见的名词做解释与说明。


HyperTransport

HyperTransport在2001年2月之前的旧称为LDT(Lightning Data Transport),主要是针对AMD自家的下一代处理晶片:Hammer/K8所提出,此种介面仅用于高速晶片与高速晶片间,且只在同一张电路板上使用,没有排线或插槽形式,AMD将此汇流排用于多CPU间的资料沟通,以及CPU对记忆体、I/O间的沟通。



《图一 AMD-8131 HyperTransport PCI-X tunnel》
《图一 AMD-8131 HyperTransport PCI-X tunnel》

在AMD提出HyperTransport前,Intel已经察觉PCI渐渐成为系统传输瓶颈,特别是UltraATA/66出现后,两个UltraATA/66便需要133MB/Sec的频宽,对于32-bit、33MHz的PCI而言已经是满载,为此Intel于82810晶片组加入了新推出的Hub-Link汇流排,以此舒缓PCI的瓶颈问题。



《图二 HyperTransport 带宽表现》
《图二 HyperTransport 带宽表现》

Hub-Link虽解决问题,但仅专属于Intel,不似PCI属开放规格,而AMD同样也面临PCI瓶颈问题,因此只好自行提出HyperTransport来因应(2000年5月提出LDT 1.0版)。


由技术上来看,HyperTransport采弹性、机动调度资料宽度(2-bit至32-bit),以及差动式信号与封包(Pocket)式传输,目前最高传输时脉为400MHz(上下触发缘皆运用,相当于800MHz)、传输速可达6.4GB/Sec(32-bit时,宽度减半传输率亦减半,16-bit则只有3.2GB/Sec),比InfiniBand(后述)的4GB/Sec还快。


HyperTransport虽为AMD所提出,但AMD却愿意授权给其他业者使用,目前已知获得授权的业者如下:


《公式一》
《公式一》

3GIO

3GIO是「3rd Generation I/O」的意思,与AMD HyperTransport所使用的技术相当类似,都是可调变资料宽度的差动式封包传输,同样也是串列式传输,但比HyperTransport优异的一​​点在于3GIO不仅提供高速晶片间的沟通管理,同时也可以是I/O形式的插槽,与现今的PCI相当类似,且由于3GIO在软体操控方面直接运用现有PCI的运作方式,因此3GIO也被人称为Serial PCI,或PCI 3.0版。


3GIO提出的用意即在于全面取代PCI,不过PCI的普及性既广且久远,且3GIO规格蓝图虽宏远但实现技术仍待成熟,所以将采渐进方式取代PCI,短时间两种汇流排与插槽将会并存于同一主机板上。


3GIO之所以采串列传输,主要也是并列传输已经发展至瓶颈,未来的突破性也不看好之故,而3GIO则是以串列方式压榨传输介质的物理极限,根据推估,以现有铜质导线来做为3GIO的传输,最高可达物理极限的10Gbps,未来甚至可以在不改变协定上的规格,仅将传输材质变更,由铜线改成光纤,则有进一步推出传输力的可能。


不过10Gbps是远大的梦想,初期务实的设计仅有10Gbps的1/4速度,为2.5Gbps左右,而这指的是单一传输线时,3GIO采可变资料宽度的设计,传输可为1-bit、 2-bit、4-bit...最高达32-bit,若以单一bit之2.5Gbps来计算,最高速度可达2.5Gbps x 32 = 80Gbps,未来若真达到10Gbps一个bit,则更可达320Gbps 。


3GIO另一特点是改善以往PCI的频宽管理问题,以往经常会有争抢汇流排主导权的仲裁问题,仲裁经常导致传输效能折损,这点于3GIO有新机制负责改善,使3GIO上的任何封包资料传输都能即时送达目的地(晶片或介面卡)。为了让3GIO的普及效应如同1992年PCI般的成功,所以3GIO初期的制订会员已将后期的制订权交由PCI SIG负责。


最后3GIO的支援厂商相当众多,除PC四大厂与Wintel外,其余成员详列如下:


《公式二》
《公式二》
《公式三》
《公式三》

Serial ATA

Serial ATA顾名思义是串列传输式的ATA介面,目前以16-bit资料宽度传输的IDE/ATA介面已经到了传输极限,UltraATA/33与UltraATA/66间有100%的传输力成长,UltraATA/66与UltraATA/100间却只有50%的成长,而UltraATA/100与UltraATA/133更是只有33%的成长,并列传输已经到了瓶颈,唯一的突破方式即是改采串列传输,事实上现今的高速介面皆采用串列传输,ATA仅是从善如流而已,其优势请参考(图三)。



《图三 Serial ATA Value Proposition》
《图三 Serial ATA Value Proposition》

根据Intel的规划,Serial ATA初期的资料传输率为1.5Gbps(约187.5MB/Sec),已比现有133MB/Sec的UltraATA/133快,而这只是1X的Serial ATA(也称为Ultra SATA/1500 ),依据研发排程后续将有2X与4X传输速的Serial ATA,即是3Gbps、6Gbps的Serial ATA出现,不过依据Intel内部的工程师看法,一般串列线路可能会在4.5Gbps时即发生传输瓶颈,因此6Gbps可能有更换传输材质的需要,这点与1394颇雷同,目前IEEE 1394a达400Mbps,要达800Mbps、1.6Gbps、或3.2Gbps的更高传输速,必须用光纤作为传输介质,若认为光纤太昂贵,至少必须用价格较低廉的塑胶光纤替代,才有突破的可能。


传统并列式ATA除了传输速率难再提升外,40pin的宽排线也经常阻碍机壳内的散热空气流通,因此用4pin的Serial ATA亦有减少机壳内线路紊乱,以及让空间更流通的好处。


Serial ATA从连接的角度看也与传统并列式ATA不同,以往ATA是以两个Channel分别连接两条40pin排线,并于排线上串接两个支援ATA介面的储存装置,如硬碟、光碟机等等,而Serial ATA将没有这种串接动作,因此可能直接于主机板上提供4组「一对一」连接的串接介面,甚至更多组。


Serial ATA初期的规格设计仅是用来取代传统并列式ATA,持续提升个人电脑的磁碟传输通道的效能,所以并没有将「热插拔」的功能特性规划进去,毕竟是机壳内的介面,与USB、1394等外接介面有应用取向上的差异,不过由于以前Device Bay规格是以1394介面机壳内使用的方式来实现电脑碟机热插拔,在未来1394也不可能比Serial ATA普及的预测下,Serial ATA也于新版规格中加入热插拔功能,因应电脑组装、扩充、升级上的方便需求。


目前除了Intel外,Seagate也率先加入Serial ATA的制订与开发尝试,未来在新旧ATA介面皆有的过渡时期,将提供同时具备新旧ATA介面的硬碟,未来则逐渐换成仅具Serial ATA介面的硬碟,除此之外相关的参与厂商还有AMD、APT Tech、Dell、Promise、IBM、LSI Logic、Maxtor等。最后研发进度上Intel已于2002年IDF正式宣布Serial ATA 1.0版,且相关厂商成员也已经进入Serial ATA II的制订规划。


iSCSI(internet SCSI)

iSCSI虽名为「SCSI」,事实上与实体的SCSI介面没有太多关系,IBM提出iSCSI主要是希望能提供较「储存区域网路(Storage Area Network, SAN)」低廉的储存解决方案,让预算有限的企业也能享受接近SAN的储存优点。


目前企业级储存设备中除磁带机、磁光碟机外,尚有DAS、SAN、NAS三种以硬碟为基础的储存设备,然而三者的传输介面皆不同,DAS多半用SCSI,SAN用Fibre Channel (光纤通道),NSA则是用Ethernet,其中DAS推出的历史已有10年,SAN于1998年开始兴起,NAS则是自2000年才开始展露,DAS、SAN都是让伺服主机延伸储存空间的作法,唯独NAS是以IP型态独立于Ethernet中,以单点装置服务其他Ethernet中的电脑,包括工作站、伺服器等等。


无论是DAS、SAN的主机延伸,还是NAS的单点独立提供服务都有其优点在,前者有助于储存资料的整合管理,后者则在系统与设备管理上较方便(以IP为基础的软体管理工具都可以对其进行管理),此外SAN的建置成本高昂,每部主机需要安装光纤卡、布设光纤线、连接光纤集线器或交换器等,相对的NAS所用的Ethernet则成本低廉,所以IBM取两者之长,实体线路上以Ethernet连接所有主机与储存设备,但协定传输上则以TCP/IP夹带SCSI指令为主,如此主机即可透过Ethernet存取DAS、SAN设备,如同用Fibre Channel一样,且具有Fibre Channel所缺乏的IP管理特质。



《图四 iSCSI Deployment Model》
《图四 iSCSI Deployment Model》

更进一步的,企业内的LAN(Ethernet)与企业外的Internet连接后,也可透过路由器​​连接到远端的DAS或SAN设备,让机房内的主机存取远在地球另一端的储存设备,就如同存取自己机身内的硬碟一样,完全感觉不出差异性。


整体而言,iSCSI是IBM提出的「穷人的SAN替代方案」,以Ethernet替代Fibre Channel来建置储存区域网路,为了实现此一想法,主机上的驱动程式、储存设备上的驱动程式都必须换成支援iSCSI的版本,如果还要存取远端的储存设备,更要使用能支援iSCSI的路由器才行,这方面IBM是与CISCO合作,由IBM提供支援iSCSI的伺服主机与储存设备,由CISCO提供支援iSCSI的路由器,共同推展iSCSI的企业储存解决方案。其推展模式请参考(图四)。


InfiniBand

InfiniBand的提出,即是为了解决「PCI频宽不足」与「运算机房内骨干与丛集连接介面紊乱」等两个问题,但事实上在InfiniBand还没有出现前,Intel自己就已经在研究类似InfiniBand的解决方案,此时称为NGIO(Next Generation I/O),不过不是只有Intel发现问题与想解决问题,IBM方面也有同样的问题与困境,IBM也是自行研发解决方案,并且与其他系统业者(HP 、COMPAQ)共同发展与制订。


由于Intel与IBM所要解决的问题是同一个,因此各自发展并无益处,经过一番磋商后,于1999年8月正式敲定双方的合作,将共同一致的解决方案称为InfiniBand,且获得软硬体大厂的共同支持,这些支持者除Intel、IBM外,还包括有微软(Microsoft)、升阳电脑(Sun Microsystems)、戴尔电脑(DELL)、惠普电脑(HP)、以及康柏电脑(COMPAQ )等等。


经过共同研发的结果,InfiniBand v1.0正式版于2000年10月24日发表,随即v1.0.a版于2001年6月19日发表。


InfiniBand的原始用意也包含了要取代PCI,许多新介面都是要取代PCI过于慢速的问题所提出,例如AGP、Hub-Link、V-Link、MuTIOL、HyperTransport、3GIO等,这些解决方案中除了3GIO同时有提供「晶片连接」与「扩充插槽」两种特性外,其他都是部分地解决问题而已,AGP只解决3D显示问题,Hub-Link、V-Link、MuTIOL、HyperTransport只解决晶片间的I/O问题,而InfiniBand则是与3GIO相同,希望「晶片连接」与「扩充插槽」两者都能提供,才算是完整的解决方案,而其实以往的ISA、PCI等也都是晶片连接、扩充插槽都适用的介面。


现在把焦点拉到资料中心的机房内,在资料中心的机房中,讲究的是大运算量、大储存量,因此以往伺服器用SCSI介面与自己内部的硬碟连接,这种作法使得硬碟的使用率仅有30%以下而已,情况差时更是只有20%、15%,但是若将这些硬碟完全集中到「储存区域网路(SAN)」的设备中,则可以得到90%以上的利用率,在储存服务效益上是比伺服器各自配备硬碟来得高的,管理上也由于资料集中,所以管理与维护上都较方便。


所以资料中心的机房内都倾向将所有伺服器内部的硬碟拆除,集中放到SAN设备上,而中间用Fibre Channel(光纤通道)作资料传输,可是光纤通道目前的传输频宽约100MB/sec ,新的版本则为200MB/sec,但是伺服器内的SCSI介面目前多为160MB/sec(即Quantum所提出的Ultra160/m SCSI),很快的就会换成320MB/sec(即Seagate提出的Ultra320 SCSI),如此Fibre Channel将难以因应。


更重要的,伺服器能连上光纤网路,主要是透过伺服器内的PCI插槽,目前64位元的PCI插槽若以33.33MHz运作,则能够有266.66MB/sec的效能(Intel的晶片组大多只支援到33.33MHz,但规格书上表示可到66.66MHz),如此也不足以应付Ultra320 SCSI,所以SCSI、PCI、Fibre Channel三者间没有一个能够大幅因应另一个介面,三者呈现竞赛的局面。


此外如果不将特殊的丛集专用介面算入的话,其实机房内还有最常用的两种外部传输介面,即是Fibre Channel与Ethernet,不过此两者都有其传输上的缺点,这样缺点正是InfiniBand能够补强并取代的地方。


TCP/IP的不适性

现在Ethernet几乎都是拿来跑TCP/IP通讯协定,但是TCP/IP通讯协定的传输设计相当复杂,两传输点间都要有7个通讯层级进行沟通才行,因此在传输封包中真正的资料传输量不大,大多是一些协定的辅助表示资料,所以设计复杂外,实质的资料传输效率也不佳。


此外对开发设计者而言,要支援TCP/IP通讯协定,因为其复杂性,所以要撰写的程式码也要上千行以上,另外传送与接收的装置还需要具备比较大容量的缓冲记忆体,才能迎合此种层级复杂、传输无效率的通讯协定。


还有,目前关于TCP/IP通讯协定的支援方式,都是用作业系统的程式来支援,即是用软体方式支援TCP/IP,但因为TCP/IP的天性复杂,所以在传输进行上也相当占用CPU的运算资源,不仅耗用伺服器的CPU运算资源,也耗用路由器(Router)、交换器(Switch)内的CPU运算资源,因为这些网路设备也是用内部CPU来执行软体TCP/IP程式,所以整个机房内的各种设备都会耗用CPU资源,甚至会耗用到50%以上的运算资源。


另外Ethernet目前用铜线的极限为1Gbps,虽然有10Gbps版本的Ethernet,但却是用光纤线传输,所以在传输介质上还是直接换用光纤比较有未来性。


光纤通道的不适性

Fibre Channel的传输协定较简单,光纤的协定目前也大多用特殊的专用晶片,直接以硬体线路方式支援,如此资料传输量大,也不占用CPU运算资源,传输层级也较TCP/IP简化,可以直接让应用程式直接存取记忆体,所以比「Ethernet+TCP/IP」的作法理想。


不过Fibre Channel整体建置成本昂贵,相容性亦有未解决的地方,传输虽然简化,但架构也有其复杂性,上述种种原因都使Fibre Channel的普及速度与接受度受限。


InfiniBand扮演的角色

所以无论是「乙太网路」还是「光纤通道」,都不适合扮演「资料中心」机房内的设备连接角色,因此需要一种具有前两者的优点,并可避开前两者缺点的连接介面才行,这即是InfiniBand,它在效能上有光纤的优点,在成本上有乙太的优点,既适合普及,也有理想的效能。


InfiniBand的另外一个特点是支援热插拔,可以在机房设备运作的情况下,进行InfiniBand线路的插接与拔除,而且可以在插拔动作中,设备也进行介面连通与移除的对应动作,这点与USB、1394相类似,相对的乙太网路、光纤通道并没有这样的设计,插拔光纤通道卡与乙太网路卡都要关机情况下进行,否则会发生不可预期的错误。


至于InfiniBand的传输速方面,由于InfiniBand采取双线差动式传输,两条线路传送一个「bit」,且单向传输,以及串列传输,这些特点都很类似现在的HyperTransport与3GIO,而InfiniBand目前的规格书中有1X、4X、12X三种传输模式,1X单一对线路可以传2.5Gbps,约相当于500MB/sec,4X可达200​​0MB/sec,12X更可达6000MB/sec。


InfiniBand适用的网路设备

除了伺服器与路由器、交换器会率先且迫切地需要InfiniBand外,其他如「伺服器负荷平衡器QoS」、「快取装置Cache」、「密码安全加速器SSL Accelerator」、「图形引擎Graphics Engine」、以及特殊用途的加速器等,未来也都有可能采用InfiniBand,以加速资料中心内各网路设备间的资料交换、传输。


所以未来InfiniBand将会统一资料中心内的后端网路,即是设备与设备间普遍用InfiniBand架构进行传输,并让丛集电脑间的资料传输,甚至可能会取代光纤通道等,不过资料中心的前端网路仍为是乙太网路,因为资料中心对外仍是透过网际网路提供给用户服务,所以乙太网路仍然是需要保留的。


InfiniBand发展进程推估

InfiniBand已于2000年10月发表v1.0的正式版,因此具体商业化的产品也开始可以推出,事实上Intel于2000年年底就已经有InfiniBand的样品出现,而2001年也开始有少量使用InfiniBand架构的伺服器、交换器、以及其他机房网路设备出现,


而目前2002年,预计InfiniBand的支援产品层面会再扩大,不再拘限于如伺服器、交换器等基本、迫切的需求,包括丛集网路、储存区域网路、网站用交换器等也都会相继支援,然后2003年、2004年预计会更普及,并普遍用于资料中心的机房内。


除了商业角度的进展推估外,国外知名的研究机构IDC也同样透露,IDC认为到了2004年支援InfiniBand的功能晶片,其市场规模将达420万颗以上,这在伺服器市场上已属多数,如此推估,到了2005年,就会有80%以上的伺服器会采用InfiniBand介面。


InfiniBand原希望彻底取代PCI的,不过PCI的慢速已经有PCI-X为其延伸,得到暂时的抒解,PCI-X也有后续的提升计画在,所以插卡方面的问题暂时解决。


至于晶片与晶片间的传输介面,PCI一样无法应付,但在HyperTransport出现后也得到了暂时解决的方案,而未来3GIO更会将两者统一,回复到所有沟通路径都是用同一种介面与插槽的方式,未来3GIO不仅可能成为晶片与晶片间的高速连通介面,也会是高速的插槽,甚至取代掉AGP等。


所以InfiniBand当初欲取代的地位已经有其他方案取代,所以InfiniBand改走机房内的设备专用连接作为其出路,希望能用其统一机房的后端网路连线,包括统一各自为政的丛集连接等,算是由以往的大众地位走入特殊的小众应用领域了。


最后是关于InfiniBand的主要支持成员如下所列:


《公式四》
《公式四》

结语

上述的数种新款高速介面,许多都是针对PCI传输逐渐不足而提出,相互间虽有部分设计重叠,但也仍有各自特点的需求性,未来何种规格介面可以胜出,仍有待技术成熟度、市场接受性等发展来决定。


相关文章
出囗管制风险下的石墨替代技术新视野
用Arduino 打造机器人:循迹、弹钢琴、下棋都行!
树莓派推出AI摄影机、新款显示器
智慧充电桩百花齐放
充电站布局多元商业模式
comments powered by Disqus
相关讨论
  相关新闻
» SiTime专为AI资料中心设计的时脉产生器 体积缩小效能提升10倍
» AMD蝉联高效能运算部署的最隹合作夥伴殊荣
» 意法半导体推出灵活同步整流控制器 提升矽基或氮化??功率转换器效能
» 笙泉与呈功合作推出FOC智慧型调机系统 实现节能减碳
» Nordic上市nRF Cloud设备管理服务 大幅扩展其云端服务


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK85GE8A3PUSTACUK9
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw