网络技术在HPC领域,InfiniBand与万兆以太网交换机技术要求谁更有前途

Infiniband在HPC领域获青睐_滚动新闻_科技时代_新浪网
不支持Flash
Infiniband在HPC领域获青睐
  根据近日发布的最新全世界最快的巨型计算机500强榜单显示,越来越多的用户现在正选择InfiniBand技术作为一个高带宽,低延迟的数据中心互连方案。
  在这个榜单上,InfiniBand是增长最快的技术,它在全世界最快的系统中占据了127个席位,而在去年11月只有78个,2006年6月调查的结果仅仅只有35个。
  InfiniBand技术所显示的攀升速度完全要归功于20-Gbit/s,在这一榜单上,有55个系统使用了这一技术,而去年同期这个数字还是可怜的零。而如今,象Mellanox 和Voltaire等公司都把20 Gbit/s InfiniBand技术视为一个理想的适合高需求带宽的多核心系统。
  尽管InifiniBand 技术势头强劲,但是在榜单上千兆位以太网仍然是应用最广泛的互连技术。美国部美国劳伦斯利物莫国家实验室(Lawrence Livermore National Laboratory ,LLNL) 里的(Department of Energy ,DOE)的IBM Blue Gene/L 系统再次拔得头筹。
  尽管榜单上有207个系统还在使用千兆位以太网技术,但与去年11月的211个及去年同期的256个系统相比,略有下降。
  阴冷的政府实验室与典型的象牙塔式的机构是这次500强榜单的主要特征,但是在过去的几个月里有明显的迹象表明,InfiniBand技术将会走出这个真空地带。
  分析机构IDC公司在上个月的报告中强调在能源及门持续增长的“类似于HPC”的应用推动了这个趋势的进一步发展。该家咨询机构预测,到2011年,InfiniBand交换机市场将从2006年的9490千万美元增长到6.12 亿美元。
  用户已经开始称赞低延迟的InfiniBand技术是存储网络的理想产品,它将打开主要的存储网格(storage grids)的大门,逐渐成为市场上的主流技术。
  目前,越来越多的厂商加入了这个行动,例如,Engenio 和 DataDirect Networks公司正在提供本地的InfiniBand存储系统,支持用户通过InfiniBand交换机直接连接,使用户不再需要FC- InfiniBand 的连接。
  本次的“500强”还显示出高性能计算发展迅速的特性。该榜单的性能要求是达到4.005 TFlop/s(每秒万亿)的计算速度,而六个月前它的计算速度还只是2.737 TFlop/s。该榜单体现了巨型计算持续增长的速度还表现在当前榜单上排名第500位的惠普(HP)Superdome-powered 系统,该系统部署在德国汽车制造商BMW公司,就在六个月前的上一个榜单上,它还排名在第216位。
【】【】【
【】【打印】【】
不支持Flash
ChinaByte的其他文章
不支持Flash
不支持FlashMellanox刘通:Infiniband走向企业市场
 作者: 李隽 编辑:
  【IT168 专稿】-21日,首届曙光超算技术大会(SSC 12,Sugon Supercomputing Conference 2012)在北京曙光公司总部盛大召开。本届大会面向广大从事与高性能计算应用、超级计算系统维护和应用相关的科研院所及高校老师、硕博研究生及相关企业工程师、从事高性能计算工作的技术人员,邀请重量级嘉宾,以及业界知名专家、以及Intel、Mellanox、Nvidia等知名厂商的技术专家等担任主讲教师,为与会学员奉献国内高性能计算培训的饕餮盛宴,帮助了解高性能领域的前沿技术,以及如何管理、使用、优化高性能集群。  大会采访现场,Mellanox公司全球市场开发技术总监刘通向IT168编辑介绍了Infiniband在高性能计算领域的独特优势,未来高性能计算领域网络发展的趋势与方向,以及Mellanox公司在企业级领域推广Infiniband网络标准的具体举措。▲Mellanox公司全球市场开发技术总监刘通  刘通介绍,Infiniband标准在建立之初就是为了实现以太网所不能实现的高性能网络传输,完全适用于高性能计算环境对网络传输的需求,因而发展快速,在今年六月份公布的Top 500排行榜单中,Infiniband首次超越以太网在世界五百强超算系统里占有率排名第一,份额远高于其他网络市场份额,在高性能计算领域占有绝对的统治地位。  刘通谈到,Infiniband不仅仅从底层协议上很好的满足了高性能计算的网络需求,同时还是一项标准化技术,拥有广泛的产业生态链的支持。此外,Mellanox公司正致力于在更为广阔的企业级市场推广Infiniband网络技术,并根据企业数据中心需求对Infiniband进行进一步的优化和完善。  例如,InfiniBand对虚拟化技术实现了良好的支持,可以将一块物理虚拟成多个物理子,且性能不受影响。据介绍,一块InfiniBand网卡可以虚拟出128个虚拟网络,性能远高于软件虚拟网卡,被很多数据中心使用,提供非常好的虚拟化支持。Mellanox还推出同时支持56GB Infiniband与40兆以太网的FDR网络产品,把InfiniBand的优秀技术移植到以太网上,给用户提供更丰富的选择。  完整访谈记录如下:  <:请您介绍一下Infiniband在HPC领域应用现状与前景?  刘通:Infiniband从2003年开始在超算领域被使用,十年中我们的步伐非常快,在今年六月份,Infiniband在世界五百强超算系统里占有率排名第一,远高于其他网络市场份额,并首次超越了以太网。  通常大家认为排名TOP 500的系统都是从事高性能计算的,事实并非如此,500强排名中有很多系统用来做网络2.0公司、做企业数据中心,并不是真正的高性能计算系统,这些系统往往会应用以太网,如果把所有系统重新刷新,只考虑高性能计算系统入围,Infiniband将占有绝对优势。  <:以太网发展历史非常长,其间干掉了无数网络标准,InfiniBand在高性能计算领域超越以太网的原因在哪里?  刘通:以太网发展了多年,在数据中心领域逐渐取代其他网络取得了领导地位,但是企业网络不同于高性能计算,这个领域特点鲜明:高性能计算是要实现最高性能、最高效率的系统,什么样的网络能够实现这样的数据传输,应用就会最广泛。与此同时,实现这种高性能的网络需要是符合行业标准的,缺乏业界广大生态链的支持,这种技术即使很优秀,也不会存在很久。  InfiniBand是一项众多厂商联合发起的标准技术,由多家研发厂商共同定义,最早定义InfiniBand的目的就是为了实现以太网所不能实现的对高速网络的需求,需要另外一套高效率的网络,由此诞生了InfiniBand,InfiniBand迅速在高性能网络里找到存在的市场,因为它的确效率最高。  随着技术不断发展,InfiniBand将不断在高性能计算领域得到应用,甚至使用概率会高于以太网,因为以太网本身协议对高性能计算并不是最优化的,针对方向不一样,侧重于管理性、功能性,并没有在性能上有很好表现。所以以太网会不断发展,但是很难直接影响高性能计算里的高速网络,InfiniBand会保持独立发展的态势,相对以太网,在我们能够预计的未来,InfiniBand仍然是能够在高性能计算领域保持领先的领导网络标准。  <:您谈到在可预见的时间段内以太网不会对InfiniBand造成威胁,但是我们也看到,以太网生态圈确实非常庞大,网络速度成倍速发展,同时出现一些更加优化的以太网标准,例如DCB,您会如何看待未来以太网在高性能计算的发展前景?  刘通:以太网的发展优势的确存在,但是依然要回归主题。以太网技术不断发展,以前是千兆、现在万兆逐步流行,又出现了四万兆,速度在不断提升,但是在研究网络的时候,我们关注的不仅仅是带宽性能,尤其对于高性能计算领域,带宽起到的作用低于其他技术指标,而这些指标通常是以太网以前没有关注的。  以太网带宽不断增长是有其应用特性需求的。我们平时使用网络,需要带宽越宽越好,有非常明确的需求。但是高性能计算除了需要高带宽,还需要传输消息快、低延迟,通过以太网传输协议是无法实现的,以太网协议架构有多层,涉及到很多负荷,完成一个传输时间非常长,不能满足高性能计算需求。  刚刚我们仅仅谈到端到端延迟的区别,还有其他方面的区别,例如消息传输率,在高性能计算领域我们需要网卡每秒发出几千万个包,才能满足几千万、上亿的高消息进程,以太网不需要非常密集的通讯方式,但是对带宽有需求,所以需求的出发点不一样,双方依然会保持各自不同的发展方向,InfiniBand会延续高性能计算领域发展方向。  <:我们这里看到一个比较有意思的事情,Mellanox公司在去年推出了56GB同时支持InfiniBand和4万兆以太网的FDR网络产品,从您的角度如何解释这款新产品的定位?  刘通:这个问题问得非常好。我们的答案非常简单,我们认为InfiniBand会保持领先地位,但是是在高性能计算领域,作为一个高速发展的公司,我们不仅仅只专于高性能计算一个领域,我们需要把高速网络拓宽到更广阔的领域,涉及到数据中心、网络2.0、金融公司等领域,他们会坚持使用传统的以太网传输协议,因为系统管理员对以太网非常熟悉,不敢承担更换技术的风险。  以太网有非常大的市场和生态链,我们需要增长公司的发展业绩,需要在不同的产品线和市场上拓宽。为什么我们敢于做以太网?因为Mellanox以技术起家,对高速网络有自己独特的优势,我们把InfiniBand一些优秀的东西移植到以太网上,推出了40GB以太网产品。我们做到了其他厂家性能上做不到的产品,我们的、软件都与其他厂家不同。  :Mellanox传统在高性能计算领域占有优势,但是今天Mellanox的市场领域远远不局限于此?  刘通:我们向多个方向延伸,完全受到市场驱动力驱使。我们从市场反馈得知,用户有需要把高速网络应用到其他行业,我们首先关注数据中心、金融公司和网络2.0公司,他们需要使用更高速的网络,会尝试接触我们公司,因为Mellanox是做高速网络最知名的公司,但是他们仍然希望使用传统的传输协议,这激发了我们做整合网络的想法。  而且我们的以太网产品不仅仅推出独立的以太网和InfiniBand网络产品,我们把两种网络做到一款硬件上。首先我们有技术实力,第二,InfiniBand虽然还没有被很多企业用户接受,但是它没有任何障碍被用户接受,即使在企业数据中心,InfiniBand也是非常高效的网络,用户现在需要时间来接受。  用户现在能够接受以太网并不代表以后不能接受InfiniBand,我们想把两种网络整合在一起,把选择权交给用户,用户可以选择用高速以太网,随着InfiniBand技术推广进一步深入,用户开始意识到InfiniBand完全可以用在企业应用中,就可以通过一个命令把网络转化为InfiniBand。我们用一种硬件传输两种网络,提供选择网络的最大灵活度,很多企业用户用InfiniBand搭建中心,带来的性价比、效率远高于以太网,我们给用户做了两手准备,买一款产品就可以使用两种网络。  <:InfiniBand在企业市场有非常广阔的发展前景,今天企业数据中心中一个明显的趋势是虚拟化,针对虚拟化应用,InfiniBand目前做了哪些工作?  刘通:谈到InfiniBand在企业应用领域的应用,我们不能规避这些问题。企业更需要功能齐全、稳定性高、易于管理、功耗低、性价比高的产品,所考虑的因素不完全同于超算领域。面对企业领域我们做了很多InfiniBand延伸工作,InfiniBand本身具备很多企业需要的优秀特性,只不过我们没有把它进一步宣传到企业领域里。  提到现在企业数据中心的虚拟化趋势,实际上的出现,意味着需要更好的管理平台管理智能网络,同时需要网络非常好的支持虚拟化。InfiniBand虚拟化支持非常好,我们InfiniBand网卡可以虚拟出128个虚拟网络,而且是基于物理性能、性能非常高的虚拟机。我们可以把物理网卡虚拟成物理子网卡的形式,效率非常高,性能远高于软件虚拟。我们基于硬件基础上实现的虚拟网卡,现在被很多数据中心在使用,是非常好的对虚拟化的支持。  虚拟化支持方面我们不是闭门造车,我们与很多虚拟化领导厂商展开合作。除了VMware,我们与微软也展开合作,在最新发布的Windows Server 2012中就内置了支持虚拟化的服务,可以做到全套高性能网络管理,我们还和开源的云管理平台KVM等等合作开发,实现最完美、最全面、最高性能的网络虚拟化提供云计算平台。  <:英特尔花费了1.2亿美元收购了QLogic公司的InfiniBand业务,您认为这个举动对Mellanox会带来哪些影响?  刘通:英特尔的收购行为对我们来说利好大于利弊,我们很高兴看到有公司一起来辉煌InfiniBand技术,将这项技术未来的发展路线进一步延伸下去。我们很高兴看到英特尔的收购InfiniBand业务和我们一起开发这部分市场。说明英特尔非常看好InfiniBand技术,而且看好的不仅仅是高性能计算领域,而是看好所有对网络需求高的领域。  谈到Mellanox会不会有危机感,我们很坦然面对这个问题。Mellanox专注于开发高速应用网络,提供最高效率、最好的网络。Mellanox可以做到性能最高、效率最高,和工业界、产业合作紧密,我们相信会继续引领InfiniBand未来的发展方向。现在根据Mellanox产品发展路线我们已经推出56GB/秒的产品,处于领先地位,又持续推出了100GB/秒的产品。同时我们还推出了多种延伸产品,包括软件产品。InfiniBand市场非常宽广,绝对不局限于现在看到的应用市场,还可以应用到其他更广阔领域,就算更多家企业加入InfiniBand,我们未必分享同一个小的蛋糕,实际上的情况是蛋糕更多,每家厂商的占有市场份额都在急剧成长,更有利与这项技术不断拓宽和发展。  <:Mellanox比较注重产业链发展,Mellanox在和合作伙伴合作中有哪些具体支持和优化工作?  刘通:因为要做好高性能计算,使我们真正融入高性能计算产业链,必须紧密和他人合作,尤其高性能计算领域对技术挑战性非常高。我们积极和产业领导者们一起合作,在Mellanox成立、来到中国之初,就与曙光合作了曙光4000A、5000A到星云,研发定制网卡、。  除了OEM合作,我们也和下游厂商紧密融合,让网络和加速器更加直接的进行通讯,我们和Nvidia GPU有技术合作研发,使GPU和网卡直接实现通讯,以前GPU需要先和做交互操作再和网卡交互操作,现在可以直接和网卡交互操作,体现了互动研发的好处。  除了针对GPU,Mellanox还和软件厂商、软件开发人员、国家实验室都有非常紧密的合作,包括和中科院、国外的国家实验室合作做一些项目,软件开发上把硬件优势特性介绍给开发人员,然后让软件开发人员做一些程序开发,充分发挥硬件的优秀性能。合作才能真正使这个领域的技术互相借鉴,我们不能独立开发自己的产品。这是未来发展趋势,共同开发是必须做的。  <:您对曙光超算技术大会SSC12有何期待?  刘通:首先非常感谢曙光邀请我参加首届曙光超算技术大会SSC12。这次超算技术大会上我们看到超过一百多用户积极来参加大会,真正实现了一呼百应的效果。这是一种非常有效的技术交流形式,我们需要把各种各业专家集合在一起做实际意义上的探讨。我认为曙光技术交流大会特点鲜明,除了把一些厂商的尖端技术做较高层次的介绍,还有几天非常详细的技术培训,会给大家带来一个直接、具体的技术接触,对所有参会人员都非常有意义。  参会人员不仅能够听到一些非常高层次、前瞻性发展趋势,也了解了实际操作应该怎么做,具体技术上注意什么,这是一般大会上不太重视的内容,需要我们继续坚持。曙光做主导召开技术大会的实际意义非常大,不同于学术会议,我们更加注重于实践、实际应用、软件开发等等,对产业发展是有实际意义的。我认为这个会非常重要,对国内的高性能计算产业发展,和应用程序的应用、推广、人才培训都有实际意义。我也希望这个活动能够在以后每一年继续办下去,办得越来越大、内容越来越丰富。  <:谢谢各位网友,本次访谈结束。
IT168企业级比特客户端
您的位置:
详解大数据
详解大数据
详解大数据
详解大数据
Mellanox:让InfiniBand渐行渐远
Mellanox hpc infiniband
  10月26日至29日,一年一度的全国( China 2011)在山东济南召开,大会最大亮点之一,中国新的超级计算机Top100榜单发布,天河一号、、曙光星云等超级计算机成为关注焦点,而作为超算“幕后英雄”的Mellanox,这家以技术见长的公司在本届大会上照例风格低调,Mellanox高级技术总监Gilad Shainer先生在演讲中并没有过多的讨论新的Top100中有多数系统采用了Mellanox的infiniband互连技术,在他看来,infiniband在超级计算机中的广泛应用是“顺理成章”。
  Infiniband在HPC领域渐行渐远
  超级计算机是一个庞大的系统,正因如此,超算系统的建设并非是简单的硬件堆砌,除了CPU、等核心部件,网络互联技术也是决定超算计算能力和的重要部分。而Mellanox正是一家于主要为及高性能计算提供端到端连接解决的厂商,自1999年成立以来,这家以色列公司一直专注于Infiniband和以太网互联产品的研发工作,如今全球已经有800多名员工,业务从HPC扩展到了、金融和等领域,在网络互连领域已经举足轻重,在本次发布的中国Top100榜单中,位于前十的系统,有半数采用了Mellanox的Infiniband产品,如天河一号、曙光星云等。
  谈到infiniband在高性能计算中的地位,以及Mellanox近几年的快速发展,Gilad Shainer先生在采访中展现出强烈的自信,Gilad先生认为,高性能计算发展到今天,超级计算机需要处理的任务越来越大,这对传输介质提出了很高的要求;从操作管理角度来看,硬件与维护的费用比例达到了1:8;再从功耗的角度看,硬件与冷却的费用比例也有2:1,有超过一半的CPU在空闲处于无应用负载的状态;换句话说,网络通讯最容易成为HPC的瓶颈。
Mellanox高级技术总监Gilad Shainer先生
  而Mellanox所做的,就是帮助HPC打破这种瓶颈,做到更快速、更低延迟的互连:“Mellanox能够提供端到端的完整互连解决方案,提供最高的互连带宽、最低的延迟、最高的传输率和最低的CPU使用率,帮助客户的HPC解决I/O瓶颈问题”,谈到Mellanox产品和方案的优势,Gilad先生这样说。虽然超级计算机的网络互连技术并不单一,比如Top500中还有不少系统采用了以太网或者Cray的互连技术,但正是这些独特的优势让infiniband在超算中大行其道,据统计,全球Top500榜单中,有41.2%的系统采用了infiniband互连技术。
InfiniBand技术在Top500超算中应用广泛
  支持PCI-E 3.0的Infiniband和40G以太网
  除了在超算榜单中的高占有率,Gilad先生的自信更多的来源于Mellanox不断创新的产品和解决方案。今年,Mellanox家族又有新的成员面世――支持下一代PCI-E 3.0的FDR 56Gb/s Infiniband和40Gb以太网产品。据Gilad先生介绍,56Gb/s FDR是当前最高带宽、最低延迟的infiniband产品,它具有完整的I/O架构――包括适配器、、电缆和软件;能够实现12GB/s的网络带宽是QDR的两倍;延迟只有0.7us,只有QDR的一半;具有最快的网络连接速度和最低的CPU开销。另外,40Gb以太网产品同样具备完整的I/O架构,包括适配器、交换机、电缆和软件,能够实现完全的40Gb/s的-吞吐量,包括无阻塞以太网,。更重要的是,支持PCI-E 3.0的产品已经问世,可以让用户跳过第二代直接选择第三代产品。
支持PCI-E 3.0的Infiniband和40G以太网
  Mellanox的互连新产品如今在全球已经有了多个成功案例,据Gilad先生介绍,具有648个节点的美国普渡大学超级计算机采用了Mellanox PCI-E 3.0 FDR Infiniband适配器、交换接和电缆,这是全球首个PCI-E 3.0 FDR的。欧洲正在建造的最快超级计算机,计算峰值达到3Petaflops,也是采用了Mellanox的FDR infiniband交换机、软件和电缆;美国德克萨斯高级计算中心计划在2013年部署的、计算峰值高达15Pflops的超级计算机“Stampede”也是采用了Mellanox的FDR Infiniband端到端解决方案。
  Mellanox的硬件是为了解决HPC中的网络瓶颈,但如今瓶颈不仅出现在硬件,已经转移到了网络通讯函数中。对此,Mellanox也有了相应的解决方案。“Mellanox方案如今采用了共同设计的架构,在设计阶段开始就由硬件和软件设计师共同工作,以获得最大的性能提升。比如Mellanox和进行共同设计,在系统中将Infiniband的RDAM技术融入到”,Gilad先生介绍说,Mellanox会直接提供这种软硬一体的“共同设计”解决方案,或者联合软件厂商进行合作。据介绍,Mellanox和劳伦斯实验室的“共同设计”,让网络性能提升了700%。
  从HPC延伸到新兴行业
  联合软硬件厂商,推出“共同设计”的解决方案,让Mellanox业务更加广泛,已经不再局限于HPC业务。如今Mellanox解决方案已经涵盖数据库、金融服务、Web2.0、等新兴业务。Gilad先生介绍说,这些新业务能够和Mellanox解决相契合,比如金融服务中的股票买卖需要高速交易,要求业务系统具有低延迟;在线售票公司等Web 2.0应用需要加速实时应用;云计算中心往往需要部署大量计算节点,需要高速的互连;这些应用对网络互连的特点,让Mellanox解决方案有了广泛的应用空间。
[ 责任编辑:张桂林 ]
去年,手机江湖里的竞争格局还是…
甲骨文的云战略已经完成第一阶段…
软件信息化周刊
比特软件信息化周刊提供以数据库、操作系统和管理软件为重点的全面软件信息化产业热点、应用方案推荐、实用技巧分享等。以最新的软件资讯,最新的软件技巧,最新的软件与服务业内动态来为IT用户找到软捷径。
商务办公周刊
比特商务周刊是一个及行业资讯、深度分析、企业导购等为一体的综合性周刊。其中,与中国计量科学研究院合力打造的比特实验室可以为商业用户提供最权威的采购指南。是企业用户不可缺少的智选周刊!
比特网络周刊向企业网管员以及网络技术和产品使用者提供关于网络产业动态、技术热点、组网、建网、网络管理、网络运维等最新技术和实用技巧,帮助网管答疑解惑,成为网管好帮手。
服务器周刊
比特服务器周刊作为比特网的重点频道之一,主要关注x86服务器,RISC架构服务器以及高性能计算机行业的产品及发展动态。通过最独到的编辑观点和业界动态分析,让您第一时间了解服务器行业的趋势。
比特存储周刊长期以来,为读者提供企业存储领域高质量的原创内容,及时、全面的资讯、技术、方案以及案例文章,力求成为业界领先的存储媒体。比特存储周刊始终致力于用户的企业信息化建设、存储业务、数据保护与容灾构建以及数据管理部署等方面服务。
比特安全周刊通过专业的信息安全内容建设,为企业级用户打造最具商业价值的信息沟通平台,并为安全厂商提供多层面、多维度的媒体宣传手段。与其他同类网站信息安全内容相比,比特安全周刊运作模式更加独立,对信息安全界的动态新闻更新更快。
新闻中心热点推荐
新闻中心以独特视角精选一周内最具影响力的行业重大事件或圈内精彩故事,为企业级用户打造重点突出,可读性强,商业价值高的信息共享平台;同时为互联网、IT业界及通信厂商提供一条精准快捷,渗透力强,覆盖面广的媒体传播途径。
云计算周刊
比特云计算周刊关注云计算产业热点技术应用与趋势发展,全方位报道云计算领域最新动态。为用户与企业架设起沟通交流平台。包括IaaS、PaaS、SaaS各种不同的服务类型以及相关的安全与管理内容介绍。
CIO俱乐部周刊
比特CIO俱乐部周刊以大量高端CIO沙龙或专题研讨会以及对明星CIO的深入采访为依托,汇聚中国500强CIO的集体智慧。旨为中国杰出的CIO提供一个良好的互融互通 、促进交流的平台,并持续提供丰富的资讯和服务,探讨信息化建设,推动中国信息化发展引领CIO未来职业发展。
IT专家新闻邮件长期以来,以定向、分众、整合的商业模式,为企业IT专业人士以及IT系统采购决策者提供高质量的原创内容,包括IT新闻、评论、专家答疑、技巧和白皮书。此外,IT专家网还为读者提供包括咨询、社区、论坛、线下会议、读者沙龙等多种服务。
X周刊是一份IT人的技术娱乐周刊,给用户实时传递I最新T资讯、IT段子、技术技巧、畅销书籍,同时用户还能参与我们推荐的互动游戏,给广大的IT技术人士忙碌工作之余带来轻松休闲一刻。
微信扫一扫
关注Chinabyte和“infiniband”相关的论文
infiniband
云桥数据库一体机,具有超强的处理性能、无限的线性扩展能力、高IOPS和高可用性等特点。首先简要介绍云桥数据库一体机的软硬件平台的体系结构,然后通过案例详细阐述了产品的性能,为运营商建设业务系统的数据处理架构提供了另一种思路。
基于模型的分析技术在系统研究和设计中发挥着重要作用,它具有简单灵活、可扩展性强、高效等优点,其中随机Petri网在性能评价方面得到了广泛的应用.使用随机Petri网为高性能计算机的作业调度系统进行抽象和建模,并将其与InfiniBand网络互连结构相结合来整体分析用户作业的延迟等性能指标.实验表明,该方法是可行的,且具有相对较高的精度.
为了研究网络架构和通讯协议对大数据处理与应用系统效率的影响,在介绍与分析不同网络架构和通讯协议的基础上,使用以太网和Infiniband网络连接,安装TCP/IP,IPoIB和RDMA协议,构建了Hadoop,Tachyon和Spark原型系统,使用通用测试工具和例程等进行了测试.测试结果表明相比使用TCP/IP,使用IPoIB能提高Hadoop的I/O性能4.6-5.6倍,减少Tachyon数据处理的时间开销达2%-27%,减少了Spark 90%-95%的时间开销,同时Spark性能提高了46倍.此外使用RDMA相比IPoIB减少了3%-15%的系统开销.最终分析得出,高速网络架构和高效通讯协议能有效提高大数据处理系统的I/O性能、处理效率和适应能力.
针对大规模数据中心网络中如何有效监控网络异常事件、发现网络性能瓶颈和潜在故障点等问题,在深入分析InfiniBand(IB)网络的特性,引入了特征选取策略和增量学习策略的基础上,提出了一种面向大规模IB网络增量学习的故障诊断方法IL_Bayes,该方法以贝叶斯分类方法为基础,加入增量学习机制,能够有效提高故障分类精度。在天河2真实的网络环境下,对算法的诊断精度和误诊率进行了验证,结果表明IL_Bayes算法具有较高的故障分类精度和较低的误诊率。
All_to_All操作是一种重要的集合操作.目前的商用Infiniband网络中没有有效的拥塞控制机制.通过实验研究了2种典型的All_to_All算法在Infiniband网络中的性能,发现这些算法在传输大于32KB的大消息时会在网络中产生严重的拥塞,从而导致网络带宽利用率仅有30%~70%.尝试通过将大消息拆分成小消息、调度小消息的发送来减少网络拥塞.在任意2对进程间都建立可靠的连接,为每个连接都维护一个正在处理的发送请求计数器.当该计数器超过某个阈值后,认为这2个进程间的通信链路上发生了拥塞,此时停止向该连接的发送队列投递新的发送请求,以避免拥塞扩散到整个网络.实验结果表明该优化算法可以改善网络的拥塞程度;相比现有算法带宽利用率可以提高10%以上,最多可以提高20%.
泰克公司日前宣布,推出BSA286CL BERTScope误码率测试仪。BSA286CL提供低固有抖动和精确损伤,可用于测试广泛的100G通信标准,包括OIF-CEI、CAUI和InfiniBand。BSA286CL是业内首款完全满足这些精确损伤和误差分析要求的误码率测试仪,同时具有BERTScope的易用性。
为了使InfiniBand(简称IB)网络和万兆以太网这两种高速互连网络相互融合,实现它们之间的数据通信,本文对10GE-InfiniBand网关进行了研究设计,采用Ethernet-over-InfiniBand(Eo IB)协议并结合管道网关的设计思想,将万兆以太网的数据帧封装成IB数据报文以达到在IB网络中传输以太网数据帧的目的,实现两种网络之间的无缝融合。
针对目前以太网存储系统存在性能低和可扩展性差的问题,提出一种支持多协议的网络存储系统。从网络存储系统整体性能角度论证该系统硬件设计原则,给出多协议存储系统软件架构并进行性能测试。结果表明:该系统支持以太网、光纤和ib_srp网络存储协议,LIO模式性能要优于SCST模式,是多协议网络存储系统的首选。
传统机械磁盘组成的FC-SAN存储在高并发、高吞吐量、大数据量系统中面临巨大挑战,利用flash闪存高性能特性,搭建基于SRP协议的、infiniband高速网络互连的开放式存储系统,在电信IT数据库系统中实践使用,可以实现存储横向扩展、数据冗余保护、链路可靠特性,提升数据库性能。
BSA286CL提供低固有抖动和精确损伤,可用于测试广泛的100G通信标准,包括OIF-CEI、CAUI和InfiniBand。l00G硅特征验证工程师在测试0IF-CEI-28GVSR系统时,要求误码率测试仪提供精确的损伤来验证接收机的抖动容限能力。BSA286CL拥有全新设计的抖动损伤功能。
金月芽期刊网 2017

我要回帖

更多关于 万兆以太网交换机 的文章

 

随机推荐