多h3c链路聚合配置图传是什么意思?

拒绝访问 |
| 百度云加速
请打开cookies.
此网站 () 的管理员禁止了您的访问。原因是您的访问包含了非浏览器特征(389b5de731d843cb-ua98).
重新安装浏览器,或使用别的浏览器直播领域--4G多链路聚合图传
直播领域--关于无线网络聚合图传(一篇小文供大家批评)无线网络聚合图传分强网聚合和弱网聚合,弱网和强网并无一个准确的定义,按照实操经验,一般会把“在不强调高分辨率的情况下,即使单网络也可以实现较为稳定的直播的网络”定义为强网,但这也是各开发团队的经验判断,并无实际的标准意义。这里有两个假设,一是网络自身的抖动幅度较小,二是流控也做的比较到位,即网络自身不存在较大抖动,也没有因为流控失衡导致网络拥塞。当然,从现实情况来看,这两个条件都满足的环境较少。究竟采取哪种方案,开发者需要根据甲方要求的使用环境来确定,强网聚合得到的是上行的增加和较低的时延,缺点是挑网络环境;弱网聚合得到的上行带宽,同时对网络环境较为宽容,缺点是时延大。如果强调直播连线,则建议选择时延较小的强网聚合方案,若进行不确定场景的视频回传,则建议选择弱网聚合方案。    链路聚合并不一定就比单链路要好,关键是看聚合的机制,若聚合机制存在瑕疵,聚合效果未必就比不聚合的方式好,毕竟多链路的聚合传送比单链路的传送多了很多的控制步骤,一个健壮的聚合方案需要有良好的链路的检测机制,也就是说如何能够迅速的检测到链路的变化状态并第一时间做出反应,在实操中也可以通过一个简单的实验来验证,比如在设备正常运行过程中,突然断掉任意一个链路来模拟最苛刻的链路变化情况,此时若能够不丢包,则基本可以判断有较好的应对机制,这里面不但检测了应对链路极端变化的应对能力,也检测了前向纠错的能力,开发者可以通过这样一个简单粗暴的方法来验证所开发模型的容错能力。   前向纠错比例并不是越多越好,网络越差就配置更多的冗余包是一个重大误区,因为当网络较差时,配置更多的冗余包只能让网络变得更拥塞,适合的冗余包配比才是正确的方式,怎样的比例最适合考验开发者的实操经验和链路检测能力。    另外需要说明的是,主备制方案并不建议用于网络聚合,其最大的问题在于即使是各个链路的网络都不错,但是总有一个传送绝大部分的数据,其他的各个链路只作为一个补充(比如发送冗余包、视频包等等)甚至几乎不发数据,但这种做法显然对各个链路都较差或者抖动都很大的情况考虑不多,而实际中多数的工况种各个链路都在抖动或都不是很强的情况居于多数。以下为青岛乾元通系列产品1.易代星--多链路聚合传输硬件(代星DS4/代星DS8)2.畅播套装“ALL LIVE"--多链路聚合、多采集方式、全平台直播便携硬件3.畅播单机--多链路聚合全平台便携式手机直播硬件4.易播工作站--硬压硬推流便携式直播平台本文为作者分享,影视工业网鼓励从业者分享原创内容,影视工业网不会对原创文章作任何编辑!如作者有特别标注,请按作者说明转载,如无说明,则转载此文章须经得作者同意,并请附上出处(影视工业网)及本页链接。原文链接 /stream/90870/
扫一扫,快速分享到微信
你需要登录才可以回帖
作者:个人VIP会员
作者的其它文章
扫一扫,即可添加影视工业网为微信好友.
还可添加微信账号:Ilove107cine QQ号
加我们为微信好友
今日热销产品
【京公网安备16号】查看: 1011|回复: 2
链路聚合在AE联机渲染上的优势
在线时间 小时
本帖最后由 dyl1993 于
18:51 编辑
做过AE多机器联机渲染的朋友都知道,输出图片序列要存放在同一个磁盘映射中。这时候性能瓶颈就不在工作站上了,瓶颈在网络上。NVME版M.2固态往往读写性能都超过1GB/s,局域网千兆网络的标准真的够吗?有人会说可以用万兆,但是万兆网卡及交换机的成本过高。在这个时候,介绍一种简单,而不需要很高成本的方法,提高网络吞吐——链路聚合。
链路聚合有如下优点:
1、增加网络带宽
链路聚合可以将多个链路组合成为一个逻辑链路,组合后的链路带宽是每个独立链路的带宽总和。
2、提高网络连接的可靠性
链路聚合中的多个链路互为备份,当有一条链路断开,流量会自动在剩下链路间重新分配。
像华硕的Z9PA主板提供了双Intel板载网卡,这就不需要另外购买独立网卡了。如果你的主板是华擎Z97极限6或是华硕X79杜蕾斯,虽然表面上是双网口,但有一个是Realtek网口,非Intel网口。我买的是Intel E1G42ET双口千兆卡,价格比较合适,比它便宜的有上代Intel EXPI9402PT,比它贵的有较新的Intel i350T2。可能有朋友会吐槽Z9PA,确实它的板载双网口,82574L是伪千兆。
图为Intel E1G42ET,芯片是82576,支持虚拟化等高级应用。
.jpg (31.65 KB, 下载次数: 1)
09:21 上传
.jpg (33.54 KB, 下载次数: 0)
09:21 上传
2、网管交换机
链路聚合属于二层协议,这些聚合配置在交换机上完成,要求交换机支持聚合。
图为DELL PowerConnect 2816交换机,这款交换机的工厂配置为非受管交换机,但是只需按动一个按钮即可轻松地将其重新配置成web管理型交换机。
_600.jpg (13.82 KB, 下载次数: 0)
09:22 上传
3、NAS存储
只要是个双网口的NAS都支持聚合,所以购买时注意双网口就OK了。
图为群晖DS416
43121.jpg (73.91 KB, 下载次数: 0)
09:23 上传
提供了两个千兆网络接口并支持链路聚合实现带宽翻倍。4盘位便于扩容,同时10-32W功耗低、既保证了数据安全,又省电。
完成链路聚合,交换机首先要配置。
DELL PowerConnect 2816配置 略
2、NAS存储
控制面板——网络——网络界面——新增——创建Bond——Link Aggregation 种类——静态聚合
无论是板载Intel网卡,还是独立Intel网卡,配置方式都是相同的。
首先安装完整的Intel网卡驱动,聚合功能在驱动中提供。
在设备管理器里面可以看到两个网卡,对应两个网口。
.jpg (26 KB, 下载次数: 1)
09:28 上传
对其中任意一个网卡右键属性
.jpg (25.9 KB, 下载次数: 0)
09:28 上传
在分组选项卡
.jpg (31.17 KB, 下载次数: 1)
09:29 上传
新建一个组,选择要聚合的网卡
.jpg (27.17 KB, 下载次数: 1)
09:29 上传
.jpg (36.24 KB, 下载次数: 0)
09:30 上传
这里选择静态聚合
.jpg (34.8 KB, 下载次数: 0)
09:31 上传
最后确认。操作完后,在虚拟网口里设置IPv4,保证交换机、NAS、PC在局域网相同号段。DELL PowrConnect 2816默认是198.168.2.X号段。
在线时间 小时
1. 聚合无法在点对点连接上实现带宽翻倍,所以不管是AE从NAS上读,还是AE/AME往NAS上写,都仍然只能使用一条物理链路。它最有效的工作场景是,分别从2个NAS上读取素材,或者在渲染时同时写往2个NAS,才可体现聚合优势。
2. PowerConnect 2816无法支持LACP,而Synology的DSM只能支持LACP聚合。QNAP的产品是可以支持手动LAG以及其他聚合方式的。
在线时间 小时
1. 聚合无法在点对点连接上实现带宽翻倍,所以不管是AE从NAS上读,还是AE/AME往NAS上写,都仍然只能使用一 ...
谢谢二楼及时纠正,已经改正啦!是静态聚合的实验模式:
这张图是我做想要做链路聚合,但是在链路聚合实验中,出现了点儿小小小的问题,介于篇幅太长,所以单独把问题抛出来;
(在这里我们不讨论关于生成树的问题,因为默认为我都掌握)
第一步:我们先进行链路聚合:
在我们进行链路聚合前、先用PC1pingPC3。看下报文传播的路径好了;
当我们进行一个简单的抓包之后,就会发现数据报传输的链路;从LSW1-&LSW2-&LSW3,但是在没有进行链路聚合之前,我们发现:这三条路,会根据生成树协议选择没有阻塞的端口发出,至于什么生成树就不过多解释;
不过我发现一个比较有意思的事情:
在我没有对LSW1做任何手脚的时候:
它的stp是这样的;
1、当我选择把LSW1的e0/0/5端口shutdown,(这个端口是转发数据的端口),数据只会经过很短暂时间的超时:然后马上恢复正常;
(估计1秒都要不到)
这个时候的LSW1已经没有eth0/0/5,而是马上(重点是马上!)根端口变成了eth0/0/6;
2、然后我再次把刚刚shutdown的链路(LSW2的e0/0/2端口)恢复正常后*(undo shutdown),他居然不转发报文了!有点高冷;
3、然后我马上,速度很快很快很快的查看了下stp brief(生成树协议情况),发现eth0/0/5马上出现了。然后又再次变成了根端口,没有毛病啊,依旧处于转发状态啊;但是报文就是一直超时啊。就是ping不通啊;作者表示很尴尬;
4、到现在,都过了3,4分钟了。Pc1还是超时状态;我想了想,貌似也超过stp定时器的delay时间了啊。所以也不应该是生成树重新计算时候导致的链路阻塞;不过就在我准备放弃的时候,尼玛啊,它又通了。打我脸啊、(但是讲真,这个时间真的太久了。)
5、基于我本人无聊的原则,我还是要搞清楚为什么!
和前面的做法一模一样,先shutdown交换机LSW1转发数据的端口,这时候报文没有在E5上跑。而是在新晋根端口E6上面跑;
我们可以发现,我们shutdown端口E5之后,报文在E6上跑的很欢!
在这个时候,我再次把e0/0/5打开(undo shutdown)
我们发现,这时候这俩个都动了!都没有任何的数据包从这里转发;这个时候发送的全都是stp的配置信息;但是对于生成树协议来说,没有任何问题;然而他就是不转发;
于是我们抓包:交换机和主机之间的链路:
有从pc1发到pc3的ping请求的报文;但是没有任何应答;
所以,我还是没有发现那里有问题:先把问题丢在这,我很难过!
为什么当链路关闭后在重启需要这么久的时间才能进行转发,但是查看stp状态明明都是转发状态&
不过我发现,只要重启下pc1的ping,就又能ping通;
所以我还不知道是什么原因,
如果有大神发现了问题所在,求大神不吝赐教;
& & & & & & & & & & & & by tea
阅读(...) 评论()

我要回帖

更多关于 华为链路聚合配置 的文章

 

随机推荐