多平台统一管理软件接口,如何实现多平台统一管理软件接口
557
2022-10-24
linux下网卡bonding配置
一、bonding技术
bonding(绑定)是一种linux系统下的网卡绑定技术,可以把服务器上n个物理网卡在系统内部抽象(绑定)成一个逻辑上的网卡,能够提升网络吞吐量、实现网络冗余、负载等功能,有很多优势。bonding技术是linux系统内核层面实现的,它是一个内核模块(驱动)。使用它需要系统有这个模块, 我们可以modinfo命令查看下这个模块的信息, 一般来说都支持.# modinfo bondingbonding的七种工作模式: bonding技术提供了七种工作模式,在使用的时候需要指定一种,每种有各自的优缺点.balance-rr (mode=0) 两块网卡都工作,但是与网卡相连的交换机端口必须做特殊配置(这两个端口应该采取聚合方式),因为做bonding的这两块网卡是使用同一个MAC地址.active-backup (mode=1) 表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。 miimon是用来进行链路监测的。比如:miimon=80,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路。mode=2 表示 XOR policy 为平衡策略。此模式提供负载平衡和容错能力 mode=3 表示 broadcast 为广播策略。此模式提供了容错能力 mode=4 表示 IEEE 802.3ad Dynamic link aggregation 为 IEEE 802.3ad 为 动态链接聚合。该策略可以通过 xmit_hash_policy 选项从缺省的 XOR 策略改变到其他策略。 mode=5 表示 Adaptive transmit load balancing 为适配器传输负载均衡。该 模式的必要条件:ethtool 支持获取每个 slave 的速率 balance-alb (mode=6) 有高可用 ( 容错 )和负载均衡的功能,不需要交换机配置 (流量分发到每个接口不是特别均衡),做bonding的这两块网卡是使用不同的MAC地址二、Centos7配置bonding
systemctl stop NetworkManager.service # 停止NetworkManager服务 systemctl disable NetworkManager.service # 禁止开机启动NetworkManager服务
ps: 一定要关闭,不关会对做bonding有干扰2、加载bonding模块modprobe --first-time bonding没有提示说明加载成功, 如果出现modprobe: ERROR: could not insert 'bonding': Module already in kernel说明你已经加载了这个模块, 就不用管了你也可以使用lsmod | grep bonding查看模块是否被加载
lsmod | grep bonding bonding 136705 0
3、创建基于bond0接口的配置文件vim /etc/sysconfig/network-scripts/ifcfg-bond0修改成如下,根据你的情况:
DEVICE=bond0 TYPE=Bond IPADDR=172.16.10.183 NETMASK=255.255.255.0 GATEWAY=172.16.10.1 DNS1=114.114.114.114 USERCTL=no BOOTPROTO=none ONBOOT=yes BONDING_MASTER=yes BONDING_OPTS="mode=6 miimon=100"
上面的BONDING_OPTS="mode=6 miimon=100" 表示这里配置的工作模式是mode6(adaptive load balancing), miimon表示监视网络链接的频度 (毫秒), 我们设置的是100毫秒, 根据你的需求也可以指定mode成其它的负载模式。4、修改em1接口的配置文件vim /etc/sysconfig/network-scripts/ifcfg-em1修改成如下:
DEVICE=em1 USERCTL=no ONBOOT=yes MASTER=bond0 # 需要和上面的ifcfg-bond0配置文件中的DEVICE的值对应 SLAVE=yes BOOTPROTO=none
5、修改em2接口的配置文件vim /etc/sysconfig/network-scripts/ifcfg-em2修改成如下:
DEVICE=em2 USERCTL=no ONBOOT=yes MASTER=bond0 # 需要和上的ifcfg-bond0配置文件中的DEVICE的值对应 SLAVE=yes BOOTPROTO=none
6、测试重启网络服务systemctl restart network.service
# cat /proc/net/bonding/bond0 Bonding Mode: adaptive load balancing // 绑定模式: 当前是ald模式(mode 6), 也就是高可用和负载均衡模式 Primary Slave: None Currently Active Slave: em1 MII Status: up // 接口状态: up(MII是Media Independent Interface简称, 接口的意思) MII Polling Interval (ms): 100 // 接口轮询的时间隔(这里是100ms) Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: em1 // 备接口: em0 MII Status: up // 接口状态: up(MII是Media Independent Interface简称, 接口的意思) Speed: 1000 Mbps // 端口的速率是1000 Mpbs Duplex: full // 全双工 Link Failure Count: 0 // 链接失败次数: 0 Permanent HW addr: 84:2b:2b:6a:76:d4 // 永久的MAC地址 Slave queue ID: 0 Slave Interface: em1 // 备接口: em1 MII Status: up // 接口状态: up(MII是Media Independent Interface简称, 接口的意思) Speed: 1000 Mbps Duplex: full // 全双工 Link Failure Count: 0 // 链接失败次数: 0 Permanent HW addr: 84:2b:2b:6a:76:d5 // 永久的MAC地址 Slave queue ID: 0
三、Centos6配置bonding
Centos6配置bonding和上面的Cetons7做bonding基本一样,只是配置有些不同. 系统: Centos6网卡: em1、em2bond0:172.16.10.183负载模式: mode1(adaptive load balancing) # 这里的负载模式为1,也就是主备模式.1、关闭和停止NetworkManager服务
service NetworkManager stop chkconfig NetworkManager off
ps: 如果有装的话关闭它,如果报错说明没有装这个,那就不用管2、加载bonding模块modprobe --first-time bonding3、创建基于bond0接口的配置文件vim /etc/sysconfig/network-scripts/ifcfg-bond0修改如下 (根据你的需要):
DEVICE=bond0 TYPE=Bond BOOTPROTO=none ONBOOT=yes IPADDR=172.16.10.183 NETMASK=255.255.255.0 GATEWAY=172.16.10.1 DNS1=114.114.114.114 USERCTL=no BONDING_OPTS="mode=6 miimon=100"
4、加载bond0接口到内核vi /etc/modprobe.d/bonding.conf修改成如下:alias bond0 bonding5、编辑em1、em2的接口文件vim /etc/sysconfig/network-scripts/ifcfg-em1修改成如下:
DEVICE=em1 MASTER=bond0 SLAVE=yes USERCTL=no ONBOOT=yes BOOTPROTO=none
vim /etc/sysconfig/network-scripts/ifcfg-em2修改成如下:
DEVICE=em2 MASTER=bond0 SLAVE=yes USERCTL=no ONBOOT=yes BOOTPROTO=none
6、加载模块、重启网络与测试modprobe bondingservice network restart7、查看bondo接口的状态cat /proc/net/bonding/bond0
Bonding Mode: fault-tolerance (active-backup) # bond0接口当前的负载模式是主备模式 Primary Slave: None Currently Active Slave: em2 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: em1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 2 Permanent HW addr: 84:2b:2b:6a:76:d4 Slave queue ID: 0 Slave Interface: em2 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: 84:2b:2b:6a:76:d5 Slave queue ID: 0
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~