重新启动系统中的network服务器,linux系统调优-Network
qperf測試帶寬
測試環境
192.168.1.11?? 服務器端??? serverpal.example.com
192.168.2.103? 客戶端?????? server103.example.com
1.服務器與客戶端安裝qperf
yum install qperf
2.服務器端運行
[root@serverpal ~]# qperf
3.客戶端運行
(1)[root@server103 Desktop]# qperf 192.168.1.11 conf
conf:
loc_node?? =? server103.example.com
loc_cpu??? =? 4 Cores: Intel Core i5-4590 @ 3.30GHz
loc_os???? =? Linux 2.6.32-431.el6.x86_64
loc_qperf? =? 0.4.9
rem_node?? =? serverpal.example.com
rem_cpu??? =? 8 Cores: Intel Xeon E3-1241 v3 @ 3.50GHz
rem_os???? =? Linux 2.6.32-431.el6.x86_64
rem_qperf? =? 0.4.9
可以查看到服務器與客戶端的基本信息
(2).查看 帶寬,延時
[root@server103 Desktop]# qperf 192.168.1.11 tcp_bw tcp_lat udp_bw udp_lat
tcp_bw:
bw? =? 11.6 MB/sec
tcp_lat:
latency? =? 236 us
udp_bw:
send_bw? =? 12.1 MB/sec
recv_bw? =??? 12 MB/sec
udp_lat:
latency? =? 211 us
(3)查看 服務器端處理不同包大小的具體信息
[root@server103 Desktop]# qperf -v -oo msg_size:1:8K:*2 192.168.1.11 tcp_bw tcp_lat udp_bw udp_lat
-oo 選項 msg_size:1:8K:*2 每秒發送包大小從1bytes遞增到8KB,每次發送包大小為前一次的二倍
tcp_bw:
bw????????????? =? 4.05 MB/sec
msg_rate??????? =? 4.05 M/sec
msg_size??????? =???? 1 bytes
send_cost?????? =?? 257 sec/GB
recv_cost?????? =?? 221 sec/GB
send_cpus_used? =?? 104 % cpus
recv_cpus_used? =? 89.5 % cpus
tcp_bw:
bw????????????? =??? 8 MB/sec
msg_rate??????? =??? 4 M/sec
msg_size??????? =??? 2 bytes
send_cost?????? =? 129 sec/GB
recv_cost?????? =? 118 sec/GB
send_cpus_used? =? 104 % cpus
recv_cpus_used? =?? 94 % cpus
.......
Bonding雙網卡綁定
BONDING_OPTS參數解釋
此參數用于指定網卡綁定時的屬性,以下是對常用參數進行的解釋:
miimon參數:指定網卡故障時的切換時間間隔以ms為單位。
primary參數:指定默認的主網卡設備。
mode參數:
0-輪詢模式,所綁定的網卡會針對訪問以輪詢算法進行平分。
1-高可用模式,運行時只使用一個網卡,其余網卡作為備份,在負載不超過單塊網卡帶寬或壓力時建議使用。
2-基于HASH算法的負載均衡模式,網卡的分流按照xmit_hash_policy的TCP協議層設置來進行HASH計算分流,使各種不同處理來源的訪問都盡量在同一個網卡上進行處理。
3-廣播模式,所有被綁定的網卡都將得到相同的數據,一般用于十分特殊的網絡需求,如需要對兩個互相沒有連接的交換機發送相同的數據。
4-802.3ab負載均衡模式,要求交換機也支持802.3ab模式,理論上服務器及交換機都支持此模式時,網卡帶寬最高可以翻倍(如從1Gbps翻到2Gbps)
5-適配器輸出負載均衡模式,輸出的數據會通過所有被綁定的網卡輸出,接收數據時則只選定其中一塊網卡。如果正在用于接收數據的網卡發生故障,則由其他網卡接管,要求所用的網卡及網卡驅動可通過ethtool命令得到speed信息。
6-適配器輸入/輸出負載均衡模式,在"模式5"的基礎上,在接收數據的同時實現負載均衡,除要求ethtool命令可得到speed信息外,還要求支持對網卡MAC地址的動態修改功能。
注意:
mode參數中的0、2、3、4模式要求交換機支持"ports group"功能并能進行相應的設置,例如在Cisco中要將所連接的端口設為"trunk group"。
選擇綁定模式的建議
如果系統流量不超過單個網卡的帶寬,請不要選擇使用mode 1之外的模式,因為負載均衡需要對流量進行計算,這對系統性能會有所損耗。
建議mode 5、mode 6只在交換機不支持"ports group"的情況下選用。
雙網卡冗余配置方法:
1.配置bond0網卡
vim ifcfg-bond0
DEVICE=bond0
ONBOOT=yes
BOOTPROTO=none
IPADDR=192.168.2.109
PREFIX=24
GATEWAY=192.168.2.1
DNS1=192.168.1.1
dns2=192.168.2.1
BONDING_OPTS="mode=1 miimon=50" 如果是mode0 則采用輪循的方式
2.配置eth0網卡
vim ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
MASTER="bond0"
SLAVE=yes
3.配置eth1網卡
vim ifcfg-eth1
DEVICE=eth1
ONBOOT=yes
BOOTPROTO=none
MASTER="bond0"
SLAVE=yes
4.重新啟動網卡
/etc/init.d/network restart
5.配置系統加載binding模塊:
vim /etc/modprobe.d/bonding.conf
alias bond0 bonding
6.監控設備bond0的狀況
watch cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth0
MII Status: up
MII Polling Interval (ms): 50
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 52:54:00:21:c0:09
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 52:54:00:14:10:10
Slave queue ID: 0
可以看到兩塊綁定的網卡,狀態顯示正常
7.ifdown eth0
down掉eth0網卡,再監控bond0,可以發現只剩下eth1網卡工作了
very 2.0s: cat /proc/net/bonding/bond0???????????????? Mon Jan 26 15:04:56 2015
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 50
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth1
MII Status: up
Speed: Unknown
Duplex: Unknown
Link Failure Count: 0
Permanent HW addr: 52:54:00:14:10:10
Slave queue ID: 0
總結
以上是生活随笔為你收集整理的重新启动系统中的network服务器,linux系统调优-Network的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: alexnet 论文翻译
- 下一篇: linux 其他常用命令