Linux内核Socket参数调优
可調(diào)優(yōu)的內(nèi)核變量存在兩種主要接口:sysctl命令和/proc文件系統(tǒng),proc中與進(jìn)程無關(guān)的所有信息都被移植到sysfs中。IPV4協(xié)議棧的sysctl參數(shù)主要是sysctl.net.core、sysctl.net.ipv4,對應(yīng)的/proc文件系統(tǒng)是/proc/sys/net/ipv4和/proc/sys/net/core。只有內(nèi)核在編譯時包含了特定的屬性,該參數(shù)才會出現(xiàn)在內(nèi)核中。
? ? 對于內(nèi)核參數(shù)應(yīng)該謹(jǐn)慎調(diào)節(jié),這些參數(shù)通常會影響到系統(tǒng)的整體性能。內(nèi)核在啟動時會根據(jù)系統(tǒng)的資源情況來初始化特定的變量,這種初始化的調(diào)節(jié)一般會滿足通常的性能需求。
? ? 應(yīng)用程序通過socket系統(tǒng)調(diào)用和遠(yuǎn)程主機(jī)進(jìn)行通訊,每一個socket都有一個讀寫緩沖區(qū)。讀緩沖區(qū)保存了遠(yuǎn)程主機(jī)發(fā)送過來的數(shù)據(jù),如果緩沖區(qū)已滿,則數(shù)據(jù)會被丟棄,寫緩沖期保存了要發(fā)送到遠(yuǎn)程主機(jī)的數(shù)據(jù),如果寫緩沖區(qū)已慢,則系統(tǒng)的應(yīng)用程序在寫入數(shù)據(jù)時會阻塞。可知,緩沖區(qū)是有大小的。
socket緩沖區(qū)默認(rèn)大小:
/proc/sys/net/core/rmem_default ? ? 對應(yīng)net.core.rmem_default
/proc/sys/net/core/wmem_default ? ? 對應(yīng)net.core.wmem_default
? ? 上面是各種類型socket的默認(rèn)讀寫緩沖區(qū)大小,然而對于特定類型的socket則可以設(shè)置獨立的值覆蓋默認(rèn)值大小。例如tcp類型的socket就可以用/proc/sys/net/ipv4/tcp_rmem和tcp_wmem來覆蓋。
socket緩沖區(qū)最大值:
/proc/sys/net/core/rmem_max ? ? ? ?對應(yīng)net.core.rmem_max
/proc/sys/net/core/wmem_max ? ? ? ?對應(yīng)net.core.wmem_max
/proc/sys/net/core/netdev_max_backlog ? ?對應(yīng) net.core.netdev_max_backlog
? ? 該參數(shù)定義了當(dāng)接口收到包的速率大于內(nèi)核處理包的速率時,設(shè)備的輸入隊列中的最大報文數(shù)。
/proc/sys/net/core/somaxconn ? ? ? ?對應(yīng) net.core.somaxconn
? ? 通過listen系統(tǒng)調(diào)用可以指定的最大accept隊列backlog,當(dāng)排隊的請求連接大于該值時,后續(xù)進(jìn)來的請求連接會被丟棄。
/proc/sys/net/core/optmem_max ? ? ? ? ?對應(yīng) net.core.optmem_max
? ? 每個socket的副緩沖區(qū)大小。
TCP/IPV4內(nèi)核參數(shù):
? ? 在創(chuàng)建socket的時候會指定socke協(xié)議和地址類型。TCP socket緩沖區(qū)大小是他自己控制而不是由core內(nèi)核緩沖區(qū)控制。
/proc/sys/net/ipv4/tcp_rmem ? ? 對應(yīng)net.ipv4.tcp_rmem
/proc/sys/net/ipv4/tcp_wmem ? ? 對應(yīng)net.ipv4.tcp_wmem
? ? 以上是TCP socket的讀寫緩沖區(qū)的設(shè)置,每一項里面都有三個值,第一個值是緩沖區(qū)最小值,中間值是緩沖區(qū)的默認(rèn)值,最后一個是緩沖區(qū)的最大值,雖然緩沖區(qū)的值不受core緩沖區(qū)的值的限制,但是緩沖區(qū)的最大值仍舊受限于core的最大值。
/proc/sys/net/ipv4/tcp_mem ?
? ? 該內(nèi)核參數(shù)也是包括三個值,用來定義內(nèi)存管理的范圍,第一個值的意思是當(dāng)page數(shù)低于該值時,TCP并不認(rèn)為他為內(nèi)存壓力,第二個值是進(jìn)入內(nèi)存的壓力區(qū)域時所達(dá)到的頁數(shù),第三個值是所有TCP sockets所允許使用的最大page數(shù),超過該值后,會丟棄后續(xù)報文。page是以頁面為單位的,為系統(tǒng)中socket全局分配的內(nèi)存容量。
socket的結(jié)構(gòu)如下圖:
/proc/sys/net/ipv4/tcp_window_scaling ? ? ?對應(yīng)net.ipv4.tcp_window_scaling
? ? 管理TCP的窗口縮放特性,因為在tcp頭部中聲明接收緩沖區(qū)的長度為26位,因此窗口不能大于64K,如果大于64K,就要打開窗口縮放。
/proc/sys/net/ipv4/tcp_sack ? ?對應(yīng)net.ipv4.tcp_sack
? ? 管理TCP的選擇性應(yīng)答,允許接收端向發(fā)送端傳遞關(guān)于字節(jié)流中丟失的序列號,減少了段丟失時需要重傳的段數(shù)目,當(dāng)段丟失頻繁時,sack是很有益的。
/proc/sys/net/ipv4/tcp_dsack ? 對應(yīng)net.ipv4.tcp_dsack
? ? 是對sack的改進(jìn),能夠檢測不必要的重傳。
/proc/sys/net/ipv4/tcp_fack ? ?對應(yīng)net.ipv4.tcp_fack
? ? 對sack協(xié)議加以完善,改進(jìn)tcp的擁塞控制機(jī)制。
TCP的連接管理:
/proc/sys/net/ipv4/tcp_max_syn_backlog ? ?對應(yīng)net.ipv4.tcp_max_syn_backlog
? ? 每一個連接請求(SYN報文)都需要排隊,直至本地服務(wù)器接收,該變量就是控制每個端口的 TCP SYN隊列長度的。如果連接請求多余該值,則請求會被丟棄。
/proc/sys/net/ipv4/tcp_syn_retries ? ?對應(yīng)net.ipv4.tcp_syn_retries
? ? 控制內(nèi)核向某個輸入的SYN/ACK段重新發(fā)送相應(yīng)的次數(shù),低值可以更好的檢測到遠(yuǎn)程主機(jī)的連接失敗。可以修改為3
/proc/sys/net/ipv4/tcp_retries1 ? ?對應(yīng)net.ipv4.tcp_retries1
? ? 該變量設(shè)置放棄回應(yīng)一個tcp連接請求前,需要進(jìn)行多少次重試。
/proc/sys/net/ipv4/tcp_retries2 ? ?對應(yīng)net.ipv4.tcp_retries2
? ? 控制內(nèi)核向已經(jīng)建立連接的遠(yuǎn)程主機(jī)重新發(fā)送數(shù)據(jù)的次數(shù),低值可以更早的檢測到與遠(yuǎn)程主機(jī)失效的連接,因此服務(wù)器可以更快的釋放該連接,可以修改為5
TCP連接的保持:
/proc/sys/net/ipv4/tcp_keepalive_time ? ? ? ?對應(yīng)net.ipv4.tcp_keepalive_time
? ? 如果在該參數(shù)指定的秒數(shù)內(nèi)連接始終處于空閑狀態(tài),則內(nèi)核向客戶端發(fā)起對該主機(jī)的探測
/proc/sys/net/ipv4/tcp_keepalive_intvl ? ?對應(yīng)net.ipv4.tcp_keepalive_intvl
? ? 該參數(shù)以秒為單位,規(guī)定內(nèi)核向遠(yuǎn)程主機(jī)發(fā)送探測指針的時間間隔
/proc/sys/net/ipv4/tcp_keepalive_probes ? 對應(yīng)net.ipv4.tcp_keepalive_probes
? ? 該參數(shù)規(guī)定內(nèi)核為了檢測遠(yuǎn)程主機(jī)的存活而發(fā)送的探測指針的數(shù)量,如果探測指針的數(shù)量已經(jīng)使用完畢仍舊沒有得到客戶端的響應(yīng),即斷定客戶端不可達(dá),關(guān)閉與該客戶端的連接,釋放相關(guān)資源。
/proc/sys/net/ipv4/ip_local_port_range ? 對應(yīng)net.ipv4.ip_local_port_range
? ? 規(guī)定了tcp/udp可用的本地端口的范圍。
TCP連接的回收:
/proc/sys/net/ipv4/tcp_max_tw_buckets ? ? 對應(yīng)net.ipv4.tcp_max_tw_buckets
? ?該參數(shù)設(shè)置系統(tǒng)的TIME_WAIT的數(shù)量,如果超過默認(rèn)值則會被立即清除。
/proc/sys/net/ipv4/tcp_tw_reuse ? ? ? ? ? 對應(yīng)net.ipv4.tcp_tw_reuse
? ?該參數(shù)設(shè)置TIME_WAIT重用,可以讓處于TIME_WAIT的連接用于新的tcp連接
/proc/sys/net/ipv4/tcp_tw_recycle ? ? ? ? 對應(yīng)net.ipv4.tcp_tw_recycle
? ?該參數(shù)設(shè)置tcp連接中TIME_WAIT的快速回收。
/proc/sys/net/ipv4/tcp_fin_timeout ? ? ? 對應(yīng)net.ipv4.tcp_fin_timeout
? ?設(shè)置TIME_WAIT2進(jìn)入CLOSED的等待時間。
/proc/sys/net/ipv4/route/max_size
? ?內(nèi)核所允許的最大路由數(shù)目。
/proc/sys/net/ipv4/ip_forward
? ?接口間轉(zhuǎn)發(fā)報文
/proc/sys/net/ipv4/ip_default_ttl
? ?報文可以經(jīng)過的最大跳數(shù)
虛擬內(nèi)存參數(shù):
/proc/sys/vm/
? ?在linux kernel 2.6.25之前通過ulimit -n(setrlimit(RLIMIT_NOFILE))設(shè)置每個進(jìn)程的最大打開文件句柄數(shù)不能超過NR_OPEN(1024*1024),也就是100多w(除非重新編譯內(nèi)核),而在25之后,內(nèi)核導(dǎo)出了一個sys接口可以修改這個最大值/proc/sys/fs/nr_open。shell里不能直接更改,是因為登錄的時候pam已經(jīng)從limits.conf中設(shè)置了上限,ulimit命令只能在低于上限的范圍內(nèi)發(fā)揮了。
Linux中查看socket狀態(tài):
cat /proc/net/sockstat #(這個是ipv4的)
sockets: used 137
TCP: inuse 49 orphan 0 tw 3272 alloc 52 mem 46
UDP: inuse 1 mem 0
RAW: inuse 0
FRAG: inuse 0 memory 0
說明:
sockets: used:已使用的所有協(xié)議套接字總量
TCP: inuse:正在使用(正在偵聽)的TCP套接字?jǐn)?shù)量。其值≤ netstat –lnt | grep ^tcp | wc –l
TCP: orphan:無主(不屬于任何進(jìn)程)的TCP連接數(shù)(無用、待銷毀的TCP socket數(shù))
TCP: tw:等待關(guān)閉的TCP連接數(shù)。其值等于netstat –ant | grep TIME_WAIT | wc –l
TCP:alloc(allocated):已分配(已建立、已申請到sk_buff)的TCP套接字?jǐn)?shù)量。其值等于netstat –ant | grep ^tcp | wc –l
TCP:mem:套接字緩沖區(qū)使用量(單位不詳。用scp實測,速度在4803.9kB/s時:其值=11,netstat –ant 中相應(yīng)的22端口的Recv-Q=0,Send-Q≈400)
UDP:inuse:正在使用的UDP套接字?jǐn)?shù)量
RAW:
FRAG:使用的IP段數(shù)量
轉(zhuǎn)自:http://blog.chinaunix.net/uid-9688646-id-4049599.html
轉(zhuǎn)載于:https://www.cnblogs.com/yorkyang/p/7689096.html
總結(jié)
以上是生活随笔為你收集整理的Linux内核Socket参数调优的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 光大银行篮球小黑卡怎么样?丰富权益让你心
- 下一篇: Linux学习之第二课时--linux命