不知道你說的是什麼層面的
網路負載在運營商網路裡面,簡單說指的就是網路中繼承載的流量以及網路設備承載的用戶量
測試和計算用人工只能估算,比如一台設備,已知接入用戶30戶,戶均流量2M/s,中繼的流量大約就是60M/s。主要的計算是靠設備埠計算,每秒經過的流量。還有運營商內部龐大的計算平台統計等方式。
網路負載這個詞更多用於比如「網路負載均衡」,意思是一台設備有兩條上聯中繼共同分攤上聯流量以實現負載均衡,或者兩台設備同時承載相同用戶以實現負載均衡等等。
❷ 怎樣查看cisco 3845MB網路負載
show process cpu 查看cpu佔用率;show process mem查看內存利用率;show interface 查看各介面的總流量以及各介面5分鍾內上行和下載的流量
❸ windows server 2012怎麼配置網路負載均衡
配置方法如下:1,給2台WEB伺服器裝置NLB,以後在其間恣意一台上來新建群集,然後將別的一台加入到這個群會集即可,並保證這2台伺服器都是運用的靜態IP。
2,在web-01(192.168.1.130)上從管理工具中翻開 網路負載均衡器,右擊「網路負載平衡群集」,挑選「新建群集」
3,在「新群集:銜接」窗口中將 192.168.1.130增加為主機,點擊下一步進入 「新群集:主機參數」,下一步,進入 「新群集:群集IP地址」,增加窗口中的「增加」 將192.168.1.254 增加到窗口中然後下一步;
4,進入 「新群集:群集參數」,挑選「多播」然後下一步;進入 「新群集:埠規則」,選中悉數,然後修改;將埠范圍改成 80~80,協議選 「TCP」,相關性選「無」點擊斷定回到主窗口,然後點擊完結。
5,經過上面的過程,現已建立了一個群集,並且將web-01加入到了群會集,還需要手動將web-02也加入到群會集。在群集(192.168.1.254)上右鍵點擊「增加主機到群集」。銜接」窗口中的 主機中輸入192.168.1.131即可。
❺ 有什麼東西可以顯示電腦CPU的負載
任務管理器里就有啊,在任務欄右鍵點擊有個任務管理器,活頁夾里有性能,選中了就能看到CPU和內存,網路活頁夾里有網路負載,進程里有每個進程佔用的情況。
❻ 什麼叫網路負載
700多K只是你網路能夠承受的極限,而不是路由器能夠承受的極限。對於11M路由來講,實際傳輸速度在2M-3M,700多K,更是小意思了。
如果你用路由器做一做網路GHOST恢復,你就明白什麼叫真正的網路負載了。低檔的路由器基本都不堪重負。
當你用到電驢或者BT的時候,瞬間會有成百上千的IP對你進行訪問,交換數據,那時候再看你的路由器的承受能力:)
❼ 雙網卡伺服器的網路負載平衡如何設置
雙網卡負載均衡伺服器
前言:市面上現在天生支持綁定功能的網卡不多,而且多是出身名門的高檔伺服器網卡,身價不菲,設置過程也比較專業,使用和維護都不簡便。難道我等平頭百姓,攥著幾十元的廉價8139的兄弟們就無緣領略雙網卡綁定的快感了嗎?非也,今天我就教大家一招,只需一款小小的軟體,就可以用普通的8139之類的網卡體驗一把雙網卡綁定的愉悅,這個軟體就叫做「NICExpress」,可能行家們已經捂著嘴樂了,呵呵,筆者的出發點是給菜鳥兄弟們排難解惑,窮辦法自娛自樂,說得過火的地方,大家不要見笑,DIY的樂趣就在於此啊。
朋友或許會問了,為什麼要用雙網卡呢?用雙網卡有什麼好處?所謂雙網卡,就是通過軟體將雙網卡綁定為一個IP地址,這個技術對於許多朋友來說並不陌生,許多高檔伺服器網卡(例如intel8255x系列、3COM伺服器網卡等)都具有多網卡綁定功能,可以通過軟硬體設置將兩塊或者多塊網卡綁定在同一個IP地址上,使用起來就好象在使用一塊網卡。
多網卡綁定的優點不少,首先,可以增大帶寬,假如一個網卡的帶寬是100M,理論上兩塊網卡就是200M,三塊就是300M,當然實際上的效果是不會是這樣簡單的增加的,不過經實際測試使用多個網卡對於增加帶寬,保持帶寬的穩定性肯定是有裨益的,如果交換機等相關條件不錯的話,這個效果還是很能令人滿意;其次,可以形成網卡冗餘陣列、分擔負載,雙網卡被綁定成「一塊網卡」之後,同步一起工作,對伺服器的訪問流量被均衡分擔到兩塊網卡上,這樣每塊網卡的負載壓力就小多了,抗並發訪問的能力提高,保證了伺服器訪問的穩定和暢快,當其中一塊發生故障的時候,另一塊立刻接管全部負載,過程是無縫的,服務不會中斷,直到維修人員到來。
OK,現在就手把手的教大家如何用50元來打造出雙網卡的效果!
先下載軟體(點擊這里下載),這是最新版本4.0,只有2.15M,軟體的兼容性已經做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市場上常見的各種網卡,百兆和千兆網卡都可以用來綁定,但是千萬注意,最好用於綁定的網卡是完全相同的,至少也是基於同一晶元的,這樣多塊網卡才能合作得比較好。切記不要把10M網卡和100M網卡綁定在一起,那樣根本起不到提升作用。
下載完軟體,先不忙安裝,咱們還是先准備好硬體。
第一部分:硬體安裝
雖然,理論上講綁定越多網卡在一起,最終效果提升就越明顯,但是考慮到復雜程度,這里就以綁定雙網卡為例進行說明,如果讀者覺得好玩,興致很高的話,按照下面方法願意綁定多少就綁定多少個網卡,其實一般同一台伺服器,綁定2-3塊網卡也就夠了,太多了,據說因為鏈路聚合的先天缺點,會過多佔用伺服器資源,反過來會影響伺服器速度(關於這個我沒實驗,不過我覺得凡事都離不開物極必反的道理,適度最好)。
然後,抱出筆者的一台私有伺服器,呵呵,雖然破舊一點,不過可是立功不小啊,上面現在運行著FTP、MAIL等服務,幾百個朋友的EMAIL都是通過它來傳遞的啊。配置情況為intel810主板(集成顯卡)+256MSD內存+10GIDE硬碟(系統盤)+120GIDE硬碟(存放互聯網垃圾)。系統軟體是windows2000高級伺服器版。
廢話少說,開干,打開伺服器機箱,把兩塊網卡擰在主板PCI插槽上,擰好了,看看還不錯
拿出珍藏的10M-8口集線器,哈哈,別笑話,我手頭只有這個,能說清楚方法就可以了,如果是讀者自己DIY,請務必選一台好的交換機,至少要10/100M自適應的,這是網路通暢的關鍵,別象我把100M網卡連在10M集線器上,那速度怎麼也好不了啊。做幾條網線,把集線器、網卡連接起來,集線器連入上級交換機,因為是在家裡實驗,所以,我就把集線器的Uplink口連入家用路由器的任意一個網口裡,路由器則連入我家ADSL「大貓」。
第二部分:設置調試
下面要進行設置及調試了,也就是要將這兩塊8139D廉價網卡,如同高檔伺服器網卡那樣綁定在一起,使用同一個IP地址,同時同步工作。其過程並不復雜,估計20分鍾足夠了。
將剛剛下載的NIC Express軟體的安裝包NIC4.rar解壓縮得到安裝文件「NICExpressW2KEE.exe」,雙擊它啟動安裝程序,一路NEXT,軟體提示輸入unlock key(注冊碼),如果沒有注冊碼,就只好點擊Demo,選擇試用,這樣可以獲得30天的免費試用期,在這30天里如果覺得不錯,你可以想辦法去弄一個注冊碼(怎麼弄?找小編問,他可能有,哈哈)。
到下圖所示界面,軟體提示選擇是否開啟LOAD Balancing 功能?什麼是LOAD Balancing 功能呢?LOAD Balancing的中文意思可以翻譯為負載均衡,在這里就是網路負載均衡。也就是當多塊網卡被綁定合一之後,當數據流量很大的時候,軟體會自動調整,將數據流量負載均衡地分配到各個網卡上,以減輕單塊網卡的壓力,達到暢快的訪問效果。我們綁定雙網卡,其中目的之一就是為了實現負載均衡,我們自然要開啟這個功能,所以,在這里一定要選擇「Enabled」。當然,如果你在這里選擇錯了也沒關系,今後也可以通過NIC Express軟體管理界面開啟。
繼續一路NEXT,在Windows XP里安裝時如果遇到提示「NIC Express Virtual Miniport」沒有通過Windows測試,無法驗證它同Windows XP的相容性,不要理會,選擇「仍然繼續」就行了。
到了下圖所示界面,就到了真正綁定網卡的時候了:
大家看到這個界面一共分為上、中、下,三個窗口,上面的是空白,中間的寫著8139-2,這個8139-2是我自己起的綁定之後的網卡組的名稱,原來這里默認寫的是New array,也可以不修改,你也可以根據自己喜好,寫成別的名字。在最下面的窗口裡列出了目前伺服器上安裝的兩塊網卡的名字。我們下一步就是要用滑鼠選中下面的兩塊網卡名字,然後點擊界面中間的Add鍵,把兩塊網卡加入上面的窗口裡,這樣兩塊網卡就這樣被加入了網卡組里,初步綁定成一塊「網卡」了,今後可以使用同一個IP地址了。
點擊OK繼續,NIC Express出現一個配置界面,選項很多,但是不必太操心,因為這些配置都不必修改,使用默認值就可以了,直接點擊OK、點擊Finish完成安裝進程。至此軟體安裝基本結束,剩下就需要對軟體和網卡進行一些必要的設置工作。
點擊桌面「開始」菜單,選擇執行菜單里的「NIC Express Enterprise Edition」選項,這是NIC Express軟體自帶的一個監控程序,首先點擊「setting」選項,在這里可以設置網卡流量計量單位,可以按照Packets/Sec、Mbits/Sec、Kbits/Sec三種單位來計算,一般都是使用默認的Mbits/Sec來計算,也就是兆/每秒,其實在這里只需要修改一下「Graph Detail(圖形顯示)」即可,將默認的「By Protocol」改成「By Incoming/Outgoing」,別的不需要改。
如果你想分別觀察綁定組中每塊網卡的流量或者整個組的流量,只需在「Select Device」選項中選擇一下設備即可。最後點擊「Advanced」選項,設定網卡綁定的工作模式,在這里也可以點擊「Load Balancing Disable」來關閉網卡負載均衡功能。使用NIC Express綁定的雙網卡組默認工作於「NIC Express ELB」模式下,這是NIC Express所特有的一種工作模式,實際效果很好。我們都知道利用昂貴的Intel PROSET綁定的Intel 8255x的組合是運行在「802.3ad」工作模式下的,這一模式在NIC Express中也可以選擇,但是多數使用者在實際使用後都認為「NIC Express ELB」模式的效果優於「802.3ad」模式,大家今後可以自己實踐測試比較一下。如果你也使用默認的「NIC Express ELB」模式,那麼「Advanced」選項里也就不用改什麼,一切默認即可。至此NIC Express的設置結束。
第三部分:「虛擬網卡」設定
最後還要看看網卡的設置,用滑鼠在桌面「網上鄰居」上點擊右鍵彈出「網路和撥號連接」窗口,可以看到原來的兩個網卡連接圖標已經變成了三個,多出來的一個圖標就是「NIC Express Virtual Adapter」,這個就是綁定後的網卡組,這個網卡組的使用和使用單一網卡完全一樣,相當於一個單一的「虛擬網卡」。
用滑鼠在這個圖標上點擊右鍵選擇屬性,可以為這個「虛擬網卡」設定IP地址、子網掩碼、網關等等,其實在安裝「NIC Express」過程中,如果伺服器原來的單一網卡已經設置了這些,那麼「虛擬網卡」就會自動設定和原來的網卡一樣。在這里選擇「NIC Express Transport for Ethernet」還可以自由對網卡綁定組進行調整,例如,減少或者加入一塊網卡,這個較之Intel PROSET要方便許多,Intel PROSET在增加或者減少綁定組里的網卡之前必須刪除原來的綁定組然後重新創建。
好了,好了,至此一切都已經做好,我們的伺服器已經成為一台地地道道的「雙網卡冗餘伺服器」了,我們來運行一下,看看錶現。
第四部分:測試雙網卡綁定後的效果
檢查一下線路,前面說過兩塊網卡已經用網線連入10M集線器(這就相當於機房機櫃里的百兆交換機),集線器的Uplink口連入了家用路由器的任意一個網口,路由器通過ADSL大貓接入互聯網(北京512K包月ADSL),這樣伺服器就已經和互聯網連通了,按下Power鍵啟動伺服器,由於伺服器裡面已經安裝了動態域名軟體,伺服器啟動之後,很快與國際域名www.usacase.com連接到一起(具體過程請看不久前發表在太平洋網站的《絕對瘋狂!1G容量的郵件伺服器自己打造》),這時只要訪問www.usacase.com域名,即可從世界各地訪問到我的伺服器了,我讓上海的一個朋友用FTP軟體登陸這台「雙網卡冗餘伺服器」,下載一個50M的壓縮文件包。嚯,只見伺服器上的兩塊8139D網卡的指示燈同時閃爍起來,閃爍的頻率完全同步,煞是好看!
再看那台古董級10M集線器,兩個接上網卡的介面指示燈也是飛快同步閃爍,說明兩塊網卡在同步工作,同時分擔訪問的流量。上海的朋友說感覺速度不錯,畢竟只是512K的ADSL,也僅能看看網卡同步閃爍的美麗效果了。
然後,我又在區域網里進行了傳輸實驗,因為有那個10M集線器的瓶頸,所以效果不是很好,但是也能看出一些明顯改善。從區域網另一台使用單個雜牌10M8029網卡的電腦上通過網上鄰居訪問已經用NIC Express綁定了雙8139D網卡的伺服器,傳輸200M文件,通過「NIC Express Enterprise Edition」中的曲線監控圖觀察到,雙網卡綁定組的傳輸速率從8M/s起步,最高達到8.2M/s,兩機之間平均傳輸速率比較穩定,偶爾有大幅度的波動,是軟體正在調整兩塊網卡的負載均衡,只有零點幾秒就恢復正常,基本穩定在7.5-8M/s左右,已經接近那個10M集線器的最大傳輸極限。之後,從伺服器上刪除一塊網卡,再進行兩機傳輸實驗,發現傳輸最高速率已經驟然減少到5M/s,而且傳輸過程中速率上下波動很大,平均傳輸速率也就3M/s左右,可見前後差異還是很明顯的。
❽ 如何配置Windows的網路負載平衡
眾所周知,windows server 2012是支持虛擬系統的。那麼具體怎麼對伺服器設置網路負載均衡,一起來看看。 1、給2台WEB伺服器裝置NLB,以後在其間恣意一台上來新建群集,然後將別的一台加入到這個群會集即可,並保證這2台伺服器都是運用的靜態IP。 2、在web-01(192.168.1.130)上從管理工具中翻開 網路負載均衡器,右擊「網路負載平衡群集」,挑選「新建群集」 3、在「新群集:銜接」窗口中將 192.168.1.130增加為主機,點擊下一步進入 「新群集:主機參數」,下一步,進入 「新群集:群集IP地址」,增加窗口中的「增加」 將192.168.1.254 增加到窗口中然後下一步; 4、進入 「新群集:群集參數」,挑選「多播」然後下一步;進入 「新群集:埠規則」,選中悉數,然後修改;將埠范圍改成 80~80,協議選 「TCP」,相關性選「無」點擊斷定回到主窗口,然後點擊完結。 5、經過上面的過程,咱們現已建立了一個群集,並且將web-01加入到了群會集,咱們還需要手動將web-02也加入到群會集。在群集(192.168.1.254)上右鍵點擊「增加主機到群集」。銜接」窗口中的 主機中輸入192.168.1.131即可。
❾ 如何查看linux伺服器負載
查看伺服器負載有多種命令,w、vmstat或者uptime都可以直接展示負載。
[hs@master opt]$ uptime
11:00:06 up 106 days, 19:36, 3 users, load average: 0.00, 0.03, 0.05
信息顯示依次為:現在時間、系統已經運行了多長時間、目前有多少登陸用戶、系統在過去的1分鍾、5分鍾和15分鍾內的平均負載。
1可以被認為是最優的負載值。負載是會隨著系統不同改變得。單CPU系統1-3和SMP系統6-10都是可能接受的。
[hs@master opt]$ w
11:00:38 up 106 days, 19:37, 3 users, load average: 0.00, 0.03, 0.05
USER TTY LOGIN@ IDLE JCPU PCPU WHAT
spark59 pts/0 09:47 14:46 1:08 0.01s sshd: spark59 [priv]
spark59 pts/1 09:47 11:10 55.77s 0.00s sshd: spark59 [priv]
spark59 pts/2 09:58 6.00s 0.11s 0.00s sshd: spark59 [priv]
load average分別對應於過去1分鍾,5分鍾,15分鍾的負載平均值。
[hs@master opt]$ vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 2276632 132056 1544508 0 0 20 75 1 0 2 0 97 0 0
procs
r 列表示運行和等待cpu時間片的進程數,如果長期大於1,說明cpu不足,需要增加cpu。
b 列表示在等待資源的進程數,比如正在等待I/O、或者內存交換等。
cpu表示cpu的使用狀態
us 列顯示了用戶方式下所花費 CPU 時間的百分比。us的值比較高時,說明用戶進程消耗的cpu時間多,但是如果長期大於50%,需要考慮優化用戶的程序。
sy 列顯示了內核進程所花費的cpu時間的百分比。這里us + sy的參考值為80%,如果us+sy 大於 80%說明可能存在CPU不足。
wa 列顯示了IO等待所佔用的CPU時間的百分比。這里wa的參考值為30%,如果wa超過30%,說明IO等待嚴重,這可能是磁碟大量隨機訪問造成的,也可能磁碟或者磁碟訪問控制器的帶寬瓶頸造成的(主要是塊操作)。
id 列顯示了cpu處在空閑狀態的時間百分比
system 顯示採集間隔內發生的中斷數
in 列表示在某一時間間隔中觀測到的每秒設備中斷數。
cs列表示每秒產生的上下文切換次數,如當 cs 比磁碟 I/O 和網路信息包速率高得多,都應進行進一步調查。
memory
swpd 切換到內存交換區的內存數量(k表示)。如果swpd的值不為0,或者比較大,比如超過了100m,只要si、so的值長期為0,系統性能還是正常
free 當前的空閑頁面列表中內存數量(k表示)
buff 作為buffer cache的內存數量,一般對塊設備的讀寫才需要緩沖。
cache: 作為page cache的內存數量,一般作為文件系統的cache,如果cache較大,說明用到cache的文件較多,如果此時IO中bi比較小,說明文件系統效率比較好。
swap
si 由內存進入內存交換區數量。
so由內存交換區進入內存數量。
IO
bi 從塊設備讀入數據的總量(讀磁碟)(每秒kb)。
bo 塊設備寫入數據的總量(寫磁碟)(每秒kb)
這里我們設置的bi+bo參考值為1000,如果超過1000,而且wa值較大應該考慮均衡磁碟負載,可以結合iostat輸出來分析。
以上三個個命令只是單純的反映出負載,linux提供了更為強大,也更為實用的top命令來查看伺服器負載。
top命令能夠清晰的展現出系統的狀態,而且它是實時的監控,按q退出。
[hs@master opt]$ top
top - 11:01:13 up 106 days, 19:37, 3 users, load average: 0.05, 0.04, 0.05
Tasks: 131 total, 1 running, 130 sleeping, 0 stopped, 0 zombie
%Cpu(s): 1.1 us, 0.3 sy, 0.0 ni, 98.7 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem: 8011936 total, 5733520 used, 2278416 free, 131392 buffers
KiB Swap: 0 total, 0 used, 0 free. 1543588 cached Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
32001 hs 20 0 1265020 256252 38172 S 2.3 3.2 0:56.77 java
2696 hs 20 0 3726664 447420 60 S 0.7 5.6 819:57.88 java
29566 root 20 0 64780 4668 2628 S 0.7 0.1 43:18.42 AliYunDun
1624 hs 20 0 1789456 292492 4928 S 0.3 3.7 298:23.89 java
2008 hs 20 0 1996320 438004 4604 S 0.3 5.5 849:44.95 java
2465 hs 20 0 1258944 170752 264 S 0.3 2.1 89:18.25 java
3284 hs 20 0 2867828 210788 3756 S 0.3 2.6 259:29.98 java
29580 root 20 0 836552 6320 2584 S 0.3 0.1 13:10.27 AliHids
1 root 20 0 63648 25184 1424 S 0.0 0.3 4:44.45 systemd
2 root 20 0 0 0 0 S 0.0 0.0 0:01.49 kthreadd
3 root 20 0 0 0 0 S 0.0 0.0 8:01.90 ksoftirqd/0
5 root 0 -20 0 0 0 S 0.0 0.0 0:00.00 kworker/0:0H
7 root rt 0 0 0 0 S 0.0 0.0 0:30.46 migration/0
Tasks行展示了目前的進程總數及所處狀態,要注意zombie,表示僵屍進程,不為0則表示有進程出現問題。
Cpu(s)行展示了當前CPU的狀態,us表示用戶進程佔用CPU比例,sy表示內核進程佔用CPU比例,id表示空閑CPU百分比,wa表示IO等待所佔用的CPU時間的百分比。wa佔用超過30%則表示IO壓力很大。
Mem行展示了當前內存的狀態,total是總的內存大小,userd是已使用的,free是剩餘的,buffers是目錄緩存。
Swap行同Mem行,cached表示緩存,用戶已打開的文件。如果Swap的used很高,則表示系統內存不足。
在top命令下,按1,則可以展示出伺服器有多少CPU,及每個CPU的使用情況
一般而言,伺服器的合理負載是CPU核數*2。也就是說對於8核的CPU,負載在16以內表明機器運行很穩定流暢。如果負載超過16了,就說明伺服器的運行有一定的壓力了。
在top命令下,按shift + "c",則將進程按照CPU使用率從大到小排序,按shift+"p",則將進程按照內存使用率從大到小排序,很容易能夠定位出哪些服務佔用了較高的CPU和內存。
僅僅有top命令是不夠的,因為它僅能展示CPU和內存的使用情況,對於負載升高的另一重要原因——IO沒有清晰明確的展示。linux提供了iostat命令,可以了解io的開銷。
輸入iostat -x 1 10命令,表示開始監控輸入輸出狀態,-x表示顯示所有參數信息,1表示每隔1秒監控一次,10表示共監控10次。
其中rsec/s表示讀入,wsec/s表示每秒寫入,這兩個參數某一個特別高的時候就表示磁碟IO有很大壓力,util表示IO使用率,如果接近100%,說明IO滿負荷運轉。
[hs@master opt]$ iostat -x 1 10
Linux 3.10.0-123.9.3.el7.x86_64 (master) 07/29/2016 _x86_64_(4 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
2.47 0.00 0.38 0.20 0.00 96.95
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
vda 0.00 0.86 0.77 1.45 50.88 139.71 172.11 0.18 81.22 3.87 122.28 1.52 0.34
vdb 0.00 37.36 0.37 3.16 28.06 159.69 106.50 0.02 4.69 5.87 4.55 1.86 0.65
avg-cpu: %user %nice %system %iowait %steal %idle
0.75 0.00 0.25 0.25 0.00 98.75
總結:
(1)使用top命令查看負載,在top下按「1」查看CPU核心數量,shift+"c"按cpu使用率大小排序,shif+"p"按內存使用率高低排序;
(2)使用iostat -x 命令來監控io的輸入輸出是否過大
❿ linux 下查看網路負載命令
用 netstat 查看 Linux 網路狀況。
netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
前面的 netstat -n是netstat的命令,Windows和Linux都可以用,結果顯示內容差不多
後面的 awk'/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}' 是Linux下的命令,主要作用是對netstat輸出的結果進行過濾和處理:
運行這一句之後,顯示的結果類似如下:
TIME_WAIT 27
FIN_WAIT1 435
FIN_WAIT2 89
ESTABLISHED 82
SYN_RECV 64
CLOSING 4
LAST_ACK 90
內容解釋如下:
TIME-WAIT:等待足夠的時間以確保遠程TCP接收到連接中斷請求的確認
FIN-WAIT-1:等待遠程TCP連接中斷請求,或先前的連接中斷請求的確認
FIN-WAIT-2:從遠程TCP等待連接中斷請求
ESTABLISHED:代表一個打開的連接
SYN-RECV:再收到和發送一個連接請求後等待對方對連接請求的確認
SYN-SENT:再發送連接請求後等待匹配的連接請求
CLOSING:等待遠程TCP對連接中斷的確認
CLOSED:沒有任何連接狀態
CLOSE-WAIT:等待從本地用戶發來的連接中斷請求
LAST-ACK:等待原來的發向遠程TCP的連接中斷請求的確認
LISTEN:偵聽來自遠方的TCP埠的連接請求