導航:首頁 > 網路問題 > 為什麼神經網路不會過擬合

為什麼神經網路不會過擬合

發布時間:2022-12-16 12:09:21

⑴ 神經網路的遺傳演算法可以防止過擬合嘛

你好,遺傳演算法在一定程度上可以防止過擬合。
遺傳演算法主要是針對神經網路的優化的。他是通過交叉和突變來實現對神經網路的優化。
過擬合其實是說模型太過嚴格,泛化不夠。容錯性不夠好。
因為遺傳演算法通過交叉和突變,他可以提升模型的泛化能力。

⑵ 過擬合問題

過擬合會造成模型變得復雜,並盡可能擬合訓練集,造成在訓練集上的准確率特別高,這里就會有一個問題就是:訓練集是不靠譜的,其中有容錯的數據。直接點,訓練集中特別是十幾萬的數據,會有臟數據,這些臟數據也成為負樣本,會造成模型訓練有誤差,模型在訓練的時候並不清楚那些是臟數據,它只會不停的去擬合這些數據,所以過擬合的模型在訓練集上准確率特別高,但訓練集其實只是整個數據集中的一部分,其包含兩部分特徵,一部分是整個數據集共有的特徵,一部分是訓練集自身共有的特徵,當過擬合時,模型學到的是這兩部分的特徵,此時拿模型去在測試集上測試時,因為測試集不包含訓練集自身共有的特徵,所以測試集在模型上就不會取得很好的效果。因此需要防止過擬合。主要優缺點如下:

訓練集的准確率很高,其實這個訓練集准確率高只能說明 模型擬合數據不錯,但是 針對測試集來說效果可能就不一定了,這個很難評估,不過大致可以說明模型還是可以的。

模型在測試集上的效果不好,過度的擬合噪音數據,過度擬合訓練集中特有特徵,所以過擬合的模型在測試集上表現都非常差。

欠擬合比較好理解就是模型簡單或者說語料集偏少、特徵太多,在訓練集上的准確率不高,同時在測試集上的准確率也不高,這樣如何訓練都無法訓練出有意義的參數,模型也得不到較好的效果,這個優缺點就不說了,基本上欠擬合就選擇合理的模型,合理的特徵,提高訓練集就行。

1、early stopping
Early stopping便是一種迭代次數截斷的方法來防止過擬合的方法,即在模型對訓練數據集迭代收斂之前停止迭代來防止過擬合。 Early stopping方法的具體做法是,在每一個Epoch結束時(一個Epoch集為對所有的訓練數據的一輪遍歷)計算validation data的accuracy,當accuracy不再提高時,就停止訓練。
2、數據集擴增
通過擴充數據集,讓訓練集中的噪音數據佔比越來越小,這樣噪音對模型的影響就較小,防止模型過擬合。
3、正則化
正則化是指在優化目標函數或代價函數是,在目標函數後面加上一個正則項。正則項通常有L1正則項和L2正則項。
4、 Dropout
正則是通過在代價函數後面加上正則項來防止模型過擬合。在神經網路中,有一種方法是通過修改自身結構來實現的,叫做Dropout。這是對網路訓練的一種技巧,在訓練過程中隨機刪除一些隱藏層的神經元,同時保證輸入層和輸出層的神經元不變。
5、挑選合適的模型
模型不合適,挑選相對簡單的模型進行訓練,對模型中的參數、訓練層數等做限制。
6、可變化的學習率
————————————————
原文鏈接: https://blog.csdn.net/randompeople/article/details/82107740

⑶ 深度學習為什麼不過擬合

深度學習:過擬合

為了得到一致假設而使假設變得過度復雜稱為過擬合。想像某種學習演算法產生了一個過擬合的分類器,這個分類器能夠百分之百的正確分類樣本數據(即再拿樣本中的文檔來給它,它絕對不會分錯),但也就為了能夠對樣本完全正確的分類,使得它的構造如此精細復雜,規則如此嚴格,以至於任何與樣本數據稍有不同的文檔它全都認為不屬於這個類別。
標準定義:給定一個假設空間H,一個假設h屬於H,如果存在其他的假設h』屬於H,使得在訓練樣例上h的錯誤率比h』小,但在整個實例分布上h』比h的錯誤率小,那麼就說假設h過度擬合訓練數據。 —-《Machine Learning》Tom M.Mitchell

假設我們用深度學習來判斷西瓜,過擬合會使得你判斷西瓜更加嚴厲,導致在某些西瓜數據上與你准備的數據有些出入(差別並不會太大),從而結果判定不是西瓜。。。

-----------------
深度學習防止過擬合的方法

過擬合即在訓練誤差很小,而泛化誤差很大,因為模型可能過於的復雜,使其」記住」了訓練樣本,然而其泛化誤差卻很高,在傳統的機器學習方法中有很大防止過擬合的方法,同樣這些方法很多也適合用於深度學習中,同時深度學習中又有一些獨特的防止過擬合的方法,下面對其進行簡單的梳理.
1. 參數范數懲罰
范數正則化是一種非常普遍的方法,也是最常用的方法,假如優化:

minObj(θ)=L(y,f(x))+αG(θ)

其中L為經驗風險,其為在訓練樣本上的誤差,而G為對參數的懲罰,也叫結構風險.α是平衡兩者,如果太大則對應的懲罰越大,如過太小,甚至接近與0,則沒有懲罰.
最常用的范數懲罰為L1,L2正則化,L1又被成為Lasso:

||w||1=|w1|+|w2|+...

即絕對值相加,其趨向於是一些參數為0.可以起到特徵選擇的作用.
L2正則化為:

||w||2=w12+w22+...−−−−−−−−−−−−√

其趨向與,使權重很小.其又成為ridge.
關於更多可以參考:機器學習中的范數規則化之(一)L0、L1與L2范數

2. 數據增強
讓模型泛化的能力更好的最好辦法就是使用更多的訓練數據進行訓練,但是在實踐中,我們擁有的數據是有限的,解決這一問題可以人為的創造一些假數據添加到訓練集中.
一個具體的例子:
在AlexNet中,將256*256圖像隨機的截取224*224大小,增加了許多的訓練樣本,同時可以對圖像進行左右翻轉,增加樣本的個數,實驗的結果可以可降低1%的誤差.
在神經網路中輸入雜訊也可以看做是數據增強的一種方式.
3. 提前終止
如下圖所示(圖片來源deep learning),當隨著模型的能力提升,訓練集的誤差會先減小再增大,這樣可以提前終止演算法減緩過擬合現象.關於演算法的具體流程參考deep learning.

提前終止是一種很常用的緩解過擬合的方法,如在決策樹的先剪枝的演算法,提前終止演算法,使得樹的深度降低,防止其過擬合.
4. 參數綁定與參數共享
在卷積神經網路CNN中(計算機視覺與卷積神經網路 ),卷積層就是其中權值共享的方式,一個卷積核通過在圖像上滑動從而實現共享參數,大幅度減少參數的個數,用卷積的形式是合理的,因為對於一副貓的圖片來說,右移一個像素同樣還是貓,其具有局部的特徵.這是一種很好的緩解過擬合現象的方法.
同樣在RNN中用到的參數共享,在其整條時間鏈上可以進行參數的共享,這樣才使得其能夠被訓練.
5. bagging 和其他集成方法
其實bagging的方法是可以起到正則化的作用,因為正則化就是要減少泛化誤差,而bagging的方法可以組合多個模型起到減少泛化誤差的作用.
在深度學習中同樣可以使用此方法,但是其會增加計算和存儲的成本.
6. Dropout
Dropout提供了一種廉價的Bagging集成近似,能夠訓練和評估指數級數量的神經網路。dropout可以隨機的讓一部分神經元失活,這樣彷彿是bagging的采樣過程,因此可以看做是bagging的廉價的實現.
但是它們訓練不太一樣,因為bagging,所有的模型都是獨立的,而dropout下所有模型的參數是共享的.
通常可以這樣理解dropout:假設我們要判別一隻貓,有一個神經元說看到有毛就是貓,但是如果我讓這個神經元失活,它還能判斷出來是貓的話,這樣就比較具有泛化的能力,減輕了過擬合的風險.
7. 輔助分類節點(auxiliary classifiers)
在Google Inception V1中,採用了輔助分類節點的策略,即將中間某一層的輸出用作分類,並按一個較小的權重加到最終的分類結果中,這樣相當於做了模型的融合,同時給網路增加了反向傳播的梯度信號,提供了額外的正則化的思想.
8. Batch Normalization
在Google Inception V2中所採用,是一種非常有用的正則化方法,可以讓大型的卷積網路訓練速度加快很多倍,同事收斂後分類的准確率也可以大幅度的提高.
BN在訓練某層時,會對每一個mini-batch數據進行標准化(normalization)處理,使輸出規范到N(0,1)的正太分布,減少了Internal convariate shift(內部神經元分布的改變),傳統的深度神經網路在訓練是,每一層的輸入的分布都在改變,因此訓練困難,只能選擇用一個很小的學習速率,但是每一層用了BN後,可以有效的解決這個問題,學習速率可以增大很多倍.
未完待續…
參考資料:
deep learning
tensorflow實戰
機器學習中的范數規則化之(一)L0、L1與L2范數

⑷ 神經網路,什麼過擬合,什麼是欠擬合

欠擬合是指模型不能在訓練集上獲得足夠低的誤差。而過擬合是指訓練誤差和測試誤差之間的差距太大。

相關介紹:

人工神經網路(ANN)或聯結主義系統是受構成動物大腦的生物神經網路的啟發但不完全相同的計算系統。這種系統通過例子來「學習」執行任務,而不用特定於任務的規則進行編程。

例如,在圖像識別中,人工神經網路可能會通過分析一些圖像樣本來學習識別包含貓的圖像,這些圖像被手工標記為「貓」或「不是貓」,並使用結果識別在其他圖像中的貓。

他們這樣做是在沒有貓的任何先驗知識的情況下進行的,例如,它們有毛皮,尾巴,胡須和類似貓的臉。相反,人工神經網路會自動從它們處理的學習材料中生成識別特徵。

人工神經網路是基於稱為人工神經元的連接單元或節點所構成的集合,這些單元或節點鬆散地模擬生物大腦中的神經元。像生物大腦中的突觸一樣,每個連接可以將信號從一個人工神經元傳輸到另一個人工神經元。接收信號的人工神經元可以對其進行處理,然後向與之相連的附加人造神經元發出信號。

⑸ 神經網路,什麼過擬合,什麼是欠擬合

欠擬合是指模型不能在訓練集上獲得足夠低的誤差。而過擬合是指訓練誤差和測試誤差之間的差距太大。
通過調整模型的容量(capacity),我們可以控制模型是否偏向於過擬合或者欠擬合。通俗地,模型的容量是指其擬合各種函數的能力。容量低的模型可能很難擬合訓練集。容量高的模型可能會過擬合,因為記住了不適用於測試集的訓練集性質。

⑹ 神經網路,什麼過擬合,什麼是欠擬合

欠擬合是指模型不能在訓練集上獲得足夠低的誤差。而過擬合是指訓練誤差和測試誤差之間的差距太大。

考慮過多,超出自變數的一般含義維度,過多考慮雜訊,會造成過擬合。

可以認為預測准確率、召回率都比理論上最佳擬合函數低很多,則為欠擬合。

簡介

人工神經網路按其模型結構大體可以分為前饋型網路(也稱為多層感知機網路)和反饋型網路(也稱為Hopfield網路)兩大類,前者在數學上可以看作是一類大規模的非線性映射系統,後者則是一類大規模的非線性動力學系統。

按照學習方式,人工神經網路又可分為有監督學習、非監督和半監督學習三類;按工作方式則可分為確定性和隨機性兩類;按時間特性還可分為連續型或離散型兩類,等等。

⑺ 神經網路過擬合的現象是什麼 發生原因

過擬合現象一般都是因為學習的過於精確,就好比讓機器學習人臉,取了100個人的臉訓練,但是由於你學習的過精確,導致除了這個樣本100人外 其他的人臉神經網路都認為不是人臉,實際我們只需要學習人臉的基本特徵 而不是詳細到人的皮膚細膩 眼睛大小等過於細致的特徵,這樣可以保證機器還是能識別別的圖片中的人臉的

⑻ 什麼是過擬合如何避免過擬合問題

過擬合 :所選模型的復雜度比真模型更高;學習時選擇的模型所包含的參數過多,對已經數據預測得很好,但是對未知數據預測得很差的現象.

過擬合一般特點 :高方差,低偏差;

導致過擬合原因: 訓練數據不夠,模型進行過度訓練(overtraining)等

如何避免過擬合:

1) Early stopping (適當的stopping criterion): Early stopping便是一種迭代次數截斷的方法來防止過擬合的方法,即在模型對訓練數據集迭代收斂之前停止迭代來防止過擬合

2) 數據集擴增 : 數據機擴增即需要得到更多的符合要求的數據,即和已有的數據是獨立同分布的,或者近似獨立同分布的。一般方法有:從數據源頭採集更多數據,復制原有數據並加上隨機雜訊,重采樣,根據當前數據集估計數據分布參數,使用該分布產生更多數據等

3)正則化方法: 一般有L1正則與L2正則等

4)Dropout: 正則是通過在代價函數後面加上正則項來防止模型過擬合的。而在神經網路中,有一種方法是通過修改神經網路本身結構來實現的,其名為Dropout

⑼ 神經網路:欠擬合和過擬合

以我們前面講述的線性回歸為例,比如我們在訓練集上訓練出最優的模型,但是當我們將其使用到測試集時,測試的誤差很大,我們該怎麼辦? 

我們一般採取的措施主要包括以下6種:

增加訓練樣本的數目(該方法適用於過擬合現象時,解決高方差。一般都是有效的,但是代價較大,如果下面的方法有效,可以優先採用下面的方式);

嘗試減少特徵的數量(該方法適用於過擬合現象時,解決高方差);

嘗試獲得更多的特徵(該方法適用於欠擬合現象時,解決高偏差);

嘗試增加多項式特徵(該方法適用於欠擬合現象時,解決高偏差);

嘗試減小正則化程度λ(該方法適用於欠擬合現象時,解決高偏差);

嘗試增加正則化程度λ(該方法適用於過擬合現象時,解決高方差);

上面的方法不是隨機選擇,是在合適的情況下(過擬合和欠擬合)選擇合適的方法,對於怎麼判斷一個模型是過擬合還是欠擬合,我們會在下面給出一些機器學習診斷法。

如何對一個假設進行評估?  

我們前面在講述線性回歸和邏輯回歸時,只是注重針對訓練數據集訓練出一個最優的參數,但是我們訓練處的模型對於測試集的性能好壞我們沒有進行判斷,我們只是訓練的模型使得損失函數最小,我們前面也討論過,在訓練數據集上損失函數最小並不能代表對於給定的測試數據,測試數據的評估非常准確,比如過擬合現象發生時,那我們如何評價一個假設的好壞呢? 

主要的方法包括兩種: 

1.對於簡答的模型,我們可以採用將hθ(x)的圖像畫出,來判斷模型的好壞,但是這種方法對於特徵變數不是一個時,這種方法很難實現或者不可能實現。例如我們曾經看到過這樣的圖像,可以通過hθ(x)的圖像明顯可以看出,該假設存在著過擬合現象。 

2.另一種評估假設的方法為:將原來的數據集分為訓練集和測試集,一般我們是從原來的數據集中隨機選取(保證訓練集和測試集中都含有各種類型的數據)70%的數據作為訓練集,剩下的30%的樣本作為測試集。同時這種將原來數據集劃分為訓練集和測試集的方法可以用於幫助特徵選擇、多項式次數的選擇以及正則化參數的選擇等。數據集劃分的過程如下: 

以上面數據集為例,選取前7個為訓練集,後3個為測試集。用前7個數據集做訓練訓練出一個最優的模型,評價這個訓練出的模型的好壞可以使用測試集來進行判斷,判斷的標准可以使用測試集的損失函數來進行定量的衡量。 

對於回歸問題,測試集的損失函數計算公式如下: 

Jtest(θ)=12mtest∑i=1mtest(hθ(x(i)test)−y(i)test)2

而對於分類問題,測試集的損失函數計算公式如下: 

這種測量方式,如果測試樣本損失函數很大,則代表訓練出的模型泛化能力不好。 

對於分類問題,還有另外一種測量的方式,稱為誤分類率,它對於每一個測試樣本進行計算,計算的公式如下: 

error=1mtest∑i=1mtesterr(hθ(x(i)test),y(i)))

其中, 

模型的選擇和交叉驗證集:  

上述我們是在模型選擇好了之後進行訓練的,也就是上述我們都是確定了假設進行訓練的,但是我們怎麼對模型進行選擇呢,這一節我們來討論一下模型的選擇,以及和交叉驗證集的關系。 

模型選擇主要包括以下內容:1.怎樣選擇正確的特徵來構造學習演算法?2.怎樣選擇學習演算法中正則化參數λ?等問題。 

首先我們結合一個例子來引出模型的選擇和驗證集: 

例如我們有上面十個模型,我們對於給定的數據集選擇哪種模型呢?按照我們上面討論的將數據集劃分為訓練集和測試集,使用訓練集對上述模型進行訓練,然後使用測試集來進行選擇最佳的模型,比如最優的為第五個模型,但是這並不能衡量這個模型的泛化能力,因為測試集已經用於選擇最優的模型,這個模型對於其他未知數據的泛化能力還是未知的。 

所以針對上述問題我們可以將數據集劃分為訓練集、交叉驗證集和測試集。一般情況下,訓練集占總樣本的60%,交叉驗證集佔20%,測試集佔20%。其中訓練集用於訓練,交叉驗證集用於選擇最優的模型,測試集用於測試模型的泛化能力。 

模型選擇方法為: 

1. 使用訓練集訓練10個模型; 

2. 用10個模型分別對交叉驗證集計算出交叉驗證誤差(代價函數的值),其中計算公式為: 

3. 選取交叉驗證誤差最小的模型作為選擇的模型; 

4. 用測試集對選擇出的模型計算泛化能力(測試樣本的損失函數),計算公式如上文中討論的一樣。

假設對診斷偏差和方差(即過擬合還是欠擬合)的影響  

利用上述方法學習到的演算法性能不好一般會有兩種情況: 

1.會出現過擬合,也就是所謂的方差很大; 

2.會出現欠擬合,也就是所謂的偏差很大; 

首先應該確定演算法性能的不好,是由哪種原因造成的,然後針對不同的情況採取不同的改進策略,可以有效的改進當前的演算法。下面我們來講述一下怎麼判斷是過擬合還是欠擬合。 

以下面例子為例,來進行討論: 

我們可以通過繪制出訓練集的代價函數和交叉驗證驗證集的代價函數與方次d的關系來進行判斷是上述哪種情況的一種: 

對於訓練集,當d較小時,模型的擬合程度不是很好,所以訓練樣本集的代價函數比較大;隨著d的增加,模型的擬合程度不斷提高,代價函數不斷的減小; 

對於交叉驗證集,由於d比較小時,模型的擬合程度不是很好,對於新來的樣本預測結果會偏差很大,所以交叉驗證集的代價函數在初始階段會很大,而隨著d的增加會出現一個比較好的方次d,使得模型的擬合程度最佳,同時對於新來的樣本泛化能力很強,所以會有一個代價函數最小的點出現(該轉折點即是模型開始由欠擬合轉向過擬合的點),隨後隨著d的增加,由於過擬合,會存在對新的樣本預測結果不良的現象,所以代價函數會逐漸增大。 

當我們繪制出上述曲線時,我們就可以判斷出什麼時候是過擬合什麼時候欠擬合,判斷的標准如下: 

1. 當訓練誤差與交叉驗證集誤差接近時,並且都很大時,該模型高偏差(欠擬合); 

2. 當訓練誤差遠小於驗證集誤差時,並且訓練誤差很小時,該模型高方差(過擬合)。 

判斷出該模型是過擬合或者欠擬合之後,然後使用上述提到的過擬合和欠擬合的解決方法,對演算法進行改進。

正則化對偏差和方差的影響  

我們前面講述過正則化可以有效的處理過擬合現象,但是我們上述所說的處理過擬合是在合適的λ情況下,那麼λ值的大小對模型的性能是怎樣影響的呢?我們採用上述與方次d對性能的影響相同的方式來分析λ的值對性能的影響。 

我們首先選擇一系列的λ值,通常λ的選擇是0~10之間呈現二倍關系的值(如:0,0.01,0.02,0.04,0.08,0.15,0.32,0.64,1.28,5.26,5.12,10) 

構建方式如下: 

選擇λ的方法如下: 

1.使用訓練集訓練處12個不同程度正則化模型; 

2.用12個模型分別對交叉驗證集計算出交叉驗證誤差; 

3.選擇得出交叉驗證誤差最小的模型; 

4.運用步驟3選出的模型對測試集計算得出推廣誤差

我們同樣可以將訓練集和交叉驗證集模型的代價函數與λ的值繪制在一張圖上。對於訓練集、驗證集和測試集的代價函數計算公式為: 

需要注意的是,當計算訓練集、交叉驗證集和測試集誤差時,不計算正則項,然後繪制出訓練集和交叉驗證集代價函數與λ值的關系,如下圖所示: 

1. 當λ較小時,訓練誤差較小(過擬合)而交叉驗證集誤差較大; 

2. 隨著λ的增加(從過擬合到欠擬合的過程),訓練集誤差逐漸增大(欠擬合),而交叉驗證集誤差則是先減小後增大。

學習曲線  

學習曲線也是一種可以判斷演算法是否處於過擬合還是欠擬合的情況,學習曲線是將訓練集誤差和交叉驗證集誤差作為訓練集實例數量(m)的函數繪制的圖像。學習曲先不僅可以幫助我們是不是處於過擬合或者欠擬合,它還可以幫助我們判斷是否為了提高演算法的性能需要我們收集多的數據。 

假設我們有100行數據,我們從第一行數據開始,逐漸增加數據進行訓練,得到每次訓練數據的代價函數值。當數據很少時,訓練模型能夠非常完美的擬合很少的數據,但是訓練出的模型卻不能泛化其他的數據,所以當數據很少時,訓練集的代價函數很小,但是交叉驗證集的代價函數很大,隨著樣本的增加,訓練集的代價函數逐漸增大,交叉驗證集的代價函數逐漸減小。繪制的曲線如下圖所示: 

1. 如何用學習曲線識別欠擬合: 

假設我們的模型處於欠擬合的情況下,擬合曲線如下圖所示: 

我們可以看出,無論我們怎樣增加樣本數據,誤差都不會有很大改觀。同時在欠擬合的情況下,會出現隨著樣本的增加,訓練集代價函數和交叉驗證集代價函數都很大的情況,在這種情況下,就沒有必要花費時間在收集數據上了,同時這也是一種判斷模型是過擬合還是欠擬合的方法。 

2. 如何使用學習曲線識別過擬合: 

假設我們有一個非常高次的多項式模型(比如最高次項達到100次),並且正則化非常小時,從下圖可以看出,當交叉驗證集誤差遠大於訓練集誤差時,往訓練集增加更多數據可以提高模型的效果。 

對於過擬合現象時,會出現訓練集代價函數一直都很小(雖然是增加的趨勢),但是驗證集的損失函數會很大(雖然是減小的趨勢),同時訓練集代價函數和驗證集代價函數相差會很大,可以使用這種方法來判斷該模型處於過擬合階段。

對於神經網路我們在討論一下過擬合和欠擬合現象:  

使用較小的神經網路,類似於參數較少的情況,容易導致高偏差和欠擬合,但是計算代價小;使用較大的神經網路,類似於參數較多的情況,容易導致高方差和過擬合,雖然計算代價比較大,但是可以通過正則化手段來調整而更加適應數據。 

對於 神經網路的模型選擇 :我們一般選擇較大的神經網路並採用正則化處理,而不會選擇較小的神經網路。 

對於 神經網路隱藏層的層數選擇 ,一般我們從一層開始逐漸增加層數,為了更好的選擇出最佳的層數,可以針對不同隱藏層層數的神經網路進行訓練,然後選擇交叉驗證集代價函數最小的神經網路。

閱讀全文

與為什麼神經網路不會過擬合相關的資料

熱點內容
計算機網路校驗位計算 瀏覽:799
無線網路程序怎麼總是沒有 瀏覽:664
移動網路打視頻鏈接中 瀏覽:1003
網路演唱會屬於什麼部門監管的 瀏覽:442
華為修改網路中的隱私在哪裡 瀏覽:295
浙江計算機網路技術考試 瀏覽:418
台州網路營銷價格便宜 瀏覽:706
神經網路引擎軟體下載 瀏覽:341
只用5g網路怎麼設置 瀏覽:349
企業用什麼網路電話軟體 瀏覽:199
可以連無線但是網路巨卡 瀏覽:261
用無線網路看電視怎麼操作 瀏覽:624
安移動網路要戶口本嗎 瀏覽:924
不需要wifi和網路的軟體 瀏覽:993
小子手機網路 瀏覽:320
怎樣才能提高移動網路的網速 瀏覽:262
網路維護保養怎麼做 瀏覽:377
網路面板怎麼接光纖插線 瀏覽:329
清朗網路安全最新消息 瀏覽:654
無線網卡網路差是怎麼回事 瀏覽:438

友情鏈接