A. 神經網路演算法可以解決的問題有哪些
人工神經網路(Artificial Neural Networks,ANN)系統是 20 世紀 40 年代後出現的。它是由眾多的神經元可調的連接權值連接而成,具有大規模並行處理、分布式信 息存儲、良好的自組織自學習能力等特點。BP(Back Propagation)演算法又稱為誤差 反向傳播演算法,是人工神經網路中的一種監督式的學習演算法。BP 神經網路演算法在理 論上可以逼近任意函數,基本的結構由非線性變化單元組成,具有很強的非線性映射能力。而且網路的中間層數、各層的處理單元數及網路的學習系數等參數可根據具體情況設定,靈活性很大,在優化、信號處理與模式識別、智能控制、故障診斷等許 多領域都有著廣泛的應用前景。
工作原理
人工神經元的研究起源於腦神經元學說。19世紀末,在生物、生理學領域,Waldeger等人創建了神經元學說。人們認識到復雜的神經系統是由數目繁多的神經元組合而成。大腦皮層包括有100億個以上的神經元,每立方毫米約有數萬個,它們互相聯結形成神經網路,通過感覺器官和神經接受來自身體內外的各種信息,傳遞至中樞神經系統內,經過對信息的分析和綜合,再通過運動神經發出控制信息,以此來實現機體與內外環境的聯系,協調全身的各種機能活動。
神經元也和其他類型的細胞一樣,包括有細胞膜、細胞質和細胞核。但是神經細胞的形態比較特殊,具有許多突起,因此又分為細胞體、軸突和樹突三部分。細胞體內有細胞核,突起的作用是傳遞信息。樹突是作為引入輸入信號的突起,而軸突是作為輸出端的突起,它只有一個。
樹突是細胞體的延伸部分,它由細胞體發出後逐漸變細,全長各部位都可與其他神經元的軸突末梢相互聯系,形成所謂「突觸」。在突觸處兩神經元並未連通,它只是發生信息傳遞功能的結合部,聯系界面之間間隙約為(15~50)×10米。突觸可分為興奮性與抑制性兩種類型,它相應於神經元之間耦合的極性。每個神經元的突觸數目正常,最高可達10個。各神經元之間的連接強度和極性有所不同,並且都可調整、基於這一特性,人腦具有存儲信息的功能。利用大量神經元相互聯接組成人工神經網路可顯示出人的大腦的某些特徵。
人工神經網路是由大量的簡單基本元件——神經元相互聯接而成的自適應非線性動態系統。每個神經元的結構和功能比較簡單,但大量神經元組合產生的系統行為卻非常復雜。
人工神經網路反映了人腦功能的若干基本特性,但並非生物系統的逼真描述,只是某種模仿、簡化和抽象。
與數字計算機比較,人工神經網路在構成原理和功能特點等方面更加接近人腦,它不是按給定的程序一步一步地執行運算,而是能夠自身適應環境、總結規律、完成某種運算、識別或過程式控制制。
人工神經網路首先要以一定的學習准則進行學習,然後才能工作。現以人工神經網路對於寫「A」、「B」兩個字母的識別為例進行說明,規定當「A」輸入網路時,應該輸出「1」,而當輸入為「B」時,輸出為「0」。
所以網路學習的准則應該是:如果網路作出錯誤的的判決,則通過網路的學習,應使得網路減少下次犯同樣錯誤的可能性。首先,給網路的各連接權值賦予(0,1)區間內的隨機值,將「A」所對應的圖象模式輸入給網路,網路將輸入模式加權求和、與門限比較、再進行非線性運算,得到網路的輸出。在此情況下,網路輸出為「1」和「0」的概率各為50%,也就是說是完全隨機的。這時如果輸出為「1」(結果正確),則使連接權值增大,以便使網路再次遇到「A」模式輸入時,仍然能作出正確的判斷。
B. bp神經網路研究現狀
BP網路的誤差逆傳播演算法因有中間隱含層和相應的學習規則,使得它具有很
強的非線性映射能力,而且網路的中間層數、各層神經元個數及網路的學習系數
等參數可以根據實際情況設定,有很大的靈活性,且能夠識別含有雜訊的樣本,
經過學習能夠把樣本隱含的特徵和規則分布在神經網路的連接權上。總的說來,
BP網路的優點主要有:
(1)演算法推導清楚,學習精度較高;(2)經過訓練後的BP網路,運行速度很快,有
的可用於實時處理;(3)多層(至少三層)BP網路具有理論上逼近任意非線性連續
函數的能力,也就是說,可以使多層前饋神經網路學會任何可學習的東西,而信
息處理的大部分問題都能歸納為數學映射,通過選擇一定的非線性和連接強度調
節規律,BP網路就可解決任何一個信息處理的問題。目前,在手寫字體的識別、
語音識別、文本一語言轉換、圖像識別以及生物醫學信號處理方面已有實際的應
用。
同時BP演算法與其它演算法一樣,也存在自身的缺陷:
(1)由於該演算法採用誤差導數指導學習過程,在存在較多局部極小點的情況下容易陷入局部極小點,不能保證收斂到全局最小點:(2)存在學習速度與精度之間的矛盾,當學習速度較快時,學習過程容易產生振盪,難以得到精確結果,而當學習速度較慢時,雖然結果的精度較高,但學習周期太長:(3)演算法學習收斂速度慢;(4)網路學習記憶具有不穩定性,即當給一個訓練好的網路提供新的學習記憶模式時,將使已有的連接權值打亂,導致已記憶的學習模式的信息消失;(5)網路中間層(隱含層)的層數及它的單元數的選取無理論上的指導,而是根據經驗確定,因此網路的設計有時不一定是最佳的方案。
C. BP演算法首先要解決哪兩個問題
BP演算法就是反向傳播的神經網路演算法,這個演算法很多問題
隨便舉兩個來:
如果網路夠深,會出現梯度消失的問題
在最優化的時候,容易掉入局部極小值,而不是最小值
D. 什麼是BP神經網路
BP演算法的基本思想是:學習過程由信號正向傳播與誤差的反向回傳兩個部分組成;正向傳播時,輸入樣本從輸入層傳入,經各隱層依次逐層處理,傳向輸出層,若輸出層輸出與期望不符,則將誤差作為調整信號逐層反向回傳,對神經元之間的連接權矩陣做出處理,使誤差減小。經反復學習,最終使誤差減小到可接受的范圍。具體步驟如下:
1、從訓練集中取出某一樣本,把信息輸入網路中。
2、通過各節點間的連接情況正向逐層處理後,得到神經網路的實際輸出。
3、計算網路實際輸出與期望輸出的誤差。
4、將誤差逐層反向回傳至之前各層,並按一定原則將誤差信號載入到連接權值上,使整個神經網路的連接權值向誤差減小的方向轉化。
5、対訓練集中每一個輸入—輸出樣本對重復以上步驟,直到整個訓練樣本集的誤差減小到符合要求為止。
E. BP神經網路(誤差反傳網路)
雖然每個人工神經元很簡單,但是只要把多個人工
神經元按一定方式連接起來就構成了一個能處理復雜信息的神經網路。採用BP演算法的多層前饋網路是目前應用最廣泛的神經網路,稱之為BP神經網路。它的最大功能就是能映射復雜的非線性函數關系。
對於已知的模型空間和數據空間,我們知道某個模型和他對應的數據,但是無法寫出它們之間的函數關系式,但是如果有大量的一一對應的模型和數據樣本集合,利用BP神經網路可以模擬(映射)它們之間的函數關系。
一個三層BP網路如圖8.11所示,分為輸入層、隱層、輸出層。它是最常用的BP網路。理論分析證明三層網路已經能夠表達任意復雜的連續函數關系了。只有在映射不連續函數時(如鋸齒波)才需要兩個隱層[8]。
圖8.11中,X=(x1,…,xi,…,xn)T為輸入向量,如加入x0=-1,可以為隱層神經元引入閥值;隱層輸出向量為:Y=(y1,…,yi,…,ym)T,如加入y0=-1,可以為輸出層神經元引入閥值;輸出層輸出向量為:O=(o1,…,oi,…,ol)T;輸入層到隱層之間的權值矩陣用V表示,V=(V1,…,Vj,…,Vl)T,其中列向量Vj表示隱層第j個神經元的權值向量;隱層到輸出層之間的權值矩陣用W表示,W=(W1,…,Wk,…,Wl)T,
其中列向量Wk表示輸出層第k個神經元的權值向量。
圖8.11 三層BP網路[8]
BP演算法的基本思想是:預先給定一一對應的輸入輸出樣本集。學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。正向傳播時,輸入樣本從輸入層傳入,經過各隱層逐層處理後,傳向輸出層。若輸出層的實際輸出與期望的輸出(教師信號)不符,則轉入誤差的反向傳播。將輸出誤差以某種形式通過隱層向輸入層逐層反傳,並將誤差分攤給各層的所有神經元,獲得各層的誤差信號,用它們可以對各層的神經元的權值進行調整(關於如何修改權值參見韓立群著作[8]),循環不斷地利用輸入輸出樣本集進行權值調整,以使所有輸入樣本的輸出誤差都減小到滿意的精度。這個過程就稱為網路的學習訓練過程。當網路訓練完畢後,它相當於映射(表達)了輸入輸出樣本之間的函數關系。
在地球物理勘探中,正演過程可以表示為如下函數:
d=f(m) (8.31)
它的反函數為
m=f-1(d) (8.32)
如果能夠獲得這個反函數,那麼就解決了反演問題。一般來說,難以寫出這個反函數,但是我們可以用BP神經網路來映射這個反函數m=f-1(d)。對於地球物理反問題,如果把觀測數據當作輸入數據,模型參數當作輸出數據,事先在模型空間隨機產生大量樣本進行正演計算,獲得對應的觀測數據樣本,利用它們對BP網路進行訓練,則訓練好的網路就相當於是地球物理數據方程的反函數。可以用它進行反演,輸入觀測數據,網路就會輸出它所對應的模型。
BP神經網路在能夠進行反演之前需要進行學習訓練。訓練需要大量的樣本,產生這些樣本需要大量的正演計算,此外在學習訓練過程也需要大量的時間。但是BP神經網路一旦訓練完畢,在反演中的計算時間可以忽略。
要想使BP神經網路比較好地映射函數關系,需要有全面代表性的樣本,但是由於模型空間的無限性,難以獲得全面代表性的樣本集合。用這樣的樣本訓練出來的BP網路,只能反映樣本所在的較小范圍數據空間和較小范圍模型空間的函數關系。對於超出它們的觀測數據就無法正確反演。目前BP神經網路在一維反演有較多應用,在二維、三維反演應用較少,原因就是難以產生全面代表性的樣本空間。
F. BP網的功能及導高預測適用性
採用BP演算法的前饋神經網是神經網路在各個領域中應用最廣泛的一種,已經成功解決了大量實際問題。BP網的廣泛應用,歸因於其主要能力:具有非線性映射能力、泛化能力與容錯能力。
多層前饋網能學習和存儲大量輸入-輸出模式映射關系,即使不了解描述這種映射關系的數學方程,只要能提供足夠多的樣本模式對以供BP網路進行學習訓練,它便可以完成由n維輸入空間到m維輸出空間的非線性映射,即非線性映射能力。在工程上及許多技術領域中,對某一輸入 輸出系統常常積累了大量相關的輸入 輸出數據,但仍未掌握其內部蘊涵的規律,無法用數學方法來描述該規律。對難以得到解析解、缺乏專家經驗,但能夠表示和轉化為模式識別或非線性映射的這類問題,多層前饋網路具有無可比擬的優勢。通過訓練的多層前饋網路,將所提取的樣本對中的非線性映射關系存儲在權值矩陣中,當向網路輸入訓練時未曾見的非樣本數據時,網路也能完成由輸入空間向輸出空間的正確映射,即泛化能力,是衡量多層前饋網性能優劣的一個重要方面。由於權矩陣的調整是從大量的樣本中提取統計特性的過程,反映正確規律的知識來自全體樣本,個別樣本中的誤差不能左右對矩陣的調整。所以多層前饋網允許輸入樣本中帶有較大的誤差甚至個別錯誤,即容錯能力。
標准演算法在應用中具有訓練次數多,學習效率低,收斂速度慢,隱節點的選取缺乏理論指導,訓練時學習新樣本有遺忘舊樣本的趨勢,容易形成局部極小而得到局部全優等缺點,通過要權值調整公式中增加動量項α、自適應調節學習率η、在轉移函數中引入陡度因子λ等方法,有效改進了BP演算法,進一步提高其適用性。
因此,採用BP人工神經網路建立導水裂隙帶高度與其影響因子之間的非線性映射關系,並發揮BP網的泛化能力,輸入影響因子,對導水裂隙帶高度進行預測,具有無可比擬的優越性。
G. BP神經網路的可行性分析
神經網路的是我的畢業論文的一部分
4.人工神經網路
人的思維有邏輯性和直觀性兩種不同的基本方式。邏輯性的思維是指根據邏輯規則進行推理的過程;它先將信息化成概念,並用符號表示,然後,根據符號運算按串列模式進行邏輯推理。這一過程可以寫成串列的指令,讓計算機執行。然而,直觀性的思維是將分布式存儲的信息綜合起來,結果是忽然間產生想法或解決問題的辦法。這種思維方式的根本之點在於以下兩點:1.信息是通過神經元上的興奮模式分布在網路上;2.信息處理是通過神經元之間同時相互作用的動態過程來完成的。
人工神經網路就是模擬人思維的第二種方式。這是一個非線性動力學系統,其特色在於信息的分布式存儲和並行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網路系統所能實現的行為卻是極其豐富多彩的。
4.1人工神經網路學習的原理
人工神經網路首先要以一定的學習准則進行學習,然後才能工作。現以人工神經網路對手寫「A」、「B」兩個字母的識別為例進行說明,規定當「A」輸入網路時,應該輸出「1」,而當輸入為「B」時,輸出為「0」。
所以網路學習的准則應該是:如果網路做出錯誤的判決,則通過網路的學習,應使得網路減少下次犯同樣錯誤的可能性。首先,給網路的各連接權值賦予(0,1)區間內的隨機值,將「A」所對應的圖像模式輸入給網路,網路將輸入模式加權求和、與門限比較、再進行非線性運算,得到網路的輸出。在此情況下,網路輸出為「1」和「0」的概率各為50%,也就是說是完全隨機的。這時如果輸出為「1」(結果正確),則使連接權值增大,以便使網路再次遇到「A」模式輸入時,仍然能做出正確的判斷。
如果輸出為「0」(即結果錯誤),則把網路連接權值朝著減小綜合輸入加權值的方向調整,其目的在於使網路下次再遇到「A」模式輸入時,減小犯同樣錯誤的可能性。如此操作調整,當給網路輪番輸入若干個手寫字母「A」、「B」後,經過網路按以上學習方法進行若干次學習後,網路判斷的正確率將大大提高。這說明網路對這兩個模式的學習已經獲得了成功,它已將這兩個模式分布地記憶在網路的各個連接權值上。當網路再次遇到其中任何一個模式時,能夠做出迅速、准確的判斷和識別。一般說來,網路中所含的神經元個數越多,則它能記憶、識別的模式也就越多。
4.2人工神經網路的優缺點
人工神經網路由於模擬了大腦神經元的組織方式而具有了人腦功能的一些基本特徵,為人工智慧的研究開辟了新的途徑,神經網路具有的優點在於:
(1)並行分布性處理
因為人工神經網路中的神經元排列並不是雜亂無章的,往往是分層或以一種有規律的序列排列,信號可以同時到達一批神經元的輸入端,這種結構非常適合並行計算。同時如果將每一個神經元看作是一個小的處理單元,則整個系統可以是一個分布式計算系統,這樣就避免了以往的「匹配沖突」,「組合爆炸」和「無窮遞歸」等題,推理速度快。
(2)可學習性
一個相對很小的人工神經網路可存儲大量的專家知識,並且能根據學習演算法,或者利用樣本指導系統來模擬現實環境(稱為有教師學習),或者對輸入進行自適應學習(稱為無教師學習),不斷地自動學習,完善知識的存儲。
(3)魯棒性和容錯性
由於採用大量的神經元及其相互連接,具有聯想記憶與聯想映射能力,可以增強專家系統的容錯能力,人工神經網路中少量的神經元發生失效或錯誤,不會對系統整體功能帶來嚴重的影響。而且克服了傳統專家系統中存在的「知識窄台階」問題。
(4)泛化能力
人工神經網路是一類大規模的非線形系統,這就提供了系統自組織和協同的潛力。它能充分逼近復雜的非線形關系。當輸入發生較小變化,其輸出能夠與原輸入產生的輸出保持相當小的差距。
(5)具有統一的內部知識表示形式,任何知識規則都可以通過對範例的學習存儲於同一個神經網路的各連接權值中,便於知識庫的組織管理,通用性強。
雖然人工神經網路有很多優點,但基於其固有的內在機理,人工神經網路也不可避免的存在自己的弱點:
(1)最嚴重的問題是沒能力來解釋自己的推理過程和推理依據。
(2)神經網路不能向用戶提出必要的詢問,而且當數據不充分的時候,神經網路就無法進行工作。
(3)神經網路把一切問題的特徵都變為數字,把一切推理都變為數值計算,其結果勢必是丟失信息。
(4)神經網路的理論和學習演算法還有待於進一步完善和提高。
4.3神經網路的發展趨勢及在柴油機故障診斷中的可行性
神經網路為現代復雜大系統的狀態監測和故障診斷提供了全新的理論方法和技術實現手段。神經網路專家系統是一類新的知識表達體系,與傳統專家系統的高層邏輯模型不同,它是一種低層數值模型,信息處理是通過大量的簡單處理元件(結點) 之間的相互作用而進行的。由於它的分布式信息保持方式,為專家系統知識的獲取與表達以及推理提供了全新的方式。它將邏輯推理與數值運算相結合,利用神經網路的學習功能、聯想記憶功能、分布式並行信息處理功能,解決診斷系統中的不確定性知識表示、獲取和並行推理等問題。通過對經驗樣本的學習,將專家知識以權值和閾值的形式存儲在網路中,並且利用網路的信息保持性來完成不精確診斷推理,較好地模擬了專家憑經驗、直覺而不是復雜的計算的推理過程。
但是,該技術是一個多學科知識交叉應用的領域,是一個不十分成熟的學科。一方面,裝備的故障相當復雜;另一方面,人工神經網路本身尚有諸多不足之處:
(1)受限於腦科學的已有研究成果。由於生理實驗的困難性,目前對於人腦思維與記憶機制的認識還很膚淺。
(2)尚未建立起完整成熟的理論體系。目前已提出了眾多的人工神經網路模型,歸納起來,這些模型一般都是一個由結點及其互連構成的有向拓撲網,結點間互連強度所構成的矩陣,可通過某種學習策略建立起來。但僅這一共性,不足以構成一個完整的體系。這些學習策略大多是各行其是而無法統一於一個完整的框架之中。
(3)帶有濃厚的策略色彩。這是在沒有統一的基礎理論支持下,為解決某些應用,而誘發出的自然結果。
(4)與傳統計算技術的介面不成熟。人工神經網路技術決不能全面替代傳統計算技術,而只能在某些方面與之互補,從而需要進一步解決與傳統計算技術的介面問題,才能獲得自身的發展。
雖然人工神經網路目前存在諸多不足,但是神經網路和傳統專家系統相結合的智能故障診斷技術仍將是以後研究與應用的熱點。它最大限度地發揮兩者的優勢。神經網路擅長數值計算,適合進行淺層次的經驗推理;專家系統的特點是符號推理,適合進行深層次的邏輯推理。智能系統以並行工作方式運行,既擴大了狀態監測和故障診斷的范圍,又可滿足狀態監測和故障診斷的實時性要求。既強調符號推理,又注重數值計算,因此能適應當前故障診斷系統的基本特徵和發展趨勢。隨著人工神經網路的不斷發展與完善,它將在智能故障診斷中得到廣泛的應用。
根據神經網路上述的各類優缺點,目前有將神經網路與傳統的專家系統結合起來的研究傾向,建造所謂的神經網路專家系統。理論分析與使用實踐表明,神經網路專家系統較好地結合了兩者的優點而得到更廣泛的研究和應用。
離心式製冷壓縮機的構造和工作原理與離心式鼓風機極為相似。但它的工作原理與活塞式壓縮機有根本的區別,它不是利用汽缸容積減小的方式來提高汽體的壓力,而是依靠動能的變化來提高汽體壓力。離心式壓縮機具有帶葉片的工作輪,當工作輪轉動時,葉片就帶動汽體運動或者使汽體得到動能,然後使部分動能轉化為壓力能從而提高汽體的壓力。這種壓縮機由於它工作時不斷地將製冷劑蒸汽吸入,又不斷地沿半徑方向被甩出去,所以稱這種型式的壓縮機為離心式壓縮機。其中根據壓縮機中安裝的工作輪數量的多少,分為單級式和多級式。如果只有一個工作輪,就稱為單級離心式壓縮機,如果是由幾個工作輪串聯而組成,就稱為多級離心式壓縮機。在空調中,由於壓力增高較少,所以一般都是採用單級,其它方面所用的離心式製冷壓縮機大都是多級的。單級離心式製冷壓縮機的構造主要由工作輪、擴壓器和蝸殼等所組成。 壓縮機工作時製冷劑蒸汽由吸汽口軸向進入吸汽室,並在吸汽室的導流作用引導由蒸發器(或中間冷卻器)來的製冷劑蒸汽均勻地進入高速旋轉的工作輪3(工作輪也稱葉輪,它是離心式製冷壓縮機的重要部件,因為只有通過工作輪才能將能量傳給汽體)。汽體在葉片作用下,一邊跟著工作輪作高速旋轉,一邊由於受離心力的作用,在葉片槽道中作擴壓流動,從而使汽體的壓力和速度都得到提高。由工作輪出來的汽體再進入截面積逐漸擴大的擴壓器4(因為汽體從工作輪流出時具有較高的流速,擴壓器便把動能部分地轉化為壓力能,從而提高汽體的壓力)。汽體流過擴壓器時速度減小,而壓力則進一步提高。經擴壓器後汽體匯集到蝸殼中,再經排氣口引導至中間冷卻器或冷凝器中。
二、離心式製冷壓縮機的特點與特性
離心式製冷壓縮機與活塞式製冷壓縮機相比較,具有下列優點:
(1)單機製冷量大,在製冷量相同時它的體積小,佔地面積少,重量較活塞式輕5~8倍。
(2)由於它沒有汽閥活塞環等易損部件,又沒有曲柄連桿機構,因而工作可靠、運轉平穩、噪音小、操作簡單、維護費用低。
(3)工作輪和機殼之間沒有摩擦,無需潤滑。故製冷劑蒸汽與潤滑油不接觸,從而提高了蒸發器和冷凝器的傳熱性能。
(4)能經濟方便的調節製冷量且調節的范圍較大。
(5)對製冷劑的適應性差,一台結構一定的離心式製冷壓縮機只能適應一種製冷劑。
(6)由於適宜採用分子量比較大的製冷劑,故只適用於大製冷量,一般都在25~30萬大卡/時以上。如製冷量太少,則要求流量小,流道窄,從而使流動阻力大,效率低。但近年來經過不斷改進,用於空調的離心式製冷壓縮機,單機製冷量可以小到10萬大卡/時左右。
製冷與冷凝溫度、蒸發溫度的關系。
由物理學可知,回轉體的動量矩的變化等於外力矩,則
T=m(C2UR2-C1UR1)
兩邊都乘以角速度ω,得
Tω=m(C2UωR2-C1UωR1)
也就是說主軸上的外加功率N為:
N=m(U2C2U-U1C1U)
上式兩邊同除以m則得葉輪給予單位質量製冷劑蒸汽的功即葉輪的理論能量頭。 U2 C2
ω2 C2U R1 R2 ω1 C1 U1 C2r β 離心式製冷壓縮機的特性是指理論能量頭與流量之間變化關系,也可以表示成製冷
W=U2C2U-U1C1U≈U2C2U
(因為進口C1U≈0)
又C2U=U2-C2rctgβ C2r=Vυ1/(A2υ2)
故有
W= U22(1-
Vυ1
ctgβ)
A2υ2U2
式中:V—葉輪吸入蒸汽的容積流量(m3/s)
υ1υ2 ——分別為葉輪入口和出口處的蒸汽比容(m3/kg)
A2、U2—葉輪外緣出口面積(m2)與圓周速度(m/s)
β—葉片安裝角
由上式可見,理論能量頭W與壓縮機結構、轉速、冷凝溫度、蒸發溫度及葉輪吸入蒸汽容積流量有關。對於結構一定、轉速一定的壓縮機來說,U2、A2、β皆為常量,則理論能量頭W僅與流量V、蒸發溫度、冷凝溫度有關。
按照離心式製冷壓縮機的特性,宜採用分子量比較大的製冷劑,目前離心式製冷機所用的製冷劑有F—11、F—12、F—22、F—113和F—114等。我國目前在空調用離心式壓縮機中應用得最廣泛的是F—11和F—12,且通常是在蒸發溫度不太低和大製冷量的情況下,選用離心式製冷壓縮機。此外,在石油化學工業中離心式的製冷壓縮機則採用丙烯、乙烯作為製冷劑,只有製冷量特別大的離心式壓縮機才用氨作為製冷劑。
三、離心式製冷壓縮機的調節
離心式製冷壓縮機和其它製冷設備共同構成一個能量供給與消耗的統一系統。製冷機組在運行時,只有當通過壓縮機的製冷劑的流量與通過設備的流量相等時,以及壓縮機所產生的能量頭與製冷設備的阻力相適應時,製冷系統的工況才能保持穩定。但是製冷機的負荷總是隨外界條件與用戶對冷量的使用情況而變化的,因此為了適應用戶對冷負荷變化的需要和安全經濟運行,就需要根據外界的變化對製冷機組進行調節,離心式製冷機組製冷量的調節有:1°改變壓縮機的轉速;2°採用可轉動的進口導葉;3°改變冷凝器的進水量;4°進汽節流等幾種方式,其中最常用的是轉動進口導葉調節和進汽節流兩種調節方法。所謂轉動進口導葉調節,就是轉動壓縮機進口處的導流葉片以使進入到葉輪去的汽體產生旋繞,從而使工作輪加給汽體的動能發生變化來調節製冷量。所謂進汽節流調節,就是在壓縮機前的進汽管道上安裝一個調節閥,如要改變壓縮機的工況時,就調節閥門的大小,通過節流使壓縮機進口的壓力降低,從而實現調節製冷量。離心式壓縮機製冷量的調節最經濟有效的方法就是改變進口導葉角度,以改變蒸汽進入葉輪的速度方向(C1U)和流量V。但流量V必須控制在穩定工作范圍內,以免效率下降。
H. BP神經網路的核心問題是什麼其優缺點有哪些
人工神經網路,是一種旨在模仿人腦結構及其功能的信息處理系統,就是使用人工神經網路方法實現模式識別.可處理一些環境信息十分復雜,背景知識不清楚,推理規則不明確的問題,神經網路方法允許樣品有較大的缺損和畸變.神經網路的類型很多,建立神經網路模型時,根據研究對象的特點,可以考慮不同的神經網路模型. 前饋型BP網路,即誤差逆傳播神經網路是最常用,最流行的神經網路.BP網路的輸入和輸出關系可以看成是一種映射關系,即每一組輸入對應一組輸出.BP演算法是最著名的多層前向網路訓練演算法,盡管存在收斂速度慢,局部極值等缺點,但可通過各種改進措施來提高它的收斂速度,克服局部極值現象,而且具有簡單,易行,計算量小,並行性強等特點,目前仍是多層前向網路的首選演算法.
多層前向BP網路的優點:
網路實質上實現了一個從輸入到輸出的映射功能,而數學理論已證明它具有實現任何復雜非線性映射的功能。這使得它特別適合於求解內部機制復雜的問題;
網路能通過學習帶正確答案的實例集自動提取「合理的」求解規則,即具有自學習能力;
網路具有一定的推廣、概括能力。
多層前向BP網路的問題:
從數學角度看,BP演算法為一種局部搜索的優化方法,但它要解決的問題為求解復雜非線性函數的全局極值,因此,演算法很有可能陷入局部極值,使訓練失敗;
網路的逼近、推廣能力同學習樣本的典型性密切相關,而從問題中選取典型樣本實例組成訓練集是一個很困難的問題。
難以解決應用問題的實例規模和網路規模間的矛盾。這涉及到網路容量的可能性與可行性的關系問題,即學習復雜性問題;
網路結構的選擇尚無一種統一而完整的理論指導,一般只能由經驗選定。為此,有人稱神經網路的結構選擇為一種藝術。而網路的結構直接影響網路的逼近能力及推廣性質。因此,應用中如何選擇合適的網路結構是一個重要的問題;
新加入的樣本要影響已學習成功的網路,而且刻畫每個輸入樣本的特徵的數目也必須相同;
網路的預測能力(也稱泛化能力、推廣能力)與訓練能力(也稱逼近能力、學習能力)的矛盾。一般情況下,訓練能力差時,預測能力也差,並且一定程度上,隨訓練能力地提高,預測能力也提高。但這種趨勢有一個極限,當達到此極限時,隨訓練能力的提高,預測能力反而下降,即出現所謂「過擬合」現象。此時,網路學習了過多的樣本細節,而不能反映樣本內含的規律
由於BP演算法本質上為梯度下降法,而它所要優化的目標函數又非常復雜,因此,必然會出現「鋸齒形現象」,這使得BP演算法低效;
存在麻痹現象,由於優化的目標函數很復雜,它必然會在神經元輸出接近0或1的情況下,出現一些平坦區,在這些區域內,權值誤差改變很小,使訓練過程幾乎停頓;
為了使網路執行BP演算法,不能用傳統的一維搜索法求每次迭代的步長,而必須把步長的更新規則預先賦予網路,這種方法將引起演算法低效。
I. BP神經網路都能解決什
這是神經網路本身的特性,改變不了,如果覺得結果波動太大可以多次試驗取平均