HOME 首頁(yè)
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營(yíng)
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)(如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)系統(tǒng))

    發(fā)布時(shí)間:2023-04-14 13:35:58     稿源: 創(chuàng)意嶺    閱讀: 122        

    大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。

    開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)(如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)系統(tǒng))

    一、設(shè)計(jì)一個(gè)簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)識(shí)別 matlab源程序

    神經(jīng)網(wǎng)絡(luò)的是我的畢業(yè)論文的一部分

    4.人工神經(jīng)網(wǎng)絡(luò)

    人的思維有邏輯性和直觀性兩種不同的基本方式。邏輯性的思維是指根據(jù)邏輯規(guī)則進(jìn)行推理的過(guò)程;它先將信息化成概念,并用符號(hào)表示,然后,根據(jù)符號(hào)運(yùn)算按串行模式進(jìn)行邏輯推理。這一過(guò)程可以寫(xiě)成串行的指令,讓計(jì)算機(jī)執(zhí)行。然而,直觀性的思維是將分布式存儲(chǔ)的信息綜合起來(lái),結(jié)果是忽然間產(chǎn)生想法或解決問(wèn)題的辦法。這種思維方式的根本之點(diǎn)在于以下兩點(diǎn):1.信息是通過(guò)神經(jīng)元上的興奮模式分布在網(wǎng)絡(luò)上;2.信息處理是通過(guò)神經(jīng)元之間同時(shí)相互作用的動(dòng)態(tài)過(guò)程來(lái)完成的。

    人工神經(jīng)網(wǎng)絡(luò)就是模擬人思維的第二種方式。這是一個(gè)非線性動(dòng)力學(xué)系統(tǒng),其特色在于信息的分布式存儲(chǔ)和并行協(xié)同處理。雖然單個(gè)神經(jīng)元的結(jié)構(gòu)極其簡(jiǎn)單,功能有限,但大量神經(jīng)元構(gòu)成的網(wǎng)絡(luò)系統(tǒng)所能實(shí)現(xiàn)的行為卻是極其豐富多彩的。

    4.1人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的原理

    人工神經(jīng)網(wǎng)絡(luò)首先要以一定的學(xué)習(xí)準(zhǔn)則進(jìn)行學(xué)習(xí),然后才能工作?,F(xiàn)以人工神經(jīng)網(wǎng)絡(luò)對(duì)手寫(xiě)“A”、“B”兩個(gè)字母的識(shí)別為例進(jìn)行說(shuō)明,規(guī)定當(dāng)“A”輸入網(wǎng)絡(luò)時(shí),應(yīng)該輸出“1”,而當(dāng)輸入為“B”時(shí),輸出為“0”。

    所以網(wǎng)絡(luò)學(xué)習(xí)的準(zhǔn)則應(yīng)該是:如果網(wǎng)絡(luò)做出錯(cuò)誤的判決,則通過(guò)網(wǎng)絡(luò)的學(xué)習(xí),應(yīng)使得網(wǎng)絡(luò)減少下次犯同樣錯(cuò)誤的可能性。首先,給網(wǎng)絡(luò)的各連接權(quán)值賦予(0,1)區(qū)間內(nèi)的隨機(jī)值,將“A”所對(duì)應(yīng)的圖像模式輸入給網(wǎng)絡(luò),網(wǎng)絡(luò)將輸入模式加權(quán)求和、與門(mén)限比較、再進(jìn)行非線性運(yùn)算,得到網(wǎng)絡(luò)的輸出。在此情況下,網(wǎng)絡(luò)輸出為“1”和“0”的概率各為50%,也就是說(shuō)是完全隨機(jī)的。這時(shí)如果輸出為“1”(結(jié)果正確),則使連接權(quán)值增大,以便使網(wǎng)絡(luò)再次遇到“A”模式輸入時(shí),仍然能做出正確的判斷。

    如果輸出為“0”(即結(jié)果錯(cuò)誤),則把網(wǎng)絡(luò)連接權(quán)值朝著減小綜合輸入加權(quán)值的方向調(diào)整,其目的在于使網(wǎng)絡(luò)下次再遇到“A”模式輸入時(shí),減小犯同樣錯(cuò)誤的可能性。如此操作調(diào)整,當(dāng)給網(wǎng)絡(luò)輪番輸入若干個(gè)手寫(xiě)字母“A”、“B”后,經(jīng)過(guò)網(wǎng)絡(luò)按以上學(xué)習(xí)方法進(jìn)行若干次學(xué)習(xí)后,網(wǎng)絡(luò)判斷的正確率將大大提高。這說(shuō)明網(wǎng)絡(luò)對(duì)這兩個(gè)模式的學(xué)習(xí)已經(jīng)獲得了成功,它已將這兩個(gè)模式分布地記憶在網(wǎng)絡(luò)的各個(gè)連接權(quán)值上。當(dāng)網(wǎng)絡(luò)再次遇到其中任何一個(gè)模式時(shí),能夠做出迅速、準(zhǔn)確的判斷和識(shí)別。一般說(shuō)來(lái),網(wǎng)絡(luò)中所含的神經(jīng)元個(gè)數(shù)越多,則它能記憶、識(shí)別的模式也就越多。

    4.2人工神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)

    人工神經(jīng)網(wǎng)絡(luò)由于模擬了大腦神經(jīng)元的組織方式而具有了人腦功能的一些基本特征,為人工智能的研究開(kāi)辟了新的途徑,神經(jīng)網(wǎng)絡(luò)具有的優(yōu)點(diǎn)在于:

    (1)并行分布性處理

    因?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)中的神經(jīng)元排列并不是雜亂無(wú)章的,往往是分層或以一種有規(guī)律的序列排列,信號(hào)可以同時(shí)到達(dá)一批神經(jīng)元的輸入端,這種結(jié)構(gòu)非常適合并行計(jì)算。同時(shí)如果將每一個(gè)神經(jīng)元看作是一個(gè)小的處理單元,則整個(gè)系統(tǒng)可以是一個(gè)分布式計(jì)算系統(tǒng),這樣就避免了以往的“匹配沖突”,“組合爆炸”和“無(wú)窮遞歸”等題,推理速度快。

    (2)可學(xué)習(xí)性

    一個(gè)相對(duì)很小的人工神經(jīng)網(wǎng)絡(luò)可存儲(chǔ)大量的專家知識(shí),并且能根據(jù)學(xué)習(xí)算法,或者利用樣本指導(dǎo)系統(tǒng)來(lái)模擬現(xiàn)實(shí)環(huán)境(稱為有教師學(xué)習(xí)),或者對(duì)輸入進(jìn)行自適應(yīng)學(xué)習(xí)(稱為無(wú)教師學(xué)習(xí)),不斷地自動(dòng)學(xué)習(xí),完善知識(shí)的存儲(chǔ)。

    (3)魯棒性和容錯(cuò)性

    由于采用大量的神經(jīng)元及其相互連接,具有聯(lián)想記憶與聯(lián)想映射能力,可以增強(qiáng)專家系統(tǒng)的容錯(cuò)能力,人工神經(jīng)網(wǎng)絡(luò)中少量的神經(jīng)元發(fā)生失效或錯(cuò)誤,不會(huì)對(duì)系統(tǒng)整體功能帶來(lái)嚴(yán)重的影響。而且克服了傳統(tǒng)專家系統(tǒng)中存在的“知識(shí)窄臺(tái)階”問(wèn)題。

    (4)泛化能力

    人工神經(jīng)網(wǎng)絡(luò)是一類大規(guī)模的非線形系統(tǒng),這就提供了系統(tǒng)自組織和協(xié)同的潛力。它能充分逼近復(fù)雜的非線形關(guān)系。當(dāng)輸入發(fā)生較小變化,其輸出能夠與原輸入產(chǎn)生的輸出保持相當(dāng)小的差距。

    (5)具有統(tǒng)一的內(nèi)部知識(shí)表示形式,任何知識(shí)規(guī)則都可以通過(guò)對(duì)范例的學(xué)習(xí)存儲(chǔ)于同一個(gè)神經(jīng)網(wǎng)絡(luò)的各連接權(quán)值中,便于知識(shí)庫(kù)的組織管理,通用性強(qiáng)。

    雖然人工神經(jīng)網(wǎng)絡(luò)有很多優(yōu)點(diǎn),但基于其固有的內(nèi)在機(jī)理,人工神經(jīng)網(wǎng)絡(luò)也不可避免的存在自己的弱點(diǎn):

    (1)最嚴(yán)重的問(wèn)題是沒(méi)能力來(lái)解釋自己的推理過(guò)程和推理依據(jù)。

    (2)神經(jīng)網(wǎng)絡(luò)不能向用戶提出必要的詢問(wèn),而且當(dāng)數(shù)據(jù)不充分的時(shí)候,神經(jīng)網(wǎng)絡(luò)就無(wú)法進(jìn)行工作。

    (3)神經(jīng)網(wǎng)絡(luò)把一切問(wèn)題的特征都變?yōu)閿?shù)字,把一切推理都變?yōu)閿?shù)值計(jì)算,其結(jié)果勢(shì)必是丟失信息。

    (4)神經(jīng)網(wǎng)絡(luò)的理論和學(xué)習(xí)算法還有待于進(jìn)一步完善和提高。

    4.3神經(jīng)網(wǎng)絡(luò)的發(fā)展趨勢(shì)及在柴油機(jī)故障診斷中的可行性

    神經(jīng)網(wǎng)絡(luò)為現(xiàn)代復(fù)雜大系統(tǒng)的狀態(tài)監(jiān)測(cè)和故障診斷提供了全新的理論方法和技術(shù)實(shí)現(xiàn)手段。神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)是一類新的知識(shí)表達(dá)體系,與傳統(tǒng)專家系統(tǒng)的高層邏輯模型不同,它是一種低層數(shù)值模型,信息處理是通過(guò)大量的簡(jiǎn)單處理元件(結(jié)點(diǎn)) 之間的相互作用而進(jìn)行的。由于它的分布式信息保持方式,為專家系統(tǒng)知識(shí)的獲取與表達(dá)以及推理提供了全新的方式。它將邏輯推理與數(shù)值運(yùn)算相結(jié)合,利用神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)功能、聯(lián)想記憶功能、分布式并行信息處理功能,解決診斷系統(tǒng)中的不確定性知識(shí)表示、獲取和并行推理等問(wèn)題。通過(guò)對(duì)經(jīng)驗(yàn)樣本的學(xué)習(xí),將專家知識(shí)以權(quán)值和閾值的形式存儲(chǔ)在網(wǎng)絡(luò)中,并且利用網(wǎng)絡(luò)的信息保持性來(lái)完成不精確診斷推理,較好地模擬了專家憑經(jīng)驗(yàn)、直覺(jué)而不是復(fù)雜的計(jì)算的推理過(guò)程。

    但是,該技術(shù)是一個(gè)多學(xué)科知識(shí)交叉應(yīng)用的領(lǐng)域,是一個(gè)不十分成熟的學(xué)科。一方面,裝備的故障相當(dāng)復(fù)雜;另一方面,人工神經(jīng)網(wǎng)絡(luò)本身尚有諸多不足之處:

    (1)受限于腦科學(xué)的已有研究成果。由于生理實(shí)驗(yàn)的困難性,目前對(duì)于人腦思維與記憶機(jī)制的認(rèn)識(shí)還很膚淺。

    (2)尚未建立起完整成熟的理論體系。目前已提出了眾多的人工神經(jīng)網(wǎng)絡(luò)模型,歸納起來(lái),這些模型一般都是一個(gè)由結(jié)點(diǎn)及其互連構(gòu)成的有向拓?fù)渚W(wǎng),結(jié)點(diǎn)間互連強(qiáng)度所構(gòu)成的矩陣,可通過(guò)某種學(xué)習(xí)策略建立起來(lái)。但僅這一共性,不足以構(gòu)成一個(gè)完整的體系。這些學(xué)習(xí)策略大多是各行其是而無(wú)法統(tǒng)一于一個(gè)完整的框架之中。

    (3)帶有濃厚的策略色彩。這是在沒(méi)有統(tǒng)一的基礎(chǔ)理論支持下,為解決某些應(yīng)用,而誘發(fā)出的自然結(jié)果。

    (4)與傳統(tǒng)計(jì)算技術(shù)的接口不成熟。人工神經(jīng)網(wǎng)絡(luò)技術(shù)決不能全面替代傳統(tǒng)計(jì)算技術(shù),而只能在某些方面與之互補(bǔ),從而需要進(jìn)一步解決與傳統(tǒng)計(jì)算技術(shù)的接口問(wèn)題,才能獲得自身的發(fā)展。

    雖然人工神經(jīng)網(wǎng)絡(luò)目前存在諸多不足,但是神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)專家系統(tǒng)相結(jié)合的智能故障診斷技術(shù)仍將是以后研究與應(yīng)用的熱點(diǎn)。它最大限度地發(fā)揮兩者的優(yōu)勢(shì)。神經(jīng)網(wǎng)絡(luò)擅長(zhǎng)數(shù)值計(jì)算,適合進(jìn)行淺層次的經(jīng)驗(yàn)推理;專家系統(tǒng)的特點(diǎn)是符號(hào)推理,適合進(jìn)行深層次的邏輯推理。智能系統(tǒng)以并行工作方式運(yùn)行,既擴(kuò)大了狀態(tài)監(jiān)測(cè)和故障診斷的范圍,又可滿足狀態(tài)監(jiān)測(cè)和故障診斷的實(shí)時(shí)性要求。既強(qiáng)調(diào)符號(hào)推理,又注重?cái)?shù)值計(jì)算,因此能適應(yīng)當(dāng)前故障診斷系統(tǒng)的基本特征和發(fā)展趨勢(shì)。隨著人工神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展與完善,它將在智能故障診斷中得到廣泛的應(yīng)用。

    根據(jù)神經(jīng)網(wǎng)絡(luò)上述的各類優(yōu)缺點(diǎn),目前有將神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)的專家系統(tǒng)結(jié)合起來(lái)的研究?jī)A向,建造所謂的神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)。理論分析與使用實(shí)踐表明,神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)較好地結(jié)合了兩者的優(yōu)點(diǎn)而得到更廣泛的研究和應(yīng)用。

    離心式制冷壓縮機(jī)的構(gòu)造和工作原理與離心式鼓風(fēng)機(jī)極為相似。但它的工作原理與活塞式壓縮機(jī)有根本的區(qū)別,它不是利用汽缸容積減小的方式來(lái)提高汽體的壓力,而是依靠動(dòng)能的變化來(lái)提高汽體壓力。離心式壓縮機(jī)具有帶葉片的工作輪,當(dāng)工作輪轉(zhuǎn)動(dòng)時(shí),葉片就帶動(dòng)汽體運(yùn)動(dòng)或者使汽體得到動(dòng)能,然后使部分動(dòng)能轉(zhuǎn)化為壓力能從而提高汽體的壓力。這種壓縮機(jī)由于它工作時(shí)不斷地將制冷劑蒸汽吸入,又不斷地沿半徑方向被甩出去,所以稱這種型式的壓縮機(jī)為離心式壓縮機(jī)。其中根據(jù)壓縮機(jī)中安裝的工作輪數(shù)量的多少,分為單級(jí)式和多級(jí)式。如果只有一個(gè)工作輪,就稱為單級(jí)離心式壓縮機(jī),如果是由幾個(gè)工作輪串聯(lián)而組成,就稱為多級(jí)離心式壓縮機(jī)。在空調(diào)中,由于壓力增高較少,所以一般都是采用單級(jí),其它方面所用的離心式制冷壓縮機(jī)大都是多級(jí)的。單級(jí)離心式制冷壓縮機(jī)的構(gòu)造主要由工作輪、擴(kuò)壓器和蝸殼等所組成。 壓縮機(jī)工作時(shí)制冷劑蒸汽由吸汽口軸向進(jìn)入吸汽室,并在吸汽室的導(dǎo)流作用引導(dǎo)由蒸發(fā)器(或中間冷卻器)來(lái)的制冷劑蒸汽均勻地進(jìn)入高速旋轉(zhuǎn)的工作輪3(工作輪也稱葉輪,它是離心式制冷壓縮機(jī)的重要部件,因?yàn)橹挥型ㄟ^(guò)工作輪才能將能量傳給汽體)。汽體在葉片作用下,一邊跟著工作輪作高速旋轉(zhuǎn),一邊由于受離心力的作用,在葉片槽道中作擴(kuò)壓流動(dòng),從而使汽體的壓力和速度都得到提高。由工作輪出來(lái)的汽體再進(jìn)入截面積逐漸擴(kuò)大的擴(kuò)壓器4(因?yàn)槠w從工作輪流出時(shí)具有較高的流速,擴(kuò)壓器便把動(dòng)能部分地轉(zhuǎn)化為壓力能,從而提高汽體的壓力)。汽體流過(guò)擴(kuò)壓器時(shí)速度減小,而壓力則進(jìn)一步提高。經(jīng)擴(kuò)壓器后汽體匯集到蝸殼中,再經(jīng)排氣口引導(dǎo)至中間冷卻器或冷凝器中。

    二、離心式制冷壓縮機(jī)的特點(diǎn)與特性

    離心式制冷壓縮機(jī)與活塞式制冷壓縮機(jī)相比較,具有下列優(yōu)點(diǎn):

    (1)單機(jī)制冷量大,在制冷量相同時(shí)它的體積小,占地面積少,重量較活塞式輕5~8倍。

    (2)由于它沒(méi)有汽閥活塞環(huán)等易損部件,又沒(méi)有曲柄連桿機(jī)構(gòu),因而工作可靠、運(yùn)轉(zhuǎn)平穩(wěn)、噪音小、操作簡(jiǎn)單、維護(hù)費(fèi)用低。

    (3)工作輪和機(jī)殼之間沒(méi)有摩擦,無(wú)需潤(rùn)滑。故制冷劑蒸汽與潤(rùn)滑油不接觸,從而提高了蒸發(fā)器和冷凝器的傳熱性能。

    (4)能經(jīng)濟(jì)方便的調(diào)節(jié)制冷量且調(diào)節(jié)的范圍較大。

    (5)對(duì)制冷劑的適應(yīng)性差,一臺(tái)結(jié)構(gòu)一定的離心式制冷壓縮機(jī)只能適應(yīng)一種制冷劑。

    (6)由于適宜采用分子量比較大的制冷劑,故只適用于大制冷量,一般都在25~30萬(wàn)大卡/時(shí)以上。如制冷量太少,則要求流量小,流道窄,從而使流動(dòng)阻力大,效率低。但近年來(lái)經(jīng)過(guò)不斷改進(jìn),用于空調(diào)的離心式制冷壓縮機(jī),單機(jī)制冷量可以小到10萬(wàn)大卡/時(shí)左右。

    制冷與冷凝溫度、蒸發(fā)溫度的關(guān)系。

    由物理學(xué)可知,回轉(zhuǎn)體的動(dòng)量矩的變化等于外力矩,則

    T=m(C2UR2-C1UR1)

    兩邊都乘以角速度ω,得

    Tω=m(C2UωR2-C1UωR1)

    也就是說(shuō)主軸上的外加功率N為:

    N=m(U2C2U-U1C1U)

    上式兩邊同除以m則得葉輪給予單位質(zhì)量制冷劑蒸汽的功即葉輪的理論能量頭。 U2 C2

    ω2 C2U R1 R2 ω1 C1 U1 C2r β 離心式制冷壓縮機(jī)的特性是指理論能量頭與流量之間變化關(guān)系,也可以表示成制冷

    W=U2C2U-U1C1U≈U2C2U

    (因?yàn)檫M(jìn)口C1U≈0)

    又C2U=U2-C2rctgβ C2r=Vυ1/(A2υ2)

    故有

    W= U22(1-

    Vυ1

    ctgβ)

    A2υ2U2

    式中:V—葉輪吸入蒸汽的容積流量(m3/s)

    υ1υ2 ——分別為葉輪入口和出口處的蒸汽比容(m3/kg)

    A2、U2—葉輪外緣出口面積(m2)與圓周速度(m/s)

    β—葉片安裝角

    由上式可見(jiàn),理論能量頭W與壓縮機(jī)結(jié)構(gòu)、轉(zhuǎn)速、冷凝溫度、蒸發(fā)溫度及葉輪吸入蒸汽容積流量有關(guān)。對(duì)于結(jié)構(gòu)一定、轉(zhuǎn)速一定的壓縮機(jī)來(lái)說(shuō),U2、A2、β皆為常量,則理論能量頭W僅與流量V、蒸發(fā)溫度、冷凝溫度有關(guān)。

    按照離心式制冷壓縮機(jī)的特性,宜采用分子量比較大的制冷劑,目前離心式制冷機(jī)所用的制冷劑有F—11、F—12、F—22、F—113和F—114等。我國(guó)目前在空調(diào)用離心式壓縮機(jī)中應(yīng)用得最廣泛的是F—11和F—12,且通常是在蒸發(fā)溫度不太低和大制冷量的情況下,選用離心式制冷壓縮機(jī)。此外,在石油化學(xué)工業(yè)中離心式的制冷壓縮機(jī)則采用丙烯、乙烯作為制冷劑,只有制冷量特別大的離心式壓縮機(jī)才用氨作為制冷劑。

    三、離心式制冷壓縮機(jī)的調(diào)節(jié)

    離心式制冷壓縮機(jī)和其它制冷設(shè)備共同構(gòu)成一個(gè)能量供給與消耗的統(tǒng)一系統(tǒng)。制冷機(jī)組在運(yùn)行時(shí),只有當(dāng)通過(guò)壓縮機(jī)的制冷劑的流量與通過(guò)設(shè)備的流量相等時(shí),以及壓縮機(jī)所產(chǎn)生的能量頭與制冷設(shè)備的阻力相適應(yīng)時(shí),制冷系統(tǒng)的工況才能保持穩(wěn)定。但是制冷機(jī)的負(fù)荷總是隨外界條件與用戶對(duì)冷量的使用情況而變化的,因此為了適應(yīng)用戶對(duì)冷負(fù)荷變化的需要和安全經(jīng)濟(jì)運(yùn)行,就需要根據(jù)外界的變化對(duì)制冷機(jī)組進(jìn)行調(diào)節(jié),離心式制冷機(jī)組制冷量的調(diào)節(jié)有:1°改變壓縮機(jī)的轉(zhuǎn)速;2°采用可轉(zhuǎn)動(dòng)的進(jìn)口導(dǎo)葉;3°改變冷凝器的進(jìn)水量;4°進(jìn)汽節(jié)流等幾種方式,其中最常用的是轉(zhuǎn)動(dòng)進(jìn)口導(dǎo)葉調(diào)節(jié)和進(jìn)汽節(jié)流兩種調(diào)節(jié)方法。所謂轉(zhuǎn)動(dòng)進(jìn)口導(dǎo)葉調(diào)節(jié),就是轉(zhuǎn)動(dòng)壓縮機(jī)進(jìn)口處的導(dǎo)流葉片以使進(jìn)入到葉輪去的汽體產(chǎn)生旋繞,從而使工作輪加給汽體的動(dòng)能發(fā)生變化來(lái)調(diào)節(jié)制冷量。所謂進(jìn)汽節(jié)流調(diào)節(jié),就是在壓縮機(jī)前的進(jìn)汽管道上安裝一個(gè)調(diào)節(jié)閥,如要改變壓縮機(jī)的工況時(shí),就調(diào)節(jié)閥門(mén)的大小,通過(guò)節(jié)流使壓縮機(jī)進(jìn)口的壓力降低,從而實(shí)現(xiàn)調(diào)節(jié)制冷量。離心式壓縮機(jī)制冷量的調(diào)節(jié)最經(jīng)濟(jì)有效的方法就是改變進(jìn)口導(dǎo)葉角度,以改變蒸汽進(jìn)入葉輪的速度方向(C1U)和流量V。但流量V必須控制在穩(wěn)定工作范圍內(nèi),以免效率下降。

    二、一文讀懂神經(jīng)網(wǎng)絡(luò)

    要說(shuō)近幾年最引人注目的技術(shù),無(wú)疑的,非人工智能莫屬。無(wú)論你是否身處科技互聯(lián)網(wǎng)行業(yè),隨處可見(jiàn)人工智能的身影:從 AlphaGo 擊敗世界圍棋冠軍,到無(wú)人駕駛概念的興起,再到科技巨頭 All in AI,以及各大高校向社會(huì)輸送海量的人工智能專業(yè)的畢業(yè)生。以至于人們開(kāi)始萌生一個(gè)想法:新的革命就要來(lái)了,我們的世界將再次發(fā)生一次巨變;而后開(kāi)始焦慮:我的工作是否會(huì)被機(jī)器取代?我該如何才能抓住這次革命?

    人工智能背后的核心技術(shù)是深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network),大概是一年前這個(gè)時(shí)候,我正在回老家的高鐵上學(xué)習(xí) 3Blue1Brown 的 Neural Network 系列視頻課程,短短 4 集 60 多分鐘的時(shí)間,就把神經(jīng)網(wǎng)絡(luò)從 High Level 到推導(dǎo)細(xì)節(jié)說(shuō)得清清楚楚,當(dāng)時(shí)的我除了獲得新知的興奮之外,還有一點(diǎn)新的認(rèn)知,算是給頭腦中的革命性的技術(shù)潑了盆冷水:神經(jīng)網(wǎng)絡(luò)可以解決一些復(fù)雜的、以前很難通過(guò)寫(xiě)程序來(lái)完成的任務(wù)——例如圖像、語(yǔ)音識(shí)別等,但它的實(shí)現(xiàn)機(jī)制告訴我,神經(jīng)網(wǎng)絡(luò)依然沒(méi)有達(dá)到生物級(jí)別的智能,短期內(nèi)期待它來(lái)取代人也是不可能的。

    一年后的今天,依然在這個(gè)春運(yùn)的時(shí)間點(diǎn),將我對(duì)神經(jīng)網(wǎng)絡(luò)的理解寫(xiě)下來(lái),算是對(duì)這部分知識(shí)的一個(gè)學(xué)習(xí)筆記,運(yùn)氣好的話,還可以讓不了解神經(jīng)網(wǎng)絡(luò)的同學(xué)了解起來(lái)。

    維基百科這樣解釋 神經(jīng)網(wǎng)絡(luò) :

    這個(gè)定義比較寬泛,你甚至還可以用它來(lái)定義其它的機(jī)器學(xué)習(xí)算法,例如之前我們一起學(xué)習(xí)的邏輯回歸和 GBDT 決策樹(shù)。下面我們具體一點(diǎn),下圖是一個(gè)邏輯回歸的示意圖:

    其中 x1 和 x2 表示輸入,w1 和 w2 是模型的參數(shù),z 是一個(gè)線性函數(shù):

    接著我們對(duì) z 做一個(gè) sigmod 變換(圖中藍(lán)色圓),得到輸出 y:

    其實(shí),上面的邏輯回歸就可以看成是一個(gè)只有 1 層 輸入層 , 1 層 輸出層 的神經(jīng)網(wǎng)絡(luò),圖中容納數(shù)字的圈兒被稱作 神經(jīng)元 ;其中,層與層之間的連接 w1、w2 以及 b,是這個(gè) 神經(jīng)網(wǎng)絡(luò)的參數(shù) ,層之間如果每個(gè)神經(jīng)元之間都保持著連接,這樣的層被稱為 全連接層 (Full Connection Layer),或 稠密層 (Dense Layer);此外,sigmoid 函數(shù)又被稱作 激活函數(shù) (Activation Function),除了 sigmoid 外,常用的激活函數(shù)還有 ReLU、tanh 函數(shù)等,這些函數(shù)都起到將線性函數(shù)進(jìn)行非線性變換的作用。我們還剩下一個(gè)重要的概念: 隱藏層 ,它需要把 2 個(gè)以上的邏輯回歸疊加起來(lái)加以說(shuō)明:

    如上圖所示,除輸入層和輸出層以外,其他的層都叫做 隱藏層 。如果我們多疊加幾層,這個(gè)神經(jīng)網(wǎng)絡(luò)又可以被稱作 深度神經(jīng)網(wǎng)絡(luò) (Deep Neural Network),有同學(xué)可能會(huì)問(wèn)多少層才算“深”呢?這個(gè)沒(méi)有絕對(duì)的定論,個(gè)人認(rèn)為 3 層以上就算吧:)

    以上,便是神經(jīng)網(wǎng)絡(luò),以及神經(jīng)網(wǎng)絡(luò)中包含的概念,可見(jiàn),神經(jīng)網(wǎng)絡(luò)并不特別,廣義上講,它就是

    可見(jiàn),神經(jīng)網(wǎng)絡(luò)和人腦神經(jīng)也沒(méi)有任何關(guān)聯(lián),如果我們說(shuō)起它的另一個(gè)名字—— 多層感知機(jī)(Mutilayer Perceptron) ,就更不會(huì)覺(jué)得有多么玄乎了,多層感知機(jī)創(chuàng)造于 80 年代,可為什么直到 30 年后的今天才爆發(fā)呢?你想得沒(méi)錯(cuò),因?yàn)楦牧藗€(gè)名字……開(kāi)個(gè)玩笑;實(shí)際上深度學(xué)習(xí)這項(xiàng)技術(shù)也經(jīng)歷過(guò)很長(zhǎng)一段時(shí)間的黑暗低谷期,直到人們開(kāi)始利用 GPU 來(lái)極大的提升訓(xùn)練模型的速度,以及幾個(gè)標(biāo)志性的事件:如 AlphaGo戰(zhàn)勝李世石、Google 開(kāi)源 TensorFlow 框架等等,感興趣的同學(xué)可以翻一下這里的歷史。

    就拿上圖中的 3 個(gè)邏輯回歸組成的神經(jīng)網(wǎng)絡(luò)作為例子,它和普通的邏輯回歸比起來(lái),有什么優(yōu)勢(shì)呢?我們先來(lái)看下單邏輯回歸有什么劣勢(shì),對(duì)于某些情況來(lái)說(shuō),邏輯回歸可能永遠(yuǎn)無(wú)法使其分類,如下面數(shù)據(jù):

    這 4 個(gè)樣本畫(huà)在坐標(biāo)系中如下圖所示

    因?yàn)檫壿嫽貧w的決策邊界(Decision Boundary)是一條直線,所以上圖中的兩個(gè)分類,無(wú)論你怎么做,都無(wú)法找到一條直線將它們分開(kāi),但如果借助神經(jīng)網(wǎng)絡(luò),就可以做到這一點(diǎn)。

    由 3 個(gè)邏輯回歸組成的網(wǎng)絡(luò)(這里先忽略 bias)如下:

    觀察整個(gè)網(wǎng)絡(luò)的計(jì)算過(guò)程,在進(jìn)入輸出層之前,該網(wǎng)絡(luò)所做的計(jì)算實(shí)際上是:

    即把輸入先做了一次線性變換(Linear Transformation),得到 [z1, z2] ,再把 [z1, z2] 做了一個(gè)非線性變換(sigmoid),得到 [x1', x2'] ,(線性變換的概念可以參考 這個(gè)視頻 )。從這里開(kāi)始,后面的操作就和一個(gè)普通的邏輯回歸沒(méi)有任何差別了,所以它們的差異在于: 我們的數(shù)據(jù)在輸入到模型之前,先做了一層特征變換處理(Feature Transformation,有時(shí)又叫做特征抽取 Feature Extraction),使之前不可能被分類的數(shù)據(jù)變得可以分類了 。

    我們繼續(xù)來(lái)看下特征變換的效果,假設(shè) 為 ,帶入上述公式,算出 4 個(gè)樣本對(duì)應(yīng)的 [x1', x2'] 如下:

    再將變換后的 4 個(gè)點(diǎn)繪制在坐標(biāo)系中:

    顯然,在做了特征變換之后,這兩個(gè)分類就可以很容易的被一條決策邊界分開(kāi)了。

    所以, 神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于,它可以幫助我們自動(dòng)的完成特征變換或特征提取 ,尤其對(duì)于聲音、圖像等復(fù)雜問(wèn)題,因?yàn)樵诿鎸?duì)這些問(wèn)題時(shí),人們很難清晰明確的告訴你,哪些特征是有用的。

    在解決特征變換的同時(shí),神經(jīng)網(wǎng)絡(luò)也引入了新的問(wèn)題,就是我們需要設(shè)計(jì)各式各樣的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)針對(duì)性的應(yīng)對(duì)不同的場(chǎng)景,例如使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)處理圖像、使用長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)來(lái)處理序列問(wèn)題、使用生成式對(duì)抗網(wǎng)絡(luò)(GAN)來(lái)寫(xiě)詩(shī)和作圖等,就連去年自然語(yǔ)言處理(NLP)中取得突破性進(jìn)展的 Transformer/Bert 也是一種特定的網(wǎng)絡(luò)結(jié)構(gòu)。所以, 學(xué)好神經(jīng)網(wǎng)絡(luò),對(duì)理解其他更高級(jí)的網(wǎng)絡(luò)結(jié)構(gòu)也是有幫助的

    上面說(shuō)了,神經(jīng)網(wǎng)絡(luò)可以看作一個(gè)非線性函數(shù),該函數(shù)的參數(shù)是連接神經(jīng)元的所有的 Weights 和 Biases,該函數(shù)可以簡(jiǎn)寫(xiě)為 f(W, B) ,以手寫(xiě)數(shù)字識(shí)別的任務(wù)作為例子:識(shí)別 MNIST 數(shù)據(jù)集 中的數(shù)字,數(shù)據(jù)集(MNIST 數(shù)據(jù)集是深度學(xué)習(xí)中的 HelloWorld)包含上萬(wàn)張不同的人寫(xiě)的數(shù)字圖片,共有 0-9 十種數(shù)字,每張圖片為 28*28=784 個(gè)像素,我們?cè)O(shè)計(jì)一個(gè)這樣的網(wǎng)絡(luò)來(lái)完成該任務(wù):

    把該網(wǎng)絡(luò)函數(shù)所具備的屬性補(bǔ)齊:

    接下來(lái)的問(wèn)題是,這個(gè)函數(shù)是如何產(chǎn)生的?這個(gè)問(wèn)題本質(zhì)上問(wèn)的是這些參數(shù)的值是怎么確定的。

    在機(jī)器學(xué)習(xí)中,有另一個(gè)函數(shù) c 來(lái)衡量 f 的好壞,c 的參數(shù)是一堆數(shù)據(jù)集,你輸入給 c 一批 Weights 和 Biases,c 輸出 Bad 或 Good,當(dāng)結(jié)果是 Bad 時(shí),你需要繼續(xù)調(diào)整 f 的 Weights 和 Biases,再次輸入給 c,如此往復(fù),直到 c 給出 Good 為止,這個(gè) c 就是損失函數(shù) Cost Function(或 Loss Function)。在手寫(xiě)數(shù)字識(shí)別的列子中,c 可以描述如下:

    可見(jiàn),要完成手寫(xiě)數(shù)字識(shí)別任務(wù),只需要調(diào)整這 12730 個(gè)參數(shù),讓損失函數(shù)輸出一個(gè)足夠小的值即可,推而廣之,絕大部分神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)的問(wèn)題,都可以看成是定義損失函數(shù)、以及參數(shù)調(diào)優(yōu)的問(wèn)題。

    在手寫(xiě)識(shí)別任務(wù)中,我們既可以使用交叉熵(Cross Entropy)損失函數(shù),也可以使用 MSE(Mean Squared Error)作為損失函數(shù),接下來(lái),就剩下如何調(diào)優(yōu)參數(shù)了。

    神經(jīng)網(wǎng)絡(luò)的參數(shù)調(diào)優(yōu)也沒(méi)有使用特別的技術(shù),依然是大家剛接觸機(jī)器學(xué)習(xí),就學(xué)到的梯度下降算法,梯度下降解決了上面迭代過(guò)程中的遺留問(wèn)題——當(dāng)損失函數(shù)給出 Bad 結(jié)果時(shí),如何調(diào)整參數(shù),能讓 Loss 減少得最快。

    梯度可以理解為:

    把 Loss 對(duì)應(yīng)到 H,12730 個(gè)參數(shù)對(duì)應(yīng)到 (x,y),則 Loss 對(duì)所有參數(shù)的梯度可以表示為下面向量,該向量的長(zhǎng)度為 12730:

    $$

    nabla L(w,b) = left[

    frac{partial L}{partial w_1},

    frac{partial L}{partial w_2},...,

    frac{partial L}{partial b_{26}}

    right] ^top

    $$

    所以,每次迭代過(guò)程可以概括為

    用梯度來(lái)調(diào)整參數(shù)的式子如下(為了簡(jiǎn)化,這里省略了 bias):

    上式中, 是學(xué)習(xí)率,意為每次朝下降最快的方向前進(jìn)一小步,避免優(yōu)化過(guò)頭(Overshoot)。

    由于神經(jīng)網(wǎng)絡(luò)參數(shù)繁多,所以需要更高效的計(jì)算梯度的算法,于是,反向傳播算法(Backpropagation)呼之欲出。

    在學(xué)習(xí)反向傳播算法之前,我們先復(fù)習(xí)一下微積分中的鏈?zhǔn)椒▌t(Chain Rule):設(shè) g = u(h) , h = f(x) 是兩個(gè)可導(dǎo)函數(shù),x 的一個(gè)很小的變化 △x 會(huì)使 h 產(chǎn)生一個(gè)很小的變化 △h,從而 g 也產(chǎn)生一個(gè)較小的變化 △g,現(xiàn)要求 △g/△x,可以使用鏈?zhǔn)椒▌t:

    有了以上基礎(chǔ),理解反向傳播算法就簡(jiǎn)單了。

    假設(shè)我們的演示網(wǎng)絡(luò)只有 2 層,輸入輸出都只有 2 個(gè)神經(jīng)元,如下圖所示:

    其中 是輸入, 是輸出, 是樣本的目標(biāo)值,這里使用的損失函數(shù) L 為 MSE;圖中的上標(biāo) (1) 或 (2) 分別表示參數(shù)屬于第 (1) 層或第 (2) 層,下標(biāo) 1 或 2 分別表示該層的第 1 或 第 2 個(gè)神經(jīng)元。

    現(xiàn)在我們來(lái)計(jì)算 和 ,掌握了這 2 個(gè)參數(shù)的偏導(dǎo)數(shù)計(jì)算之后,整個(gè)梯度的計(jì)算就掌握了。

    所謂反向傳播算法,指的是從右向左來(lái)計(jì)算每個(gè)參數(shù)的偏導(dǎo)數(shù),先計(jì)算 ,根據(jù)鏈?zhǔn)椒▌t

    對(duì)左邊項(xiàng)用鏈?zhǔn)椒▌t展開(kāi)

    又 是輸出值, 可以直接通過(guò) MSE 的導(dǎo)數(shù)算出:

    而 ,則 就是 sigmoid 函數(shù)的導(dǎo)數(shù)在 處的值,即

    于是 就算出來(lái)了:

    再來(lái)看 這一項(xiàng),因?yàn)?/p>

    所以

    注意:上面式子對(duì)于所有的 和 都成立,且結(jié)果非常直觀,即 對(duì) 的偏導(dǎo)為左邊的輸入 的大??;同時(shí),這里還隱含著另一層意思:需要調(diào)整哪個(gè) 來(lái)影響 ,才能使 Loss 下降得最快,從該式子可以看出,當(dāng)然是先調(diào)整較大的 值所對(duì)應(yīng)的 ,效果才最顯著 。

    于是,最后一層參數(shù) 的偏導(dǎo)數(shù)就算出來(lái)了

    我們?cè)賮?lái)算上一層的 ,根據(jù)鏈?zhǔn)椒▌t :

    繼續(xù)展開(kāi)左邊這一項(xiàng)

    你發(fā)現(xiàn)沒(méi)有,這幾乎和計(jì)算最后一層一摸一樣,但需要注意的是,這里的 對(duì) Loss 造成的影響有多條路徑,于是對(duì)于只有 2 個(gè)輸出的本例來(lái)說(shuō):

    上式中, 都已經(jīng)在最后一層算出,下面我們來(lái)看下 ,因?yàn)?/p>

    于是

    同理

    注意:這里也引申出梯度下降的調(diào)參直覺(jué):即要使 Loss 下降得最快,優(yōu)先調(diào)整 weight 值比較大的 weight。

    至此, 也算出來(lái)了

    觀察上式, 所謂每個(gè)參數(shù)的偏導(dǎo)數(shù),通過(guò)反向傳播算法,都可以轉(zhuǎn)換成線性加權(quán)(Weighted Sum)計(jì)算 ,歸納如下:

    式子中 n 代表分類數(shù),(l) 表示第 l 層,i 表示第 l 層的第 i 個(gè)神經(jīng)元。 既然反向傳播就是一個(gè)線性加權(quán),那整個(gè)神經(jīng)網(wǎng)絡(luò)就可以借助于 GPU 的矩陣并行計(jì)算了 。

    最后,當(dāng)你明白了神經(jīng)網(wǎng)絡(luò)的原理,是不是越發(fā)的認(rèn)為,它就是在做一堆的微積分運(yùn)算,當(dāng)然,作為能證明一個(gè)人是否學(xué)過(guò)微積分,神經(jīng)網(wǎng)絡(luò)還是值得學(xué)一下的。Just kidding ..

    本文我們通過(guò)

    這四點(diǎn),全面的學(xué)習(xí)了神經(jīng)網(wǎng)絡(luò)這個(gè)知識(shí)點(diǎn),希望本文能給你帶來(lái)幫助。

    參考:

    三、設(shè)計(jì)一個(gè)BP神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行分類,輸入向量為P=(1 -1 -2 -4;2 1 1 0),輸出向量為T(mén)=(0 1 1 0)

    y =

    0.6544 0.6499 0.6500 0.6499

    是預(yù)測(cè)的輸出變量

    四、設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)時(shí)為什么趨向于選擇更深的網(wǎng)絡(luò)結(jié)構(gòu)

    一 隱層數(shù)一般認(rèn)為,增加隱層數(shù)可以降低網(wǎng)絡(luò)誤差(也有文獻(xiàn)認(rèn)為不一定能有效降低),提高精度,但也使網(wǎng)絡(luò)復(fù)雜化,從而增加了網(wǎng)絡(luò)的訓(xùn)練時(shí)間和出現(xiàn)“過(guò)擬合”的傾向。一般來(lái)講應(yīng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)應(yīng)優(yōu)先考慮3層網(wǎng)絡(luò)(即有1個(gè)隱層)。一般地,靠增加隱層節(jié)點(diǎn)數(shù)來(lái)獲得較低的誤差,其訓(xùn)練效果要比增加隱層數(shù)更容易實(shí)現(xiàn)。對(duì)于沒(méi)有隱層的神經(jīng)網(wǎng)絡(luò)模型,實(shí)際上就是一個(gè)線性或非線性(取決于輸出層采用線性或非線性轉(zhuǎn)換函數(shù)型式)回歸模型。因此,一般認(rèn)為,應(yīng)將不含隱層的網(wǎng)絡(luò)模型歸入回歸分析中,技術(shù)已很成熟,沒(méi)有必要在神經(jīng)網(wǎng)絡(luò)理論中再討論之。二 隱層節(jié)點(diǎn)數(shù)在BP 網(wǎng)絡(luò)中,隱層節(jié)點(diǎn)數(shù)的選擇非常重要,它不僅對(duì)建立的神經(jīng)網(wǎng)絡(luò)模型的性能影響很大,而且是訓(xùn)練時(shí)出現(xiàn)“過(guò)擬合”的直接原因,但是目前理論上還沒(méi)有一種科學(xué)的和普遍的確定方法。 目前多數(shù)文獻(xiàn)中提出的確定隱層節(jié)點(diǎn)數(shù)的計(jì)算公式都是針對(duì)訓(xùn)練樣本任意多的情況,而且多數(shù)是針對(duì)最不利的情況,一般工程實(shí)踐中很難滿足,不宜采用。事實(shí)上,各種計(jì)算公式得到的隱層節(jié)點(diǎn)數(shù)有時(shí)相差幾倍甚至上百倍。為盡可能避免訓(xùn)練時(shí)出現(xiàn)“過(guò)擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力,確定隱層節(jié)點(diǎn)數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點(diǎn)數(shù)。研究表明,隱層節(jié)點(diǎn)數(shù)不僅與輸入/輸出層的節(jié)點(diǎn)數(shù)有關(guān),更與需解決的問(wèn)題的復(fù)雜程度和轉(zhuǎn)換函數(shù)的型式以及樣本數(shù)據(jù)的特性等因素有關(guān)。在確定隱層節(jié)點(diǎn)數(shù)時(shí)必須滿足下列條件:(1)隱層節(jié)點(diǎn)數(shù)必須小于N-1(其中N為訓(xùn)練樣本數(shù)),否則,網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無(wú)關(guān)而趨于零,即建立的網(wǎng)絡(luò)模型沒(méi)有泛化能力,也沒(méi)有任何實(shí)用價(jià)值。同理可推得:輸入層的節(jié)點(diǎn)數(shù)(變量數(shù))必須小于N-1。(2)訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)數(shù),一般為2~10倍,否則,樣本必須分成幾部分并采用“輪流訓(xùn)練”的方法才可能得到可靠的神經(jīng)網(wǎng)絡(luò)模型。 總之,若隱層節(jié)點(diǎn)數(shù)太少,網(wǎng)絡(luò)可能根本不能訓(xùn)練或網(wǎng)絡(luò)性能很差;若隱層節(jié)點(diǎn)數(shù)太多,雖然可使網(wǎng)絡(luò)的系統(tǒng)誤差減小,但一方面使網(wǎng)絡(luò)訓(xùn)練時(shí)間延長(zhǎng),另一方面,訓(xùn)練容易陷入局部極小點(diǎn)而得不到最優(yōu)點(diǎn),也是訓(xùn)練時(shí)出現(xiàn)“過(guò)擬合”的內(nèi)在原因。因此,合理隱層節(jié)點(diǎn)數(shù)應(yīng)在綜合考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的情況下用節(jié)點(diǎn)刪除法和擴(kuò)張法確定。

    以上就是關(guān)于如何設(shè)計(jì)一個(gè)神經(jīng)網(wǎng)絡(luò)相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    寫(xiě)一段自己的人生經(jīng)歷如何寫(xiě)(寫(xiě)一段自己的人生經(jīng)歷如何寫(xiě)作文)

    微信如何強(qiáng)制解綁手機(jī)號(hào)

    如何根據(jù)logo圖片查品牌(如何根據(jù)logo圖片查品牌)

    涼亭排行榜(著名涼亭)

    自動(dòng)修改文章的軟件(全自動(dòng)二次剪輯軟件)