-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
ai神經網絡算法(ai神經網絡算法智能車)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于ai神經網絡算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內免費在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內容,越精準,寫出的就越詳細,有微信小程序端、在線網頁版、PC客戶端
本文目錄:
一、制作ai神經網絡能買錢嗎
能。神經網絡是一種模仿動物神經網絡行為特征,進行分布式并行信息處理的算法數(shù)學模型。神經網絡被用于從物流、客戶支持到電子商務零售的各個領域,所以是能的。這種網絡依靠系統(tǒng)的復雜程度,通過調整內部大量節(jié)點之間相互連接的關系,從而達到處理信息的目的。
二、薩摩耶云:模型數(shù)據升維,AI決策“破圈”
本刊訊 人類對人工智能的想象和 探索 ,從未止步。
隨著數(shù)據、算法、算力能力提升,人工智能的應用場景深入到生活的方方面面。我們在搜索引擎上輸入關鍵詞后,網頁會自動匹配相關搜索內容;短視頻App能根據我們的瀏覽習慣,推送相似的博主和場景;對著智能手機等移動終端喊話,便能調用相關功能,實現(xiàn)人機交互。
以人工智能為代表的數(shù)字化產業(yè)快速向前推進,產業(yè)數(shù)字化轉型也成為不可逆的趨勢,各行各業(yè)都在尋求與自身商業(yè)模式相匹配的AI大腦。AI決策能力,正是AI大腦的內核,它決定了AI解決方案的效率和可執(zhí)行性。
AI決策由模型性能決定,而模型性能的好壞,離不開人工智能三駕馬車的拉動——數(shù)據、算法、算力。其中,數(shù)據在模型搭建過程中起基礎性作用,一個模型的優(yōu)劣,百分之八十取決于數(shù)據和樣本的維度,正如巧婦難為無米之炊。
因此,數(shù)據提升對于模型優(yōu)化有著基礎性、全局性的作用,而數(shù)據與模型也是AI系統(tǒng)的重要組成部分。目前,AI模型開發(fā)及應用難點,主要在于數(shù)據應用和算法創(chuàng)新上,其中,后者更多體現(xiàn)的是建模方法的適當性。
數(shù)據應用維度不足。從AI決策的模型發(fā)展現(xiàn)狀來看,當前很多模型僅僅是基于二維的數(shù)據組織形式來構建,沒有考慮到數(shù)據在完整周期中的時間節(jié)點變化。最終容易導致模型的辨識度、準確度、穩(wěn)定性失衡,AI決策效果大打折扣。
例如,在視頻推薦和電商推薦場景中,如果模型僅是在用戶賬戶、行為屬性、社交記錄、交易結果等標準數(shù)據集上構建和優(yōu)化,沒有納入用戶在決策過程中的重要時間節(jié)點下的行為表現(xiàn),可能就會使模型效果過于擬合,不能夠精準地預判用戶喜好以及交易風險控制。
一般來講,二維數(shù)據的維度主要表現(xiàn)為樣本維度和特征維度。樣本維度常常為用戶ID信息或者是訂單編號,特征維度則為用戶人口屬性、行為屬性、外部資信等信息。二維數(shù)據模式下,用戶在每個時間點只對應一條變量。
回到實際業(yè)務場景,用戶在不同的時間節(jié)點會呈現(xiàn)不同的行為表現(xiàn),盡管這些表現(xiàn)強度存在差異化,但最終會反饋到行為特征上。如果把不同時間節(jié)點的用戶特征行為差異,盡可能納入建模過程,那么原有的一對一二維數(shù)據就延展至一對多的時間序列形式,也就是說把數(shù)據應用升維到樣本維度、時間維度、特征維度的三維數(shù)據組織形式。
三維數(shù)據不僅能降低數(shù)據集特征不足的影響,而且能最大程度挖掘數(shù)據價值,增加特征數(shù)量,提升模型準確性。尤其是在業(yè)務數(shù)據獲取時,外部資信等數(shù)據往往會遇到接入不確定因素,而內部數(shù)據數(shù)量和類型有限,并且利用程度趨于飽和。
但對于模型開發(fā)而言,更高的精準度和辨識度,要求引入更多維度的數(shù)據,挖掘數(shù)據規(guī)律,生成更多衍生變量。一旦無法從數(shù)量維度獲取更多變量,那么只能從質量角度下功夫,向深度挖掘變量內部信息,其中一對多的時間序列角度的升維就是深挖數(shù)據信息的方法之一。
其實,數(shù)據升維可用于AI模型優(yōu)化的場景非常多,例如在股票、基金的智能投顧業(yè)務中,AI模型的數(shù)據應用加入時間維度,與樣本維度和個股、個基一起構成三維樣本,便能把節(jié)點變量考慮在內,更加精準預判未來走勢。
要想通過高維時序數(shù)據實現(xiàn)模型優(yōu)化,僅停留在數(shù)據層面遠遠不夠,還需對算法提升。決定模型好壞的剩下20%,正是建模方法的選擇,而與高維時序數(shù)據處理相匹配的算法通常為基于神經網絡算法的深度學習。
以薩摩耶云為例,薩摩耶云基于深度學習框架, 探索 數(shù)據升維用于模型性能的提升,研發(fā)出適用于多行業(yè)和場景的AI解決方案,滿足企業(yè)高效智能決策的需求。同時,這些端到端的云原生 科技 解決方案,以SaaS+aPaaS形式提供交付,通過雙方系統(tǒng)對接實現(xiàn)信息實時交互,能為合作伙伴輸出基于云的智能決策服務。
在薩摩耶云首席科學家王明明看來,更高維度的時序數(shù)據建模意味著對現(xiàn)有的業(yè)務數(shù)據的重新理解、更多的數(shù)據信息、更復雜的數(shù)據組織方式、更高的機器性能要求、存儲要求以及模型上線要求。以高維時序數(shù)據為基礎,施以神經網絡來訓練,加工多維變量特征,最終建立并優(yōu)化模型的AI決策能力。
具體來看,作為機器學習的重要分支,神經網絡是從數(shù)據中學習表示的一種新的方法,強調從連續(xù)地層中進行學習。在神經網絡算法驅動下,模型可在同一時間共同學習所有表示層,可能包含數(shù)十個甚至上百個連續(xù)層,而其他機器學習方法往往僅僅學習一兩層的數(shù)據表示。
神經網絡在高維時序數(shù)據學習中,一方面通過漸進的、逐層式的方式形成越來越復雜的表示;另一方面,對漸進的表示共同進行學習,每一層的變化都需要同時考慮上下兩層的需要。這意味著,循環(huán)神經網絡引入狀態(tài)變量時,能保存每個時刻的信息,并且與當前的輸入共同決定此刻的輸出。
從薩摩耶云的AI決策實踐來看,薩摩耶云在模型搭建過程中,不僅考慮了以往的樣本維度和特征維度,還把各時間節(jié)點的用戶特征差異納入考量,通過三維數(shù)據加工完善數(shù)據特征。在此基礎上,薩摩耶云利用神經網絡、深度學習,建立和訓練模型,實現(xiàn)比常規(guī)模型更為高效的模型效果。
這對于提升模型的預判能力和精準度至關重要。就像閱讀一段新聞,如果僅僅從每一個字、每一個詞組來理解,很容易斷章取義,無法真正明白新聞所指。但把新聞構成中的字詞句連貫起來,并置于各個背景節(jié)點中,就可以理解新聞的準確意思。
當薩摩耶云把基于神經網絡等技術的AI模型,應用于實際業(yè)務場景之中,能進一步放大數(shù)據價值,幫助企業(yè)增強預測分析能力,提升精準營銷、銷售管理、供應鏈協(xié)作、結果預測、風險控制的效率,進而實現(xiàn)從經驗決策到智能決策,達到降本增效的效果。
實驗數(shù)據也表明,用神經網絡的時間序列來做變量衍生,可以產生較為顯著的變量增益效果,衍生變量可以直接用于其他傳統(tǒng)方式的建模環(huán)節(jié),同時也可擴充內部的衍生變量空間。當原始特征的區(qū)分能力得到提升,模型的區(qū)分效果也得到增強,最終強化AI模型性能。
作為領先的獨立云服務 科技 解決方案供應商,薩摩耶云立足場景需求,深耕AI決策智能賽道,不斷升級大數(shù)據、算法、模型策略和產品設計,為數(shù)字經濟和企業(yè)數(shù)字化轉型提供技術支撐。在此過程中,薩摩耶云不僅強化了自身核心自主競爭力,而且著眼數(shù)字中國全景,源源不斷釋放 科技 賦能的價值。(山河)
三、AI面試題第二彈(神經網絡基礎)
提取主要特征,減小網絡參數(shù)量,減小計算量
層層傳遞的梯度>1 梯度爆炸
層層傳遞的梯度<1 梯度消失
與權重有很大關系,激活函數(shù)的影響較小。
每次訓練一層隱節(jié)點,訓練時將上一層隱節(jié)點的輸出作為輸入,而本層隱節(jié)點的輸出作為下一層隱節(jié)點的輸入,此過程就是逐層“預訓練”(pre-training);在預訓練完成后,再對整個網絡進行“微調”(fine-tunning)。Hinton在訓練深度信念網絡(Deep Belief Networks中,使用了這個方法,在各層預訓練完成后,再利用BP算法對整個網絡進行訓練。
這個方案主要是針對梯度爆炸提出的,其思想是設置一個梯度剪切閾值,然后更新梯度的時候,如果梯度超過這個閾值,那么就將其強制限制在這個范圍之內。這可以防止梯度爆炸。
比較常見的是l1l1l1正則,和l2l2l2正則,在各個深度框架中都有相應的API可以使用正則化
反向傳播中,經過每一層的梯度會乘以該層的權重。
舉個簡單例子:
為了得到一致假設而使假設變得過度復雜稱為過擬合(overfitting), 過擬合表現(xiàn)在訓練好的模型在訓練集上效果很好,但是在測試集上效果差 。也就是說模型的泛化能力弱。
過擬合主要由兩個原因造成,數(shù)據集太小或模型太復雜
(1). 數(shù)據集擴增(Data Augmentation)
(2). 改進模型
·Early Stopping。在模型效果比較好的時候便提前停止訓練
·正則化(regularization)
L1:稀疏參數(shù)
L2:更小參數(shù)
·Dropout
·多任務學習
深度學習中兩種多任務學習模式:隱層參數(shù)的硬共享和軟共享
硬共享機制是指在所有任務中共享隱藏層,同時保留幾個特定任務的輸出層來實現(xiàn)。硬共享機制降低了過擬合的風險。多個任務同時學習,模型就越能捕捉到多個任務的同一表示,從而導致模型在原始任務上的過擬合風險越小。
軟共享機制是指每個任務有自己的模型,自己的參數(shù)。模型參數(shù)之間的距離是正則化的,以便保障參數(shù)相似性。
見后文
leaky relu
輸入是x輸出是y,正常的流程是:我們首先把x通過網絡前向傳播,然后把誤差反向傳播以決定如何更新參數(shù)讓網絡進行學習。使用Dropout之后,過程變成如下:
(1)首先隨機(臨時)刪掉網絡中一半的隱藏神經元,輸入輸出神經元保持不變(圖中虛線為部分臨時被刪除的神經元)
(2) 然后把輸入x通過修改后的網絡前向傳播,然后把得到的損失結果通過修改的網絡反向傳播。一小批訓練樣本執(zhí)行完這個過程后,在沒有被刪除的神經元上按照隨機梯度下降法更新對應的參數(shù)(w,b)。
(3)然后繼續(xù)重復這一過程:
恢復被刪掉的神經元(此時被刪除的神經元保持原樣,而沒有被刪除的神經元已經有所更新)
從隱藏層神經元中隨機選擇一個一半大小的子集臨時刪除掉(備份被刪除神經元的參數(shù))。
對一小批訓練樣本,先前向傳播然后反向傳播損失并根據隨機梯度下降法更新參數(shù)(w,b) (沒有被刪除的那一部分參數(shù)得到更新,刪除的神經元參數(shù)保持被刪除前的結果)。
不斷重復這一過程。
沒有對數(shù)據進行歸一化
忘記檢查輸入和輸出
沒有對數(shù)據進行預處理
沒有對數(shù)據正則化
使用過大的樣本
使用不正確的學習率
在輸出層使用錯誤的激活函數(shù)
網絡中包含壞梯度
初始化權重錯誤
過深的網絡
隱藏單元數(shù)量錯誤
網絡設計不合理(任務-網絡不匹配)
機器學習有個很重要的假設:就是假設訓練數(shù)據和測試數(shù)據是滿足獨立同分布的,這保障了通過訓練數(shù)據獲得的優(yōu)秀模型也能夠在測試集獲得好的效果。但是在機器學習訓練中輸入層的每個批量(X,Y)中X的分布是不一致的,并且神經網絡的隱藏層的輸入分布在每次訓練迭代中發(fā)生變化。 BatchNorm就是在深度神經網絡訓練過程中使得每一層神經網絡的輸入保持相同分布的。
BN的基本思想其實相當直觀:因為深層神經網絡在做非線性變換前(激活前)的 輸入值 (就是那個x=WU+B,U是輸入) 隨著網絡深度加深或者在訓練過程中,其分布逐漸發(fā)生偏移或者變動,之所以訓練收斂慢,一般是整體分布逐漸往非線性函數(shù)的取值區(qū)間的上下限兩端靠近 (對于Sigmoid函數(shù)來說,意味著激活輸入值WU+B是大的負值或正值),所以這 導致反向傳播時低層神經網絡的梯度消失 ,這是訓練深層神經網絡收斂越來越慢的 本質原因 , 而BN就是通過一定的規(guī)范化手段,把每層神經網絡任意神經元這個輸入值的分布強行拉回到均值為0方差為1的標準正態(tài)分布 ,其實就是把越來越偏的分布強制拉回比較標準的分布,這樣使得激活輸入值落在非線性函數(shù)對輸入比較敏感的區(qū)域,這樣輸入的小變化就會導致?lián)p失函數(shù)較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產生,而且梯度變大意味著學習收斂速度快,能大大加快訓練速度。
但是接下來的問題是:如果都通過BN,那么不就跟把非線性函數(shù)替換成線性函數(shù)效果相同了,意味著網絡的非線性表達能力下降了, 所以BN為了保證非線性的獲得,對變換后的滿足均值為0方差為1的x又進行了scale加上shift操作(y=scale*x+shift), 每個神經元增加了兩個參數(shù)scale和shift參數(shù),這兩個參數(shù)是通過訓練學習到的,意思是通過scale和shift把這個值從標準正態(tài)分布左移或者右移一點并長胖一點或者變瘦一點,每個實例挪動的程度不一樣,這樣等價于激活前的值經過標準正太分布歸一化后再從正中心周圍的線性區(qū)往非線性區(qū)動了動。核心思想應該是想找到一個線性和非線性的較好平衡點,既能享受非線性的較強表達能力的好處,又避免太靠非線性區(qū)兩頭使得網絡收斂速度太慢
Batch Normalization 好處:(1)提高了訓練速度,收斂速度也大大加快(2)另外調參過程也簡單多了,對于初始化要求沒那么高,而且可以使用大的學習率等 (3)可以防止梯度消失(4)BN類似于Dropout的一種防止過擬合的正則化表達方式,可以有效防止過擬合,不用太依賴dropou和正則化
以下情況最好不要使用BN:(1)數(shù)據不平衡(2)batch_size太小
batch_size是機器學習中的一個重要參數(shù),決定了梯度下降的方向,如果數(shù)據集比較小,完全可以采用全數(shù)據集的形式計算梯度,由全數(shù)據集確定的梯度方向能夠更好地代表樣本總體,從而更準確地朝向極值所在的方向。對于大型數(shù)據集則需要使用mini-batch_size,因為隨著數(shù)據集的海量增長和內存限制,一次性載入所有的數(shù)據進來變得越來越不可行。
當batch_size=1,即在線學習,模型難以達到收斂 。
合理增加batch_size好處 :
(1)內存利用率提高了,大矩陣乘法的并行化效率提高
(2)跑完一次 epoch(全數(shù)據集)所需的迭代次數(shù)減少,對于相同數(shù)據量的處理速度進一步加快。
(3)在一定范圍內,一般來說 Batch_Size 越大,其確定的下降方向越準,引起訓練震蕩越小
盲目增大 Batch_Size 壞處 :
(1)內存利用率提高了,但是內存容量可能撐不住了
(2)跑完一次 epoch(全數(shù)據集)所需的迭代次數(shù)減少,要想達到相同精度所需要的 epoch 數(shù)量越來越多,花費的時間越長
(3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,后者具有更好的泛化能力。
總之batchsize在變得很大(超過一個臨界點)時,會降低模型的泛化能力。在這個臨界點之下,模型的性能變換隨batch size通常沒有學習率敏感
目標所在的真實框(ground truth) 與算法預測的目標所在的框(bounding box)的交集與并集的比值,我們會用IOU閾值來判定預測的bounding box是否有效。一般閾值會設定在0.5,當IOU的值大于等于0.5時,我們會把這個預測的bounding box 歸為正類,而小于0.5的歸為負類。
牛頓法使用的是目標函數(shù)的二階導數(shù),在高維情況下這個Hessian(n*n維度)矩陣非常大,計算復雜度是n*n,計算和存儲都是問題
(1) 通過控制卷積核個數(shù)實現(xiàn)升維或者降維,從而減少模型參數(shù)和計算量
(2) 用于不同channel上特征的融合
(3)1x1的卷積相當于全連接層的計算過程,并且加入了非線性激活函數(shù),從而增加了網絡的非線性,使得網絡可以表達更加復雜的特征。
它能夠把輸入的連續(xù)實值變換為0和1之間的輸出,如果是非常大的負數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1
缺點:
(1)函數(shù)的飽和區(qū),導致梯度幾乎為0,造成梯度消失問題
(2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893
(3)其解析式中含有冪運算,計算機求解時相對來講比較耗時。對于規(guī)模比較大的深度網絡,這會較大地增加訓練時間。
它解決了Sigmoid函數(shù)的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運算的問題仍然存在。
(1)在正區(qū)間解決了梯度消失的問題
(2)函數(shù)簡單,計算速度快,收斂速度遠快于sigmoid和tanh
缺點:
(1)Relu函數(shù)輸出不是0均值
(2)神經元壞死問題:指的是某些神經元可能永遠不會被激活,導致相應的參數(shù)永遠不能被更新,有兩個主要原因導致這種狀況發(fā)生
(1) 非常不幸的參數(shù)初始化,這種情況比較少見
(2) learning rate太高導致在訓練過程中參數(shù)更新太大,不幸使網絡進入這種狀態(tài)。解決方法是可以采用Xavier初始化方法,以及避免將learning rate設置太大或使用adagrad等自動調節(jié)learning rate的算法
為了解決ReLU函數(shù)帶來的神經元壞死問題 , 提出了將ReLU的前半段設為αx,α通常設為0.01,,另外一種直觀的想法是基于參數(shù)的方法PReLU函數(shù), α可由方向傳播算法學習出來。
ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優(yōu)點,以及:(1)不會有神經元壞死現(xiàn)象(2)函數(shù)輸出均值接近于0
但是ELU的小問題就是計算量稍微有點大。
1、使用不同的激活函數(shù),比如Relu,Leak-Relu,PRelu,elu等激活函數(shù)代替sigmoid函數(shù)
2、使用Batch Normalizaion(批量歸一化)
3、使用殘差網絡
4、預訓練加微調
1、梯度裁剪
2、權重正則化
兩個3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時,用3x3的卷積核可以提升網絡的深度,可以很明顯的減少計算量。
1、局部連接
2、權值共享:減小參數(shù)量
3、池化操作:增大感受野
4、多層次結構:可以提取low-level以及high-level的信息
1、數(shù)據集太小,數(shù)據樣本不足時,深度學習相對其它機器學習算法,沒有明顯優(yōu)勢。
2、數(shù)據集沒有局部相關特性,目前深度學習表現(xiàn)比較好的領域主要是圖像/語音/自然語言處理等領域,這些領域的一個共性是局部相關性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數(shù)據中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時也被改變。對于沒有這樣的局部相關性的數(shù)據集,不適于使用深度學習算法進行處理。舉個例子:預測一個人的健康狀況,相關的參數(shù)會有年齡、職業(yè)、收入、家庭狀況等各種元素,將這些元素打亂,并不會影響相關的結果。
作用 :對輸入的特征圖進行壓縮,
一方面使特征圖變小,簡化網絡計算復雜度;
一方面進行特征壓縮,提取主要特征。
通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數(shù)據做了下采樣,但是 max-pooling感覺更像是做了特征選擇,選出了分類辨識度更好的特征,提供了非線性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分類問題中,我們需要知道的是這張圖像有什么object,而不大關心這個object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網絡比較深的地方,特征已經稀疏了,從一塊區(qū)域里選出最大的,比起這片區(qū)域的平均值來,更能把稀疏的特征傳遞下去 。
average-pooling更強調對整體特征信息進行一層下采樣,在減少參數(shù)維度的貢獻上更大一點,更多的體現(xiàn)在 信息的完整傳遞這個維度 上,在一個很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多采用average-pooling,在減少維度的同時,更有利信息傳遞到下一個模塊進行特征提取。
average-pooling在 全局平均池化操作 中應用也比較廣,在ResNet和Inception結構中最后一層都使用了平均池化。有的時候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數(shù)據變成一位向量。
CNN網絡中另外一個不可導的環(huán)節(jié)就是Pooling池化操作,因為Pooling操作使得feature map的尺寸變化,假如做2×2的池化(步長也為2),假設那么第l+1層的feature map有16個梯度,那么第l層就會有64個梯度,這使得梯度無法對位的進行傳播下去。其實解決這個問題的思想也很簡單,就是把1個像素的梯度傳遞給4個像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據這條原則,mean pooling和max pooling的反向傳播也是不同的
mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那么反向傳播的過程也就是把 某個元素的梯度等分為n份分配給前一層,這樣就保證池化前后的梯度(殘差)之和保持不變 ,圖示如下 :
(2) max pooling
max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給后一層,而其他像素的值直接被舍棄掉。那么 反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點在于需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個變量就是記錄最大值所在位置的,因為在反向傳播中要用到,那么假設前向傳播和反向傳播的過程就如下圖所示 :
28、細粒度分類
29、LSTM&RNN
30、解釋LSTM結構(相對于RNN)的好處
31、RNN的梯度消失原因和解決辦法
32、Object Detection
33、Unet的介紹
34、FCN和Unet的區(qū)別
35、RCNN系列的算法流程和區(qū)別
36、Fast RCNN中 bbox 回歸的損失函數(shù)什么
37、解釋 ROI Pooling 和 ROI Align
38、Mask RCNN中 mask branch 如何接入 Faster RCNN中
39、解釋 FPN
40、解釋 ROI Align
41、簡述 YOLO 和 SSD
42、簡述 Hough 直線檢測、Sobel 邊緣檢測算法流程
43、Mask RCNN中的anchors如何判定為正負樣本
44、簡述 NMS 算法流程
45、attention起源是用在哪里?pixel還是frame,是soft還是hard
46、anchor的正負樣本比是多少
47、算法和激活函數(shù)等
48、BN的原理和作用
49、BN層反向傳播,怎么求導
50、BN 的作用和缺陷,以及針對batch_size小的情況的改進(GN)
51、BN層,先加BN還是激活,有什么區(qū)別
52、手推BP
53、優(yōu)化算法舉例和他們的區(qū)別(SGD、SGDM、RMSprop、Adam)
54、隨機梯度下降和梯度下降
55、訓練不收斂的原因有哪些
56、簡述 SVM 流程、核函數(shù)尋參及常見的核函數(shù)舉例
57、batch_size 和 learning rate 的關系(怎么平衡和調整二者)
58、解釋過擬合和欠擬合,以及解決方法
59、激活函數(shù)有哪些,各自區(qū)別
60、損失函數(shù)有哪些
61、Sigmoid 和 ReLu 對比(各自優(yōu)缺點)
62、為什么不用sigmoid而用relu?做出了哪些改進?
63、梯度消失和梯度爆炸的原因和解決方法
64、Precision 和 Recall 的定義
65、精確率高、召回率低是為什么
66、SVM,線性回歸和邏輯回歸的原理及區(qū)別
67、PCA原理,PCA和SVD的區(qū)別和聯(lián)系
68、正則化怎么選擇,有哪些方式
69、L1、L2范數(shù),區(qū)別
70、boost、Adaboost
71、dropout和batch normalization
72、講一下決策樹和隨機森林
73、講一下GBDT的細節(jié),寫出GBDT的目標函數(shù)。 GBDT和Adaboost的區(qū)別與聯(lián)系
74、偏差、方差
75、距離度量公式哪些,區(qū)別
76、多標簽識別怎么做
77、data argumentation怎么處理的
78、數(shù)據不均衡怎么處理、只有少量帶標簽怎么處理
79、權重初始化方法都有哪些
80、權值衰減這個參數(shù)怎么設置
81、分類問題有哪些評價指標?每種的適用場景。
82、無監(jiān)督學習了解哪些
83、圖像處理Opencv
84、邊緣檢測算子有哪些
85、霍夫變換
86、直方圖是什么
87、canny算子是怎么做的
88、圖像的特征提取有哪些算法,適用范圍、優(yōu)缺點
參考:
https://blog.csdn.net/bluesliuf/article/details/89389117
https://zhuanlan.zhihu.com/p/107279000
https://zhuanlan.zhihu.com/p/56475281
四、人工智能神經網絡論文
隨著科學技術的發(fā)展,人工神經網絡技術得到了空前的發(fā)展,并且在諸多領域得到了廣泛的應用,為人工智能化的發(fā)展提供了強大的動力。以下是我整理分享的人工智能神經網絡論文的相關資料,歡迎閱讀!
人工智能神經網絡論文篇一
人工神經網絡的發(fā)展及應用
摘要隨著科學技術的發(fā)展,人工神經網絡技術得到了空前的發(fā)展,并且在諸多領域得到了廣泛的應用,為人工智能化的發(fā)展提供了強大的動力。人工神經網絡的發(fā)展經歷了不同的階段,是人工智能的重要組成部分,并且在發(fā)展過程中形成了自身獨特的特點。文章對人工神經網絡的發(fā)展歷程進行回顧,并對其在各個領域的應用情況進行探討。
關鍵詞人工神經網絡;發(fā)展;應用
隨著科學技術的發(fā)展,各個行業(yè)和領域都在進行人工智能化的研究工作,已經成為專家學者研究的熱點。人工神經網絡就是在人工智能基礎上發(fā)展而來的重要分支,對人工智能的發(fā)展具有重要的促進作用。人工神經網絡從形成之初發(fā)展至今,經歷了不同的發(fā)展階段,并且在經濟、生物、醫(yī)學等領域得到了廣泛的應用,解決了許多技術上的難題。
1人工神經網絡概述
關于人工神經網絡,到目前為止還沒有一個得到廣泛認可的統(tǒng)一定義,綜合各專家學者的觀點可以將人工神經網絡簡單的概括為是模仿人腦的結構和功能的計算機信息處理系統(tǒng)[1]。人工神經網絡具有自身的發(fā)展特性,其具有很強的并行結構以及并行處理的能力,在實時和動態(tài)控制時能夠起到很好的作用;人工神經網絡具有非線性映射的特性,對處理非線性控制的問題時能給予一定的幫助;人工神經網絡可以通過訓練掌握數(shù)據歸納和處理的能力,因此在數(shù)學模型等難以處理時對問題進行解決;人工神經網絡的適應性和集成性很強,能夠適應不同規(guī)模的信息處理和大規(guī)模集成數(shù)據的處理與控制;人工神經網絡不但在軟件技術上比較成熟,而且近年來在硬件方面也得到了較大發(fā)展,提高了人工神經網絡系統(tǒng)的信息處理能力。
2人工神經網絡的發(fā)展歷程
2.1 萌芽時期
在20世紀40年代,生物學家McCulloch與數(shù)學家Pitts共同發(fā)表文章,第一次提出了關于神經元的模型M-P模型,這一理論的提出為神經網絡模型的研究和開發(fā)奠定了基礎,在此基礎上人工神經網絡研究逐漸展開。1951年,心理學家Hebb提出了關于連接權數(shù)值強化的法則,為神經網絡的學習功能開發(fā)進行了鋪墊。之后生物學家Eccles通過實驗證實了突觸的真實分流,為神經網絡研究突觸的模擬功能提供了真實的模型基礎以及生物學的依據[2]。隨后,出現(xiàn)了能夠模擬行為以及條件反射的處理機和自適應線性網絡模型,提高了人工神經網絡的速度和精準度。這一系列研究成果的出現(xiàn)為人工神經網絡的形成和發(fā)展提供了可能。
2.2 低谷時期
在人工神經網絡形成的初期,人們只是熱衷于對它的研究,卻對其自身的局限進行了忽視。Minskyh和Papert通過多年對神經網絡的研究,在1969年對之前所取得的研究成果提出了質疑,認為當前研究出的神經網絡只合適處理比較簡單的線性問題,對于非線性問題以及多層網絡問題卻無法解決。由于他們的質疑,使神經網絡的發(fā)展進入了低谷時期,但是在這一時期,專家和學者也并沒有停止對神經網絡的研究,針對他們的質疑也得出一些相應的研究成果。
2.3 復興時期
美國的物理學家Hopfield在1982年提出了新的神經網絡模型,并通過實驗證明在滿足一定的條件時,神經網絡是能夠達到穩(wěn)定的狀態(tài)的。通過他的研究和帶動,眾多專家學者又重新開始了對人工神經網絡方面的研究,推動了神經網絡的再一次發(fā)展[3]。經過專家學者的不斷努力,提出了各種不同的人工神經網絡的模型,神經網絡理論研究不斷深化,新的理論和方法層出不窮,使神經網絡的研究和應用進入了一個嶄新的時期。
2.4 穩(wěn)步發(fā)展時期
隨著人工神經網絡研究在世界范圍內的再次興起,我國也迎來了相關理論研究的熱潮,在人工神經網絡和計算機技術方面取得了突破性的進展。到20世紀90年代時,國內對于神經網絡領域的研究得到了進一步的完善和發(fā)展,而且能夠利用神經網絡對非線性的系統(tǒng)控制問題進行解決,研究成果顯著。隨著各類人工神經網絡的相關刊物的創(chuàng)建和相關學術會議的召開,我國人工神經網絡的研究和應用條件逐步改善,得到了國際的關注。
隨著人工神經網絡的穩(wěn)步發(fā)展,逐漸建立了光學神經網絡系統(tǒng),利用光學的強大功能,提高了人工神經網絡的學習能力和自適應能力。對非線性動態(tài)系統(tǒng)的控制問題,采取有效措施,提高超平面的光滑性,對其精度進行改進。之后有專家提出了關于人工神經網絡的抽取算法,雖然保證了精度,但也加大了消耗,在一定程度上降低了神經網絡的效率,因此在此基礎上又提出了改進算法FERNN。混沌神經網絡的發(fā)展也得到了相應的進步,提高了神經網絡的泛化能力。
3人工神經網絡的應用
3.1 在信息領域中的應用
人工神經網絡在信息領域中的應用主要體現(xiàn)在信息處理和模式識別兩個方面。由于科技的發(fā)展,當代信息處理工作越來越復雜,利用人工神經網絡系統(tǒng)可以對人的思維進行模仿甚至是替代,面對問題自動診斷和解決,能夠輕松解決許多傳統(tǒng)方法無法解決的問題,在軍事信息處理中的應用極為廣泛[4]。模式識別是對事物表象的各種信息進行整理和分析,對事物進行辨別和解釋的一個過程,這樣對信息進行處理的過程與人類大腦的思維方式很相像。模式識別的方法可以分為兩種,一種是統(tǒng)計模式識別,還有一種是結構模式識別,在語音識別和指紋識別等方面得到了廣泛的應用。
3.2 在醫(yī)學領域的應用
人工神經網絡對于非線性問題處理十分有效,而人體的構成和疾病形成的原因十分復雜,具有不可預測性,在生物信號的表現(xiàn)形式和變化規(guī)律上也很難掌握,信息檢測和分析等諸多方面都存在著復雜的非線性聯(lián)系,所以應用人工神經網絡決解這些非線性問題具有特殊意義[5]。目前,在醫(yī)學領域中的應用涉及到理論和臨床的各個方面,最主要的是生物信號的檢測和自動分析以及專家系統(tǒng)等方面的應用。
3.3 在經濟領域中的應用
經濟領域中的商品價格、供需關系、風險系數(shù)等方面的信息構成也十分復雜且變幻莫測,人工神經網絡可以對不完整的信息以及模糊不確定的信息進行簡單明了的處理,與傳統(tǒng)的經濟統(tǒng)計方法相比具有其無法比擬的優(yōu)勢,數(shù)據分析的穩(wěn)定性和可靠性更強。
3.4 在其他領域的應用
人工神經網絡在控制領域、交通領域、心理學領域等方面都有很廣泛的應用,能夠對高難度的非線性問題進行處理,對交通運輸方面進行集成式的管理,以其高適應性和優(yōu)秀的模擬性能解決了許多傳統(tǒng)方法無法解決的問題,促進了各個領域的快速發(fā)展。
4總結
隨著科技的發(fā)展,人工智能系統(tǒng)將進入更加高級的發(fā)展階段,人工神經網絡也將得到更快的發(fā)展和更加廣泛的應用。人工神經網絡也許無法完全對人腦進行取代,但是其特有的非線性信息處理能力解決了許多人工無法解決的問題,在智能系統(tǒng)的各個領域中得到成功應用,今后的發(fā)展趨勢將向著更加智能和集成的方向發(fā)展。
參考文獻
[1]徐用懋,馮恩波.人工神經網絡的發(fā)展及其在控制中的應用[J].化工進展,1993(5):8-12,20.
[2]湯素麗,羅宇鋒.人工神經網絡技術的發(fā)展與應用[J].電腦開發(fā)與應用,2009(10):59-61.
[3]李會玲,柴秋燕.人工神經網絡與神經網絡控制的發(fā)展及展望[J].邢臺職業(yè)技術學院學報,2009(5):44-46.
[4]過效杰,祝彥知.人工神經網絡的發(fā)展及其在巖土工程領域研究現(xiàn)狀[J].河南水利,2004(1):22-23.
[5]崔永華.基于人工神經網絡的河流匯流預報模型及應用研究[D].鄭州大學,2006.
下一頁分享更優(yōu)秀的<<<人工智能神經網絡論文
以上就是關于ai神經網絡算法相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀: