-
當前位置:首頁 > 創(chuàng)意學院 > 技術(shù) > 專題列表 > 正文
多目標分類算法(多目標分類算法是什么)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于多目標分類算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、哪些機器學習算法可以處理多分類
maxsoft作為logistics二分類的改進版,天生適合多分類;神經(jīng)網(wǎng)絡(如bp神經(jīng)網(wǎng)絡,隨機權(quán)神經(jīng)網(wǎng)絡,RBF神經(jīng)網(wǎng)絡等);通過建立多個支持向量機或者最小二乘支持向量機分類模型,通過投票算法選擇概率最大的分類標簽;也可以通過聚類算法(KNN,kMeans等)等無監(jiān)督學習算法實現(xiàn)分類。
樸素貝葉斯分類器算法是最受歡迎的學習方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機器學習模型,特別是用于疾病預測和文檔分類。 它是基于貝葉斯概率定理的單詞的內(nèi)容的主觀分析的簡單分類。
如果特征數(shù)量遠大于訓練樣本數(shù),則使用邏輯回歸或線性核方法的SVM。
如果特征數(shù)較小,而樣本數(shù)量相對較多,可以考慮高斯核方法的SVM。
如果特征數(shù)少兒樣本數(shù)極大,可以考慮增加一些特征,再使用邏輯回歸或線性核方法的SVM
神經(jīng)網(wǎng)絡則對上述情況都可適用,但訓練時間較長。
想要學習了解更多機器學習的信息,推薦CDA數(shù)據(jù)分析師課程。CDA 與國際知名考試服務機構(gòu) Pearson VUE 合作,認證考點覆蓋全球。課程內(nèi)容綜合使用統(tǒng)計分析方法、統(tǒng)計模型、運籌學、機器學習、文本挖掘算法,而非單一的機器學習算法。 點擊預約免費試聽課。
二、多目標優(yōu)化算法的多目標是什么意思
多目標優(yōu)化的本質(zhì)在于,大多數(shù)情況下,某目標的改善可能引起其他目標性能的降低,同時使多個目標均達到最優(yōu)是不可能的,只能在各目標之間進行協(xié)調(diào)權(quán)衡和折中處理,使所有目標函數(shù)盡可能達到最優(yōu),而且問題的最優(yōu)解由數(shù)量眾多,甚至無窮大的Pareto最優(yōu)解組成。
三、多目標進化算法中的pareto解及pareto前沿介紹
多目標求解會篩選出一個相對較優(yōu)的解的集合,在這個集合里就要用到pareto找出相對優(yōu)的解或者最優(yōu)解。
多目標優(yōu)化問題的數(shù)學模型一般可以寫成如下形式:
fig 2表示n個目標函數(shù),目標是都使之達到最小。
fig 3是其變量的約束集合,可以理解為變量的取值范圍,下面介紹具體的解之間的支配,占優(yōu)關系。
1:解A優(yōu)于解B(解A強帕累托支配解B)
假設現(xiàn)在有兩個目標函數(shù),解A對應的目標函數(shù)值都比解B對應的目標函數(shù)值好,則稱解A比解B優(yōu)越,也可以叫做解A強帕累托支配解B,舉個例子,就很容易懂了.
下圖中代表的是兩個目標的的解的情況,橫縱坐標表示兩個目標函數(shù)值,E點表示的解所對應的兩個目標函數(shù)值都小于C,D兩個點表示的解所對應的兩個目標函數(shù)值,所以解E優(yōu)于解C,D.
2:解A無差別于解B(解A能帕累托支配解B)
同樣假設兩個目標函數(shù),解A對應的一個目標函數(shù)值優(yōu)于解B對應的一個目標函數(shù)值,但是解A對應的另一個目標函數(shù)值要差于解B對應的一個目標函數(shù)值,則稱解A無差別于解B,也叫作解A能帕累托支配解B,舉個例子,還是上面的圖,點C和點D就是這種情況,C點在第一個目標函數(shù)的值比D小,在第二個函數(shù)的值比D大。
3:最優(yōu)解
假設在設計空間中,解A對應的目標函數(shù)值優(yōu)越其他任何解,則稱解A為最優(yōu)解,舉個例子,下圖的x1就是兩個目標函數(shù)的最優(yōu)解,使兩個目標函數(shù)同時達到最小,但是前面也說過,實際生活中這種解是不可能存在的。真要存在就好了,由此提出了帕累托最優(yōu)解.
4:帕累托最優(yōu)解
同樣假設兩個目標函數(shù),對于解A而言,在 變量空間 中找不到其他的解能夠優(yōu)于解A(注意這里的優(yōu)于一定要兩個目標函數(shù)值都優(yōu)于A對應的函數(shù)值),那么解A就是帕累托最優(yōu)解.
舉個例子,下圖中應該找不到比 x1 對應的目標函數(shù)都小的解了吧,即找不到一個解優(yōu)于 x1 了,同理也找不到比 x2 更優(yōu)的解了,所以這兩個解都是帕累托最優(yōu)解,實際上,x1-x2 這個范圍的解都是帕累托最優(yōu)解,不信自己慢慢想。因此對于多目標優(yōu)化問題而言,帕累托最優(yōu)解只是問題的一個可接受解,一般都存在多個帕累托最優(yōu)解,這個時候就需要人們自己決策了。
5:帕累托最優(yōu)前沿
還是看 剛才 那張圖 ,如下圖所示,更好的理解一下帕累托最優(yōu)解,實心點表示的解都是帕累托最優(yōu)解,所有的帕累托最優(yōu)解構(gòu)成帕累托最優(yōu)解集,這些解經(jīng)目標函數(shù)映射構(gòu)成了該問題的Pareto最優(yōu)前沿或Pareto前沿面,說人話,即帕累托最優(yōu)解對應的目標函數(shù)值就是帕累托最優(yōu)前沿。
對于兩個目標的問題,其Pareto最優(yōu)前沿通常是條線。而對于多個目標,其Pareto最優(yōu)前沿通常是一個超曲面。
圖片來源于網(wǎng)絡,侵刪。
四、常見的分類算法有哪些?他們各自的優(yōu)缺點是什么?
優(yōu)點:
1)所需估計的參數(shù)少,對于缺失數(shù)據(jù)不敏感。
2)有著堅實的數(shù)學基礎,以及穩(wěn)定的分類效率。
缺點:
1)假設屬性之間相互獨立,這往往并不成立。(喜歡吃番茄、雞蛋,卻不喜歡
吃番茄炒蛋)。
2)需要知道先驗概率。
3)分類決策存在錯誤率。
優(yōu)點:
1)不需要任何領域知識或參數(shù)假設。
2)適合高維數(shù)據(jù)。
3)簡單易于理解。
4)短時間內(nèi)處理大量數(shù)據(jù),得到可行且效果較好的結(jié)果。
5)能夠同時處理數(shù)據(jù)型和常規(guī)性屬性。
缺點:
1)對于各類別樣本數(shù)量不一致數(shù)據(jù),信息增益偏向于那些具有更多數(shù)值的特征。
2)易于過擬合。
3)忽略屬性之間的相關性。
4)不支持在線學習。
優(yōu)點:
1)可以解決小樣本下機器學習的問題。
2)提高泛化性能。
3)可以解決高維、非線性問題。超高維文本分類仍受歡迎。
4)避免神經(jīng)網(wǎng)絡結(jié)構(gòu)選擇和局部極小的問題。
缺點:
1)對缺失數(shù)據(jù)敏感。
2)內(nèi)存消耗大,難以解釋。
3)運行和調(diào)差略煩人。
優(yōu)點:
1)思想簡單,理論成熟,既可以用來做分類也可以用來做回歸;
2)可用于非線性分類;
3)訓練時間復雜度為 O(n);
4)準確度高,對數(shù)據(jù)沒有假設,對 outlier 不敏感;
缺點:
1)計算量太大
2)對于樣本分類不均衡的問題,會產(chǎn)生誤判。
3)需要大量的內(nèi)存。
4)輸出的可解釋性不強。
優(yōu)點:
1)速度快。
2)簡單易于理解,直接看到各個特征的權(quán)重。
3)能容易地更新模型吸收新的數(shù)據(jù)。
4)如果想要一個概率框架,動態(tài)調(diào)整分類閥值。
缺點:
特征處理復雜。需要歸一化和較多的特征工程。
優(yōu)點:
1)分類準確率高。
2)并行處理能力強。
3)分布式存儲和學習能力強。
4)魯棒性較強,不易受噪聲影響。
缺點:
1)需要大量參數(shù)(網(wǎng)絡拓撲、閥值、閾值)。
2)結(jié)果難以解釋。
3)訓練時間過長。
優(yōu)點:
1)adaboost 是一種有很高精度的分類器。
2)可以使用各種方法構(gòu)建子分類器,Adaboost 算法提供的是框架。
3)當使用簡單分類器時,計算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其
簡單。
4)簡單,不用做特征篩選。
5)不用擔心 overfitting。
缺點:
對 outlier (離群值)比較敏感
以上就是關于多目標分類算法相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
多目標灰狼優(yōu)化算法(多目標灰狼優(yōu)化算法代碼)