HOME 首頁
SERVICE 服務產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務案例
NEWS 熱點資訊
ABOUT 關于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    多目標分類算法(多目標分類算法是什么)

    發(fā)布時間:2023-04-14 01:25:26     稿源: 創(chuàng)意嶺    閱讀: 64        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于多目標分類算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    多目標分類算法(多目標分類算法是什么)

    一、哪些機器學習算法可以處理多分類

    maxsoft作為logistics二分類的改進版,天生適合多分類;神經(jīng)網(wǎng)絡(如bp神經(jīng)網(wǎng)絡,隨機權(quán)神經(jīng)網(wǎng)絡,RBF神經(jīng)網(wǎng)絡等);通過建立多個支持向量機或者最小二乘支持向量機分類模型,通過投票算法選擇概率最大的分類標簽;也可以通過聚類算法(KNN,kMeans等)等無監(jiān)督學習算法實現(xiàn)分類。

    樸素貝葉斯分類器算法是最受歡迎的學習方法之一,按照相似性分類,用流行的貝葉斯概率定理來建立機器學習模型,特別是用于疾病預測和文檔分類。 它是基于貝葉斯概率定理的單詞的內(nèi)容的主觀分析的簡單分類。

    如果特征數(shù)量遠大于訓練樣本數(shù),則使用邏輯回歸或線性核方法的SVM。

    如果特征數(shù)較小,而樣本數(shù)量相對較多,可以考慮高斯核方法的SVM。

    如果特征數(shù)少兒樣本數(shù)極大,可以考慮增加一些特征,再使用邏輯回歸或線性核方法的SVM

    神經(jīng)網(wǎng)絡則對上述情況都可適用,但訓練時間較長。

    想要學習了解更多機器學習的信息,推薦CDA數(shù)據(jù)分析師課程。CDA 與國際知名考試服務機構(gòu) Pearson VUE 合作,認證考點覆蓋全球。課程內(nèi)容綜合使用統(tǒng)計分析方法、統(tǒng)計模型、運籌學、機器學習、文本挖掘算法,而非單一的機器學習算法。 點擊預約免費試聽課。

    二、多目標優(yōu)化算法的多目標是什么意思

    多目標優(yōu)化的本質(zhì)在于,大多數(shù)情況下,某目標的改善可能引起其他目標性能的降低,同時使多個目標均達到最優(yōu)是不可能的,只能在各目標之間進行協(xié)調(diào)權(quán)衡和折中處理,使所有目標函數(shù)盡可能達到最優(yōu),而且問題的最優(yōu)解由數(shù)量眾多,甚至無窮大的Pareto最優(yōu)解組成。

    三、多目標進化算法中的pareto解及pareto前沿介紹

    多目標求解會篩選出一個相對較優(yōu)的解的集合,在這個集合里就要用到pareto找出相對優(yōu)的解或者最優(yōu)解。

    多目標優(yōu)化問題的數(shù)學模型一般可以寫成如下形式:

            fig 2表示n個目標函數(shù),目標是都使之達到最小。

            fig 3是其變量的約束集合,可以理解為變量的取值范圍,下面介紹具體的解之間的支配,占優(yōu)關系。

    1:解A優(yōu)于解B(解A強帕累托支配解B)

            假設現(xiàn)在有兩個目標函數(shù),解A對應的目標函數(shù)值都比解B對應的目標函數(shù)值好,則稱解A比解B優(yōu)越,也可以叫做解A強帕累托支配解B,舉個例子,就很容易懂了.

           下圖中代表的是兩個目標的的解的情況,橫縱坐標表示兩個目標函數(shù)值,E點表示的解所對應的兩個目標函數(shù)值都小于C,D兩個點表示的解所對應的兩個目標函數(shù)值,所以解E優(yōu)于解C,D.

    2:解A無差別于解B(解A能帕累托支配解B)

            同樣假設兩個目標函數(shù),解A對應的一個目標函數(shù)值優(yōu)于解B對應的一個目標函數(shù)值,但是解A對應的另一個目標函數(shù)值要差于解B對應的一個目標函數(shù)值,則稱解A無差別于解B,也叫作解A能帕累托支配解B,舉個例子,還是上面的圖,點C和點D就是這種情況,C點在第一個目標函數(shù)的值比D小,在第二個函數(shù)的值比D大。

    3:最優(yōu)解

            假設在設計空間中,解A對應的目標函數(shù)值優(yōu)越其他任何解,則稱解A為最優(yōu)解,舉個例子,下圖的x1就是兩個目標函數(shù)的最優(yōu)解,使兩個目標函數(shù)同時達到最小,但是前面也說過,實際生活中這種解是不可能存在的。真要存在就好了,由此提出了帕累托最優(yōu)解.

    4:帕累托最優(yōu)解

    同樣假設兩個目標函數(shù),對于解A而言,在 變量空間 中找不到其他的解能夠優(yōu)于解A(注意這里的優(yōu)于一定要兩個目標函數(shù)值都優(yōu)于A對應的函數(shù)值),那么解A就是帕累托最優(yōu)解.

            舉個例子,下圖中應該找不到比 x1 對應的目標函數(shù)都小的解了吧,即找不到一個解優(yōu)于 x1 了,同理也找不到比 x2 更優(yōu)的解了,所以這兩個解都是帕累托最優(yōu)解,實際上,x1-x2 這個范圍的解都是帕累托最優(yōu)解,不信自己慢慢想。因此對于多目標優(yōu)化問題而言,帕累托最優(yōu)解只是問題的一個可接受解,一般都存在多個帕累托最優(yōu)解,這個時候就需要人們自己決策了。

    5:帕累托最優(yōu)前沿

    還是看 剛才 那張圖 ,如下圖所示,更好的理解一下帕累托最優(yōu)解,實心點表示的解都是帕累托最優(yōu)解,所有的帕累托最優(yōu)解構(gòu)成帕累托最優(yōu)解集,這些解經(jīng)目標函數(shù)映射構(gòu)成了該問題的Pareto最優(yōu)前沿或Pareto前沿面,說人話,即帕累托最優(yōu)解對應的目標函數(shù)值就是帕累托最優(yōu)前沿。

    對于兩個目標的問題,其Pareto最優(yōu)前沿通常是條線。而對于多個目標,其Pareto最優(yōu)前沿通常是一個超曲面。

    圖片來源于網(wǎng)絡,侵刪。

    四、常見的分類算法有哪些?他們各自的優(yōu)缺點是什么?

    優(yōu)點:

    1)所需估計的參數(shù)少,對于缺失數(shù)據(jù)不敏感。

    2)有著堅實的數(shù)學基礎,以及穩(wěn)定的分類效率。

    缺點:

    1)假設屬性之間相互獨立,這往往并不成立。(喜歡吃番茄、雞蛋,卻不喜歡

    吃番茄炒蛋)。

    2)需要知道先驗概率。

    3)分類決策存在錯誤率。

    優(yōu)點:

    1)不需要任何領域知識或參數(shù)假設。

    2)適合高維數(shù)據(jù)。

    3)簡單易于理解。

    4)短時間內(nèi)處理大量數(shù)據(jù),得到可行且效果較好的結(jié)果。

    5)能夠同時處理數(shù)據(jù)型和常規(guī)性屬性。

    缺點:

    1)對于各類別樣本數(shù)量不一致數(shù)據(jù),信息增益偏向于那些具有更多數(shù)值的特征。

    2)易于過擬合。

    3)忽略屬性之間的相關性。

    4)不支持在線學習。

    優(yōu)點:

    1)可以解決小樣本下機器學習的問題。

    2)提高泛化性能。

    3)可以解決高維、非線性問題。超高維文本分類仍受歡迎。

    4)避免神經(jīng)網(wǎng)絡結(jié)構(gòu)選擇和局部極小的問題。

    缺點:

    1)對缺失數(shù)據(jù)敏感。

    2)內(nèi)存消耗大,難以解釋。

    3)運行和調(diào)差略煩人。

    優(yōu)點:

    1)思想簡單,理論成熟,既可以用來做分類也可以用來做回歸;

    2)可用于非線性分類;

    3)訓練時間復雜度為 O(n);

    4)準確度高,對數(shù)據(jù)沒有假設,對 outlier 不敏感;

    缺點:

    1)計算量太大

    2)對于樣本分類不均衡的問題,會產(chǎn)生誤判。

    3)需要大量的內(nèi)存。

    4)輸出的可解釋性不強。

    優(yōu)點:

    1)速度快。

    2)簡單易于理解,直接看到各個特征的權(quán)重。

    3)能容易地更新模型吸收新的數(shù)據(jù)。

    4)如果想要一個概率框架,動態(tài)調(diào)整分類閥值。

    缺點:

    特征處理復雜。需要歸一化和較多的特征工程。

    優(yōu)點:

    1)分類準確率高。

    2)并行處理能力強。

    3)分布式存儲和學習能力強。

    4)魯棒性較強,不易受噪聲影響。

    缺點:

    1)需要大量參數(shù)(網(wǎng)絡拓撲、閥值、閾值)。

    2)結(jié)果難以解釋。

    3)訓練時間過長。

    優(yōu)點:

    1)adaboost 是一種有很高精度的分類器。

    2)可以使用各種方法構(gòu)建子分類器,Adaboost 算法提供的是框架。

    3)當使用簡單分類器時,計算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其

    簡單。

    4)簡單,不用做特征篩選。

    5)不用擔心 overfitting。

    缺點:

    對 outlier (離群值)比較敏感

    以上就是關于多目標分類算法相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    多目標灰狼優(yōu)化算法(多目標灰狼優(yōu)化算法代碼)

    多目標分類算法(多目標分類算法是什么)

    多目標優(yōu)化模型(多目標優(yōu)化模型求解)

    主播推廣員干嘛的(主播推廣員干嘛的呀)

    西安全屋定制口碑好的品牌(西安全屋定制十大名牌)