-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
庫問搜索為什么用不了(庫問搜索官網)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于庫問搜索為什么用不了的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內容,越精準,寫出的就越詳細,有微信小程序端、在線網頁版、PC客戶端
本文目錄:
一、騰訊算法高級研究員陳松堅:智能問答技術及其應用
隨著人工智能的飛速發(fā)展以及廣泛落地應用,越來越多的設備將會被植入智能問答技術,人機交互場景隨處可見,智能問答在未來將會成為一個非常重要的入口。
騰訊小知憑借著業(yè)界領先的智能AI引擎算法和海量大數據倉庫,已將智能問答技術落地實施,并且經過大量的業(yè)務考驗和優(yōu)化,知識點匹配度和準確率都已達到90%以上,在2018 年 GITC 全球互聯(lián)網技術大會上,騰訊小知榮獲年度互聯(lián)網最具價值產品獎。
騰訊小知算法負責人陳松堅也在會場發(fā)表了關于智能問答技術原理及其在To B場景下的應用的專題演講,從自己的角度為我們展現智能問答技術的最新成果。
他首先從智能問答是什么,為什么和怎么做的三個問題出發(fā),闡明了他對當前智能問答技術的定位和價值,首先,現階段的智能問答是信息檢索技術的升級,是量變而未達到質變。但是無論在To B還是To C的場景下,當前的技術都能夠切實解決一些用戶的痛點,提升用戶體驗,是亟待推進和充滿想象的方向。
在回答怎么做這個問題時,他詳細介紹了幾種不同的問答機器人的實現路徑,包括單輪問答機器人,多輪問答機器人及閱讀理解機器人。其中重點闡述了單輪問答機器人的實現原理,包括字面匹配,詞向量匹配,深度語義匹配,遷移學習等技術。
此后他還分享了小知團隊將上述技術產品化的經驗,包括智能客服機器人和電話機器人兩大塊,主要分享了當前產品的形態(tài),亮點和實際項目中取得的一些成果。
最后,他簡單總結了小知目前完成的工作以及就智能問答的發(fā)展提出了自己的幾點看法。
--------------------------------------------------------------
以下是演講稿全文:
各位下午好,很高興今天能在這里給大家做分享報告。先介紹一下,我們騰訊小知是致力于為政府和各行業(yè)提供一攬子智能問答解決方案的團隊,目前已經落地的包括基于文本的智能客服機器人和基于語音的電話機器人等。
在大多數人的認知里,智能問答很可能是以上的3個印象,2011年打敗了人類取得問答競賽冠軍的waston;2017年被沙特授予公民身份的機器人sofia;更為大家熟知的鋼鐵俠中的機器人管家jarvis。在大家心目中,智能就意味著能夠像真人一樣交流。然而作為從業(yè)者,很遺憾地告訴大家,目前的技術還遠沒有達到這個目標,我認為本質上目前的智能問答技術是對信息檢索技術的一次升級,是量變而未到質變。這個皇冠上的明珠還等待我們去摘取。
既然問答技術還不成熟,那為什么還要投身到這個領域呢。我想從To B和To C兩個角度去回答。對企業(yè)來講,當前的問答技術雖然無法解答復雜的咨詢,但是大部分的簡單的頭部問題是可以比較好的解答的。從本輪AI大潮NLP賽道的幾名種子選手都從智能客服這個方向切入就可以看出企業(yè)是確實存在對智能問答的剛性需求。而對普通用戶來講,一方面siri等語音助手每天都在為用戶提供便捷的交互界面,另一方面像amazon echo這一類的智能家居產品也逐步進入千家萬戶,成為物聯(lián)網生態(tài)的中心入口之一,這便是智能問答的價值所在。
那如何實現智能問答機器人呢?我們先來看最基本的單輪問答機器人的實現原理。
熟悉搜索引擎的朋友會發(fā)現這個架構跟搜索引擎的很類似。單輪問答一般來說就是FAQ問答,是基于業(yè)務問答對組成的問答庫進行檢索匹配。其中FAQ問題集包含多個相似問法供用戶問題去匹配。預處理階段一般會進行文本糾錯,標準化和底層NLP特征提取;召回階段會在倒排索引中召回若干個候選問題(粗排),而最后的匹配階段會基于各種模型進行匹配打分并返回得分最高的結果(精排)。匹配階段還會引入其他模塊,如知識圖譜和拒識模型,目的是輔助提升匹配的最終準確率。
retrieval中的匹配可以看做是naive solution,詞袋+VSM, 篩選候選夠用了,但是精排需要更精致的策略,第一,要利用監(jiān)督信息做擬合,我們構建基于問題對的訓練語料,擬合是否匹配這個二分類目標。第二,特征上拋棄稀疏的詞袋模型,而是構造各種相似度來做base scorer,然后利用非線性的抗噪能力強的xgboost來做融合,比如我們用到詞bigram, 字bigram, 核心詞,名詞等特征集合的相似度。這種方法的優(yōu)缺點是一體的,由于模型只學習字面相似的特征,因此不受領域影響,通用性強,適合用在冷啟動階段;但也因為只考慮字面相似,無法處理更深層的語義匹配。
那如何度量語義的相似呢。詞向量技術的興起是語義匹配的前提,所謂詞向量,是將孤立的傳統(tǒng)的token表示映射到相互關聯(lián)的向量空間中,這種關聯(lián)性,或者說是相似性,是通過詞語的上下文的來描述的。也就是說,上下文越相似的詞語,他們的語義就越相似,詞向量的歐式距離就越近。這是很容易理解的,更妙的是,通過對向量進行簡單加減運算,能夠呈現出概念的關系,比如king-man+woman的結果非常接近于queen, 因此說明詞向量能夠一定程度刻畫語義。那對句子如何做向量表示呢?一個簡單的想法是直接求和平均,WMD是另一個比較有意思且有效的做法,他將計算句子到句子的相似度建模成一個運輸的問題,把句子p的各個詞,運輸到q的各個詞上,也可以說是變換;運輸成本是詞向量的cosine相似度,而要運輸的是各個詞在句子中的權重,用線性規(guī)劃求解一個最優(yōu)解,即為p到q的距離。另外還有個有效的方法是SIF,思路是做詞向量加權求和,但是突顯出句子中非通用的部分,即權重用詞頻倒數來計算權重,實驗效果也很不錯。
上面的方法有一個問題就是沒有利用有監(jiān)督信息,所以效果有明顯的天花板。下面介紹這個工作是基于深層網絡做有監(jiān)督學習的匹配的,做法也比較簡單,首先把句子文本用one-hot編碼,假如詞典大小是500K,那編碼完長度就是500K維,其實等于是詞袋模型,然后輸入到一個多層的神經網絡去學習,最終得到一個128維的向量作為句子的語義表示,然后用cosine計算兩個句子與文檔的相似度作為模型輸出。這個方法其實是將高維稀疏的token特征映射到低維語義空間,跟詞向量的思路很類似,只不過訓練目標不同,并且這里使用了深層網絡結構。
但是CNN對上下文的處理能力依賴于窗口大小,遠距離就沒辦法處理了,因此要考慮另一種網絡單元RNN,這種單元是專門為時序模型量身打造的,簡單來說,每一時刻t上的隱藏狀態(tài),或者說第t個詞上的語義編碼,都由兩個輸入共同決定,即上一時刻的隱藏狀態(tài)和當前時刻的原始輸入,而為了解決遠距離傳遞導致的梯度消失和梯度爆炸等問題,RNN有一些變種結構來應對,比如 LSTM和GRU等。
CNN和RNN都是對原始輸入進行語義編碼的基本單元,編碼后的向量就可以接入多層感知機進行相似度計算,如果是直接計算cosine相似度,那就是dssm的升級版,而更常見的做法是把兩個句子的編碼向量拼接在一起,再經過一個多層感知機計算相似度,而這種方法統(tǒng)稱為表達式建模;
另一種方案考慮到兩個句子之間的交互信息對學習他們是否匹配顯然更為重要,這一類方案被稱為交互式建模,右邊是一個典型的例子,他最大的不同是首先對兩個句子的所有窗口組合進行拼接和卷積,得到交互信息。然后再進行多次卷積和池化得到表示。其他的交互方式還包括編碼之后,進行交互操作,如作差,點乘等,還有計算attention表示,也是常見的交互方式。
下面介紹我們的方案,跟上面介紹的模型相比,我們的方案主要做了兩處改動,一個是使用了稠密連接的網絡結構,讓rnn層的輸入和輸出拼接在一起做為下一層的輸入,第二個是混合注意力機制,即在計算attention向量進行交互式建模的基礎上,增加self-attention向量計算,然后把兩個attention向量經過門機制進行融合,這樣做一方面引入了問句間的交互信息,同時又增強了對自身的表達建模。
上面的模型是比較復雜的模型,參數量有5.8M。在實際中應用中訓練語料會嚴重不足,為了解決這個問題,我們引入了遷移學習的策略。首先第一種是多任務聯(lián)合學習,比如在擬合兩個問句是否匹配的同時,也對問句進行分類預測;另外還可以同時對匹配的問題對做seq2seq的翻譯模型訓練。這兩個策略都證明能有效提升準確率。
而另一個思路更加直觀,即引入其他領域的語料,所謂多語料遷移。Fine-tune即參數微調是其中一種做法,即先用通用語料訓練網絡,固定底層表達層的參數,然后再使用領域語料調整上層參數;另一種思路參考了對抗學習的思想,即引入一個新的任務“混淆分類器”去判別當前樣本是來自源語料還是目標語料,通過在損失函數中增加反向的混淆分類損失項,讓混淆分類器盡可能地無法區(qū)分樣本的來源,從而保證共享了參數的表達網絡能夠學習到兩部分語料中共性的部分。
以上的介紹都是為了完成一個基本的單輪對話機器人,而實際應用中,往往存在需要需要交互的場景,比如查詢社保余額,就需要用戶提供指定信息,如姓名,身份證號,手機號等。這種是所謂任務導向型機器人,而另一種,基于知識圖譜的機器人也往往會涉及到多輪交互。這里簡單介紹一下多輪對話機器人的架構,整體上是一個對話管理系統(tǒng),總的來說是管理會話狀態(tài),包含4個模塊,分別是輸入部分:自然語言理解模塊NLU,負責意圖識別和抽取槽位實體,比如這里匹配到了意圖是查詢社保余額,抽取到了社保號1234。得到的意圖和槽位值會送入到對話狀態(tài)追蹤模塊,DST,他負責會話狀態(tài)的更新,形式化來說是一個函數,輸入是當前狀態(tài)s和當前的query經過NLU處理過得到的意圖和槽位值q, 輸出新的狀態(tài)s‘,下一步是把s’送入DPL,對話策略模塊,這個模塊是根據新的狀態(tài)s‘輸出行動a,通常這個決策選擇會依賴于一個外部數據庫或知識圖譜,最后,由輸出部分,自然語言生成模塊NLG負責將行動轉換為自然語言文本,返回給用戶。
前面提到的單輪FAQ機器人,有一個問題是問答準確率依賴于問答庫的質量,而問答庫的構建耗時費力,所以針對數據較大的非結構化文檔,如果可以直接從中抽取答案,是非常理想的做法。比如斯坦佛大學開源的drQA,就是基于wikipedia的語料做的一個開放域上的問答機器人,我們來看看這種閱讀理解機器人的架構示意,他也是基于檢索重排的思路,首先把可能的文段從語料庫中摘取出來,然后送入閱讀理解模型進行答案定位,打分,排序和選擇得分最高的答案。閱讀理解模型與匹配模型是類似的,需要先對問題和候選文段進行編碼表示,不同之處在于最終預測的目標是答案的起始和結束位置。我所在的團隊在去年,在閱讀理解的權威公開測評Squad v1中取得過第一的成績,同時參加這個測評的包括了google, facebook, 微軟,阿里idst, 科大訊飛等國內外同行。說明業(yè)界對這種技術還是非常看重的。
下面分享小知在把以上技術落地產品化的經驗。首先我們來看看小知的整體架構圖,核心引擎有兩部分,一塊是上面重點闡述的深度語義匹配模型,另一塊是本次分享沒有展開的知識圖譜引擎,在此之上,我們構建了FAQ機器人,多輪會話機器人(任務機器人),閑聊機器人等。以下是我們單輪和多輪機器人的示例。
在我們實際的落地項目中,得益于深度遷移模型的語義匹配能力和行業(yè)知識圖譜的的精準匹配和輔助追問,小知機器人能夠做到95%左右的問答準確率,并且節(jié)省了50%以上的服務人力,切實為政府和企業(yè)提升效率和降低成本。
在智能客服的基礎上,我們又打造了基于語音的電話機器人,力主融合智能客服,人工在線客服,工單系統(tǒng)和電話機器人,為客戶打造從售前售中售后的整體解決方案。
以下是電話機器人的整體架構圖,核心是自然語言理解NLU模塊,負責識別用戶提問意圖
提取相關實體。根據NLU輸出的結果,內置的對話管理引擎會進行流程狀態(tài)流轉和跟蹤。
另外,ASR語音識別和TTS語音合成是不可或缺的重要服務,這三個模塊相互協(xié)作,共同完成與用戶的交互。
最后對智能問答的未來發(fā)展提幾點我的看法。目前學術界比較公認的一個方向是,需要更有機地結合模型和規(guī)則,而在問答領域,規(guī)則的一大組成部分就是知識圖譜,包括開放領域的知識圖譜和專業(yè)領域知識圖譜。而更進一步地,我們需要研究帶有推理性質的事理型知識圖譜去描述領域內的規(guī)則和知識,讓機器人能夠處理帶有復雜條件的問題,提供更智能的回復。在我看來,智能問答的一個突破口就在于解決以上三個問題。以上就是今天分享的內容,謝謝大家。
主講人介紹:
陳松堅,騰訊數據平臺部算法高級研究員,有著8 年的 NLP 研發(fā)經驗,2017 年加入騰訊 TEG 數據平臺部,負責智能客服產品騰訊小知的算法規(guī)劃和落地。負責過多個智能客服項目,對封閉領域的智能問答有豐富的實戰(zhàn)經驗。
二、工作中有什么困難如何回答
工作中有什么困難如何回答
工作中有什么困難如何回答,在我們的職場中其實有很多的知識都是需要我們了解的,各行各業(yè)在職場上需要了解的內容和要求也都是有所差別的,以下了解工作中有什么困難如何回答。
工作中有什么困難如何回答1
問這個問題的用意是什么?
這個問題在面試中經常碰到,我自己面試的時候,也喜歡問這個問題,這個問題可以考察候選人面對困難的能力。
1、 根據碰到的難題,找到可能的弱項
一個候選人說出自己的工作中碰到的難題,根據候選人的難題,可以把難題分為四類:知識、技能、業(yè)務、溝通, 在對應的分類上,做進一步的追問, 看看是不是由弱項,當然這個弱項不是說真的不行,而應該看難題的難度。
根據難題的水平,可是知道候選人的水平,如果是一個簡單的問題,而說成是難題,這說明候選人平時的工作難度不大,碰不到難題,又或者是候選人能力不行,這么簡單的都作為難題。
如果這個難題是真的難,說明候選人平時工作的是重要的、核心的任務,真的是有水平的。
2、 根據解決問題的思路,可以知道解決問題的能力
候選人答完問題以后,需要做一個追問,怎么解決問題的? 這個解決問題的思路,可以很好看出候選人的分析思考能力。
有的人是自己查找資料,有的人是搜索引擎,有的人尋求幫助, 這些都是可行。
解決完問題以后,后續(xù)對于難點有沒有復盤,有沒有優(yōu)化方案,有沒有在團隊做分享也是一個很重要的點,如果有做分享,這次的問題解決成為團隊的知識。
3、 有沒有難題,可以知道對于項目參與程度
在面試中,有些候選人在團隊里面,只是做一些簡單的打雜的事情,然后他自己說核心成員,如果識別,可以從他說的問題中知道,如果問題簡單或者沒有問題,估計是沒有深度參與的項目的。
應該怎么回答?
這個問題可以看到自己與別人的區(qū)分,特別是自己解決問題的能力,特別是解決難題的能力,這是加分的選項,所以要好好回答。
1、平時碰到問題,解決了,記得復盤總結
平時碰到了問題,自己思考、嘗試,搜索,咨詢別人、跟別人請教, 無論是怎樣解決,不能就這么完事了。解決以后,特別是難題,需要對問題進行復盤總結。
復盤總結能力是一項非常重要的能力,針對這個問題,可以總結解決思路,以后碰到類似的問題就可以套用,還有就是可以把解決方案寫下來,甚至寫成Blog在網絡上發(fā)表,相當于給自己做了一個筆記,同時也方便了其他人,這樣可以加深印象。
這樣,當面試官問平時遇到過什么難題的時候,你可以手到拳來, 把自己的難題庫或者是博客拿出來,跟面試官說一遍。
2、 可以使用star法則回答
STAR法則,即為Situation Target Action Result的縮寫,具體含義是:
Situation:事情是在什么情況下發(fā)生
Target:你是如何明確你的目標的
Action:針對這樣的情況分析,你采用了什么行動方式
Result:結果怎樣,在這樣的情況下你學習到了什么
通過STAR法則,把自己的問題描述出來以后,并且把自己是如何解決,學習到的經驗教訓都說出來,這樣既清晰又全面。
當然,講到問題的時候,可以講一些細節(jié),渲染下難度,后面學習到的東西,可以拔高一下。
回答的誤區(qū)是什么?
當然了,回答這個問題,最怕的是問題過于簡單,這樣面試官覺得你水平太差,這就是平時不注重積累,沒有把自己解決問題總結,只是把問題解決就完了。
當然,說了難題,一定要說解決方案,如果沒有解決方案,那還不如不說。容易陷入尷尬。
工作中有什么困難如何回答2
被問到“工作中遇到最困難的事”時,該怎么回答呢?
其中,任正非談到了一個問題:“面試時發(fā)現被訪者的長處,跟隨他的長處來了解他,讓被訪者在20分鐘內談論自己的情況就是像紙上解釋自己的水平。 再來一次,然后問有關他的長處的問題,不要太過仔細地檢查他并嚇他。非常重要,面試官應該找到候選人的長處和長處,并在將來使用候選人的長處而不是專注于他們的弱點,我發(fā)現了一些困難,奇怪的問題,檢查了他,嚇到了他,我真的 高興,嚇跑候選人或發(fā)現不需要的東西。
這在新手訪問員中更明顯,目的是展示他們的能力。為了找到候選人的長處和長處,除了候選人自己的陳述外,訪問員還將 還會問:“您在工作中遇到什么問題?”面試官回答后,還會問:“您是如何解決的?”
參加團隊的任何人都將知道您可能會遇到各種問題,例如隊友 不相信你,高級員工不信服,成員不相處,各種各樣的幫派,聽不見別人的話,每個人的目標都不一致……等等。這些都是正常的,但是你是 只有一個沒有遇到“分工”問題的人。
為什么? 因為“根據能力,專業(yè)知識和任務要求合理地分工”,這基本上是團隊經理最基礎,最日常的工作! 這就像聽到數據分析師說的那樣:“我最大的困難是使用EXCEL?!?這不是荒謬的嗎? 我通常會遇到問題,思考,嘗試,搜索,咨詢他人,并向他人尋求建議。 無論您如何解決,都無法完成。
解決問題后,尤其是問題后,需要對問題進行審查和總結。 審查和總結的能力是非常重要的能力。 對于此問題,您可以總結和解決想法,以后在遇到類似問題時也可以應用它。
另外,您可以寫下解決方案,甚至將其寫為博客,然后在Internet上發(fā)布。 于為自己做筆記,對別人也很方便,可以加深印象。 這樣,當面試官問您通常遇到什么問題時,您可以舉起拳頭,拿出自己的.問題庫或博客,然后再次與面試官交談。
工作中有什么困難如何回答3
工作中的困難如何解決
不斷學習,找尋方法
面對困難,如果一味逃避絕不是解決之道,因為問題始終在那里,遲早要面對,要解決掉,與其坐以待斃,還不如積極學習,請教別人,尋找方法!
勇于行動,不斷嘗試
找到方法后要勇于嘗試,只有不斷嘗試才能解決問題,哪怕是錯誤的或者失敗的也要去行動起來,至少你已經開始與困難做斗爭了!
不怕失敗,總結經驗
人生不如意事十之八九,所以當你失敗的時候不要灰心喪氣,平常的看待,這在你人生的長河中或許只是一個小小的波浪,所以不要害怕失敗,認真總結經驗教訓才重要!
保持理智的思維
要相信困難永遠沒有辦法多,所以說困難只是暫時的,只是還沒有找到合適的解決方案,時刻保持理智的思維,不要被暫時的困難沖昏了頭腦做出以下糊涂的決定,千萬不要在自己憤怒或者沮喪的時候做出決定。
遇到困難怎么辦
面對這些生活的繁瑣,也曾想過逃避,可是你要明白逃避并沒有用,遇到困難,首先不要想逃避,逃避永遠不會是個好方式,冷靜分析你遇到的困難自己有沒有辦法解決,即使很麻煩,這就成功了一半了。
自己解決不了的事并非別人也解決不了,適當的示弱并不會降低你的自尊,如果你一昧的堅持自己的觀點,不肯低頭,即使別人想幫你,也會被你扎的鮮血淋漓,不敢再靠近。
發(fā)泄是一個好方法,如果你現在已經是心煩意亂的狀態(tài),把問題拋到一邊,你現在的情緒智慧把事情變得越來越糟糕,大聲的喊或歌唱是不錯的釋放方式,到海邊、天臺或者空曠的地方都是不錯的選擇。
發(fā)泄完之后,你肯定發(fā)現自己的腦子清醒了不少,現在再來思考問題思路就比較清晰了,只要你想,沒有完成不了的事,我也曾陷入心煩意亂,也曾鉆牛角尖,但是我一直堅信沒有解決不了的問題,保持樂觀的心態(tài)很重要。
最后呢,再說我經常用的一種方法,寫日記或者比較私人的網站,你的朋友都不知道的那種,在那里,你可以想寫你心里所有想說的話,包括罵人的,等等都可以,當然,發(fā)泄過后還是要面對問題,解決問題的
工作上遇到困難怎么辦
困難面前逼自己一把
當你遇到難題,你不要一開始就想著退縮,不想去闖也不想去承擔,你不妨試試逼一下自己,萬一成功了呢,不要把自己想的太過渺小,你勇敢前進試一下,說不定你自己都不知道自己的潛力有多深,你也不知道自己能到達哪里,困難是檢驗自己的最好證明。
把困難放小,看淡
我們在生活中碰到的每一件事,都要秉承大事化小,小事化無的原則,困難也是,你把它看的很大,它就真的大,你把它看小,它其實就是那么小,困難面前你強它就弱,你弱它就強。
把困難當做朋友
當你做一件事出現了難題,不要氣急敗壞,把困難看成敵人一樣非要消滅不可,其實困難就像是朋友,有了它你才會想辦法解決問題,你才會前進,有了它,你才會居安思危,時刻保持向上的精神,所以要把困難當成朋友,時刻陪伴左右,你的人生才更精彩。
工作中遇到困難怎樣處理
首先,每個員工在解決問題的時候都有自己的一套認知系統(tǒng)。如果反復解決不了,可能問題本身已經超出了自身的認知范圍。
其次,如果這個問題需要浪費很多時間的話,那遇到這種難題的時候,其他同事因為自己手頭的工作也很難有空幫助你。
再次,你要去找領導的話,領導一開始總是不大理睬具體問題的。他會說,我花錢請你來公司就是解決問題的。除非你是那種阿諛逢迎的高情商者,否則很難說動他的。
最怕遇到存在競爭關系的時候,你的難題恰恰是某些有競爭關系的同事拿來說事的籌碼。天天數落你這不行,那不是,一副嫌棄得不得了的樣子。他們所想的無非是給你制造更多的麻煩,非要逼你離開公司而已。
那么在工作中的困難是不是你一個人的呢?如果領導就給你一個人分配這個任務,你只有找他商量是不是能多分配一點人手或者另請高明。
如果是開明的領導,為了工作一定幫你解決。倘若是要故意整你,那這個困擾可能就伴隨著你的離職結束了。
所以,遇到困難盡力解決,實在解決不了或者接受不了溜須拍馬的所謂高情商,那徹底離開這個困擾,讓心情好起來。
三、JAVA面試時當被問到hibernate中的N+1問題時,應該如何回答?
1 )lazy=true, hibernate3開始已經默認是lazy=true了;lazy=true時不會立刻查詢關聯(lián)對象,只有當需要關聯(lián)對象(訪問其屬性,非id字段)時才會發(fā)生查詢動作。
2)二級緩存, 在對象更新,刪除,添加相對于查詢要少得多時, 二級緩存的應用將不怕n +1 問題,因為即使第一次查詢很慢,之后直接緩存命中也是很快的。
不同解決方法,不同的思路,第二條卻剛好又利用了n +1 。
3) 當然你也可以設定fetch=join
四、百度為什么要我提問?
你好!
我簡單說幾句吧,有很多人有你這個疑問!
【1】百度首先要讓你了解過程,要了解百度知道的使用過程
【2】并且希望通過任務給你一定的獎勵!
【3】希望讓所有用戶都參與問答過程,體驗分享快樂!
想起來別的我會繼續(xù)補充!
【新手任務,是吧!】
以上就是關于庫問搜索為什么用不了相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀: