HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    gpt3文章生成器(gpt2文章生成器)

    發(fā)布時間:2023-03-12 14:45:41     稿源: 創(chuàng)意嶺    閱讀: 116        問大家

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于gpt3文章生成器的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    ChatGPT國內(nèi)免費在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端,官網(wǎng):https://ai.de1919.com

    本文目錄:

    gpt3文章生成器(gpt2文章生成器)

    一、chatg中文版怎么下載正版

    在“蘿卜家園”下載。

    chatg中文版可以在“蘿卜家園”下載,網(wǎng)頁搜索“蘿卜家園”,進入首頁搜索“chatg中文版”即可。

    chatg中文版下載步驟:1、下載插件,復(fù)制官網(wǎng)鏈接,點擊Chrome瀏覽器搜索即可。2、在右上角打開【開發(fā)者模式】,選擇【加載已解壓的擴展程序】。3、第二步選擇解壓的文件夾,回到ChatGPT,打開 search on the Web。

    二、chatgpt都有哪些開放接口

    ChatGPT開放接口:

    1、歷史聊天紀錄查詢接口:用戶可以在已有記錄基礎(chǔ)上重新定制聊天模式,并且通過查詢接口查看聊天歷史紀錄。

    2、聊天機器人學習接口:用戶可以通過這個接口向ChatGPT學習語言知識,將其應(yīng)用于聊天中。

    3、聊天機器人行為控制接口:用戶可以通過此接口來控制聊天機器人的行為,比如限制聊天內(nèi)容、回答方式等。

    4、回復(fù)結(jié)果分類接口:用戶可以通過此接口根據(jù)不同類型的問題自動定義回復(fù)結(jié)果,以便更快的響應(yīng)用戶的需求。

    5、輸入內(nèi)容監(jiān)測接口:用戶可以通過此接口立即檢測聊天內(nèi)容是否違反了法規(guī)或聊天規(guī)則,并及時作出更改。

    三、PyTorch生成3D模型

    本文將介紹如何利用深度學習技術(shù)生成3D模型,使用了PyTorch和PolyGen。

    有一個新興的深度學習研究領(lǐng)域?qū)W⒂趯?DL 技術(shù)應(yīng)用于 3D 幾何和計算機圖形應(yīng)用程序,這一長期研究的集合證明了這一點。對于希望自己嘗試一些 3D 深度學習的 PyTorch 用戶,Kaolin 庫值得研究。對于 TensorFlow 用戶,還有TensorFlow Graphics。一個特別熱門的子領(lǐng)域是 3D 模型的生成。創(chuàng)造性地組合 3D 模型、從圖像快速生成 3D 模型以及為其他機器學習應(yīng)用程序和模擬創(chuàng)建合成數(shù)據(jù)只是 3D 模型生成的無數(shù)用例中的一小部分。

    然而,在 3D 深度學習研究領(lǐng)域,為你的數(shù)據(jù)選擇合適的表示是成功的一半。在計算機視覺中,數(shù)據(jù)的結(jié)構(gòu)非常簡單:圖像由密集的像素組成,這些像素整齊均勻地排列成精確的網(wǎng)格。3D 數(shù)據(jù)的世界沒有這種一致性。3D 模型可以表示為體素、點云、網(wǎng)格、多視圖圖像集等。這些輸入表示也都有自己的一組缺點。例如,體素盡管計算成本很高,但輸出分辨率很低。點云不編碼表面或其法線的概念,因此不能僅從點云唯一地推斷出拓撲。網(wǎng)格也不對拓撲進行唯一編碼,因為任何網(wǎng)格都可以細分以產(chǎn)生相似的表面。PolyGen,一種用于網(wǎng)格的神經(jīng)生成模型,它聯(lián)合估計模型的面和頂點以直接生成網(wǎng)格。DeepMind GitHub 上提供了官方實現(xiàn)。

    現(xiàn)在經(jīng)典的PointNet論文為點云數(shù)據(jù)建模提供了藍圖,例如 3D 模型的頂點。它是一種通用算法,不對 3D 模型的面或占用進行建模,因此無法單獨使用 PointNet 生成獨特的防水網(wǎng)格。3D-R2N2采用的體素方法將我們都熟悉的 2D 卷積擴展到 3D,并自然地從 RGB 圖像生成防水網(wǎng)格。然而,在更高的空間分辨率下,體素表示的計算成本很高,有效地限制了它可以產(chǎn)生的網(wǎng)格的大小。

    Pixel2Mesh可以通過變形模板網(wǎng)格(通常是橢圓體)從單個圖像預(yù)測 3D 模型的頂點和面。目標模型必須與模板網(wǎng)格同胚,因此使用凸模板網(wǎng)格(例如橢圓體)會在椅子和燈等高度非凸的物體上引入許多假面。拓撲修改網(wǎng)絡(luò)(TMN) 通過引入兩個新階段在 Pixel2Mesh 上進行迭代:拓撲修改階段用于修剪會增加模型重建誤差的錯誤面,以及邊界細化階段以平滑由面修剪引入的鋸齒狀邊界。如果你有興趣,我強烈建議同時查看AtlasNet和Hierarchical Surface Prediction。

    雖然變形和細化模板網(wǎng)格的常用方法表現(xiàn)良好,但它始于對模型拓撲的主要假設(shè)。就其核心而言,3D 模型只是 3D 空間中的一組頂點,通過各個面進行分組和連接在一起。是否可以避開中間表示并直接預(yù)測這些頂點和面?

    PolyGen 通過將 3D 模型表示為頂點和面的嚴格排序序列,而不是圖像、體素或點云,對模型生成任務(wù)采取了一種相當獨特的方法。這種嚴格的排序使他們能夠應(yīng)用基于注意力的序列建模方法來生成 3D 網(wǎng)格,就像 BERT 或 GPT 模型對文本所做的那樣。

    PolyGen 的總體目標有兩個:首先為 3D 模型生成一組合理的頂點(可能以圖像、體素或類標簽為條件),然后生成一系列面,一個接一個,連接頂點在一起,并為此模型提供一個合理的表面。組合模型將網(wǎng)格上的分布 p(M) 表示為兩個模型之間的聯(lián)合分布:頂點模型 p(V) 表示頂點,面模型 p(F|V) 表示以頂點為條件的面。

    頂點模型是一個解碼器,它試圖預(yù)測以先前標記為條件的序列中的下一個標記(并且可選地以圖像、體素字段或類標簽為條件)。人臉模型由一個編碼器和一個解碼器指針網(wǎng)絡(luò)組成,該網(wǎng)絡(luò)表示頂點序列上的分布。該指針網(wǎng)絡(luò)一次有效地“選擇”一個頂點,以添加到當前面序列并構(gòu)建模型的面。該模型以先前的人臉序列和整個頂點序列為條件。由于 PolyGen 架構(gòu)相當復(fù)雜并且依賴于各種概念,因此本文將僅限于頂點模型。

    流行的ShapeNetCore數(shù)據(jù)集中的每個模型都可以表示為頂點和面的集合。每個頂點由一個 (x, y, z) 坐標組成,該坐標描述了 3D 網(wǎng)格中的一個點。每個面都是一個索引列表,指向構(gòu)成該面角的頂點。對于三角形面,此列表長 3 個索引。對于 n 邊形面,此列表是可變長度的。原始數(shù)據(jù)集非常大,因此為了節(jié)省時間,我在此處提供了一個更輕量級的預(yù)處理數(shù)據(jù)集子集供你進行實驗。該子集僅包含來自 5 個形狀類別的模型,并且在轉(zhuǎn)換為 n 邊形后少于 800 個頂點(如下所述)。

    為了使序列建模方法發(fā)揮作用,數(shù)據(jù)必須以一種受約束的、確定性的方式表示,以盡可能多地消除可變性。出于這個原因,作者對數(shù)據(jù)集進行了一些簡化。首先,他們將所有輸入模型從三角形(連接 3 個頂點的面)轉(zhuǎn)換為 n 邊形(連接 n 個頂點的面),使用Blender 的平面抽取修改器合并面。這為相同的拓撲提供了更緊湊的表示,并減少了三角剖分中的歧義,因為大型網(wǎng)格并不總是具有唯一的三角剖分。為了篇幅的緣故,我不會在這篇文章中討論 Blender 腳本,但有很多資源,包括官方文檔和GitHub 上的這套優(yōu)秀示例,很好地涵蓋了這個主題。我提供的數(shù)據(jù)集已經(jīng)預(yù)先抽取。

    要繼續(xù)進行,請下載此示例 cube.obj 文件。這個模型是一個基本的立方體,有 8 個頂點和 6 個面。以下簡單代碼片段從單個 .obj 文件中讀取所有頂點。

    其次,頂點首先從它們的 z 軸(在這種情況下為垂直軸)按升序排序,然后是 y 軸,最后是 x 軸。這樣,模型頂點是自下而上表示的。在 vanilla PolyGen 模型中,然后將頂點連接成一維序列向量,對于較大的模型,該向量最終會得到一個非常長的序列向量。作者在論文的附錄 E 中描述了一些減輕這種負擔的修改。

    要對一系列頂點進行排序,我們可以使用字典排序。這與對字典中的單詞進行排序時采用的方法相同。要對兩個單詞進行排序,您將查看第一個字母,然后如果有平局,則查看第二個字母,依此類推。對于“aardvark”和“apple”這兩個詞,第一個字母是“a”和“a”,所以我們移動到第二個字母“a”和“p”來告訴我“aardvark”在“apple”之前。在這種情況下,我們的“字母”是按順序排列的 z、y 和 x 坐標。

    最后,頂點坐標被歸一化,然后被量化以將它們轉(zhuǎn)換為離散的 8 位值。這種方法已在像素遞歸神經(jīng)網(wǎng)絡(luò)和WaveNet中用于對音頻信號進行建模,使它們能夠?qū)旤c值施加分類分布。在最初的WaveNet論文中,作者評論說“分類分布更靈活,并且可以更容易地對任意分布進行建模,因為它不對它們的形狀做任何假設(shè)?!?這種質(zhì)量對于建模復(fù)雜的依賴關(guān)系很重要,例如 3D 模型中頂點之間的對稱性。

    頂點模型由一個解碼器網(wǎng)絡(luò)組成,它具有變壓器模型的所有標準特征:輸入嵌入、18 個變壓器解碼器層的堆棧、層歸一化,最后是在所有可能的序列標記上表示的 softmax 分布。給定一個長度為 N 的扁平頂點序列 Vseq ,其目標是在給定模型參數(shù)的情況下最大化數(shù)據(jù)序列的對數(shù)似然:

    與 LSTM 不同的是,transformer 模型能夠以并行方式處理順序輸入,同時仍使來自序列一部分的信息能夠為另一部分提供上下文。這一切都歸功于他們的注意力模塊。3D 模型的頂點包含各種對稱性和遠點之間的復(fù)雜依賴關(guān)系。例如,考慮一個典型的桌子,其中模型對角的腿是彼此的鏡像版本。注意力模塊允許對這些類型的模式進行建模。

    嵌入層是序列建模中用于將有限數(shù)量的標記轉(zhuǎn)換為特征集的常用技術(shù)。在語言模型中,“國家”和“民族”這兩個詞的含義可能非常相似,但與“蘋果”這個詞卻相距甚遠。當單詞用唯一的標記表示時,就沒有相似性或差異性的固有概念。嵌入層將這些標記轉(zhuǎn)換為矢量表示,可以對有意義的距離感進行建模。

    PolyGen 將同樣的原理應(yīng)用于頂點。該模型使用三種類型的嵌入層:坐標表示輸入標記是 x、y 還是 z 坐標,值表示標記的值,以及位置編碼頂點的順序。每個都向模型傳達有關(guān)令牌的一條信息。由于我們的頂點一次在一個軸上輸入,坐標嵌入為模型提供了基本的坐標信息,讓它知道給定值對應(yīng)的坐標類型。

    值嵌入對我們之前創(chuàng)建的量化頂點值進行編碼。我們還需要一些序列控制點:額外的開始和停止標記分別標記序列的開始和結(jié)束,并將標記填充到最大序列長度。

    由于并行化而丟失的給定序列位置 n的位置信息通過位置嵌入來恢復(fù)。 也可以使用位置編碼,一種不需要學習的封閉形式的表達。在經(jīng)典的 Transformer 論文“ Attention Is All You Need ”中,作者定義了一種由不同頻率的正弦和余弦函數(shù)組成的位置編碼。他們通過實驗確定位置嵌入的性能與位置編碼一樣好,但編碼的優(yōu)勢在于比訓(xùn)練中遇到的序列更長。有關(guān)位置編碼的出色視覺解釋,請查看此博客文章。

    生成所有這些標記序列后,最后要做的是創(chuàng)建一些嵌入層并將它們組合起來。每個嵌入層都需要知道期望的輸入字典的大小和輸出的嵌入維度。每層的嵌入維數(shù)為 256,這意味著我們可以將它們與加法相結(jié)合。字典大小取決于輸入可以具有的唯一值的數(shù)量。對于值嵌入,它是量化值的數(shù)量加上控制標記的數(shù)量。對于坐標嵌入,對于每個坐標 x、y 和 z,它是一個,對于上述任何一個(控制標記)都不是一個。最后,位置嵌入對于每個可能的位置或最大序列長度都需要一個。

    PolyGen 還廣泛使用無效預(yù)測掩碼來確保其生成的頂點和面部序列編碼有效的 3D 模型。例如,必須強制執(zhí)行諸如“z 坐標不遞減”和“停止標記只能出現(xiàn)在完整頂點(z、y 和 x 標記的三元組)之后”之類的規(guī)則,以防止模型產(chǎn)生無效的網(wǎng)格. 作者在論文的附錄 F 中提供了他們使用的掩蔽的廣泛列表。這些約束僅在預(yù)測時強制執(zhí)行,因為它們實際上會損害訓(xùn)練性能。

    與許多序列預(yù)測模型一樣,該模型是自回歸的,這意味著給定時間步的輸出是下一個時間步的可能值的分布。整個序列一次預(yù)測一個標記,模型在每一步都會查看先前時間步驟中的所有標記以選擇其下一個標記。解碼策略決定了它如何從這個分布中選擇下一個Token。

    如果使用次優(yōu)解碼策略,生成模型有時會陷入重復(fù)循環(huán)或產(chǎn)生質(zhì)量較差的序列。我們都看到生成的文本看起來像是胡說八道。PolyGen 采用稱為 核采樣 的解碼策略來生成高質(zhì)量序列。原始論文在文本生成上下文中應(yīng)用了這種方法,但它也可以應(yīng)用于頂點。前提很簡單:僅從 softmax 分布中共享 top-p 概率質(zhì)量的標記中隨機抽取下一個標記。這在推理時應(yīng)用以生成網(wǎng)格,同時避免序列退化。有關(guān)核采樣的 PyTorch 實現(xiàn),請參閱此要點。

    除了無條件生成模型外,PolyGen 還支持使用類標簽、圖像和體素進行輸入調(diào)節(jié)。這些可以指導(dǎo)生成具有特定類型、外觀或形狀的網(wǎng)格。類標簽通過嵌入投影,然后添加到每個注意力塊中的自注意力層之后。對于圖像和體素,編碼器創(chuàng)建一組嵌入,然后用于與轉(zhuǎn)換器解碼器的交叉注意。

    PolyGen 模型描述了一個強大、高效和靈活的框架,用于有條件地生成 3D 網(wǎng)格。序列生成可以在各種條件和輸入類型下完成,從圖像到體素到簡單的類標簽,甚至只是一個起始標記。表示網(wǎng)格頂點分布的頂點模型只是聯(lián)合分布難題的一部分。我打算在以后的文章中介紹面部模型。同時,我鼓勵你查看DeepMind 的 TensorFlow 實現(xiàn),并嘗試生成條件模型!

    原文鏈接:http://www.bimant.com/blog/polygen-3d-models/

    四、gpt3.0和3.5區(qū)別

    1. GPT3.0 是一種開放式自然語言處理技術(shù),用于從龐大的文本數(shù)據(jù)庫中學習特定行為或語言特性,允許計算機通過使用自然語言進行自主活動。GPT3.5是基于GPT3.0的升級版本,采用的是以模型及數(shù)據(jù)集的方式提升數(shù)據(jù)量的算法。

    2. GPT3.0 集成了許多基于深度學習的自然語言處理技術(shù),例如句法分析,語義理解,語料庫建模,預(yù)測等。GPT3.5利用超過100種技術(shù)來構(gòu)建模型和使用超過7個數(shù)據(jù)集來改善模型,提升模型精度。

    3. GPT3.0 的語料庫覆蓋了超過40億個句子,基本上涵蓋了所有領(lǐng)域,而GPT3.5擴大了語料庫的規(guī)模,擴大到八十億個句子,其語料庫覆蓋的范圍也更全面。

    4. GPT3.0 單次發(fā)送的文本數(shù)量較少,而GPT3.5可以處理千萬級以上的文本,可以在短時間內(nèi)完成更多任務(wù)。

    以上就是關(guān)于gpt3文章生成器相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    chatGPT的英文(chat的英文翻譯)

    如何用chatGPT(chatGPT)

    chatGPT寫代碼一半不寫了(寫代碼一直出錯怎么辦)

    居住區(qū)景觀設(shè)計文本(居住區(qū)景觀設(shè)計內(nèi)容)

    會議公司(會議公司經(jīng)營范圍)