亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大語言模型(LLM)快速理解

穎脈Imgtec ? 2024-06-04 08:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自2022年,ChatGPT發(fā)布之后,大語言模型(Large Language Model),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言模型。


一、發(fā)展歷史

大語言模型的發(fā)展歷史可以追溯到早期的語言模型和機器翻譯系統(tǒng),但其真正的起點可以說是隨著深度學習技術的興起而開始。

1.1 統(tǒng)計語言模型

在深度學習技術出現(xiàn)之前,語言模型主要基于傳統(tǒng)的統(tǒng)計方法,也稱為統(tǒng)計語言模型(SLM)。

SLMs是基于統(tǒng)計語言方法開始,基本思想是基于馬爾可夫假設建立詞預測模型,如根據(jù)最近的上下文預測下一個詞。具有固定上下文長度n的SLM也稱為n—gram語言模型。

然而這些模型雖然簡單,但在處理長文本序列時存在著詞匯稀疏性和上下文理解能力有限等問題。

1.2 神經(jīng)語言模型

隨著神經(jīng)網(wǎng)絡技術的發(fā)展,Bengio等人于2003年提出了神經(jīng)語言模型,將語言模型建模問題轉化為了一個神經(jīng)網(wǎng)絡的學習問題。

循環(huán)神經(jīng)網(wǎng)絡(RNN)和長短期記憶網(wǎng)絡(LSTM)的提出進一步增強了神經(jīng)語言模型對文本序列的建模能力。這些模型能夠捕捉到文本序列中的長程依賴關系,從而提高了語言模型的性能。

2013年,Google提出了Word2Vec模型,通過詞嵌入(Word Embedding)的方式將單詞映射到連續(xù)的向量空間中,提高了語言模型對單詞語義的理解能力。

2017年,谷歌提出了Transformer模型,該模型通過自注意力機制(Self-Attention)實現(xiàn)了并行計算,大大提高了模型的訓練速度。

1.3 預訓練語言模型

2018年,OpenAI發(fā)布了第一個版本的GPT模型,利用Transformer結構進行預訓練,這是首個成功利用大規(guī)模無監(jiān)督學習方法來預訓練通用語言表示的模型。

2018年,Google提出了BERT模型,與GPT的區(qū)別是GPT采用了單向的自回歸方式進行預訓練,而BERT通過MLM和NSP實現(xiàn)雙向上下文建模。使得預訓練語言模型的性能得到了進一步的提升。

隨后就激發(fā)了后續(xù)一系列的預訓練模型的發(fā)展,如XLNet、RoBERTTa、T5、 GPT-2、GPT-3、GPT 3.5、GPT-4 等等。而大語言模型也是在此過程中被定義下來的。


二、什么是大語言模型

2.1 定義

從大語言模型字面意思來理解,“語言”和“模型”很好理解,就是代表著在自然語言處理上的AI模型。而這個大指的是神經(jīng)網(wǎng)絡很大,包括模型的參數(shù)數(shù)量、訓練數(shù)據(jù)量、計算資源等。

參數(shù)數(shù)量

大語言模型通常含有數(shù)十億到數(shù)千億個參數(shù),使得模型能夠有更強的語言理解、推理和生成能力。

如果只通過 GPT(生成式預訓練 Transformer)模型的演進規(guī)模來看:

2018年發(fā)布的GPT-1包含 1.17 億個參數(shù),9.85 億個單詞。2019年發(fā)布的GPT-2包含15億個參數(shù)。2020年發(fā)布的GPT-3包含1750億個參數(shù)。ChatGPT 就是基于這個模型。2023年發(fā)布的GPT-4據(jù)爆料它可能包含1.8萬億個參數(shù)

訓練數(shù)據(jù)訓練大語言模型通常需要大規(guī)模的文本語料庫。這些語料庫可以包括來自互聯(lián)網(wǎng)、書籍、新聞等各種來源的文本數(shù)據(jù),從而確保模型能夠學習到豐富和多樣化的語言知識。如GPT-3,它是在混合數(shù)據(jù)集上進行訓練的;PaLM使用了一個有社交媒體對話、過濾后的網(wǎng)頁、書籍、Github、多語言維基百科和新聞組成的預訓練數(shù)據(jù)集。計算資源訓練大型語言模型需要大量的計算資源,包括高性能的計算機集群、大容量的存儲設備以及高速的網(wǎng)絡連接。英偉達價格高昂但依然一卡難求的高性能GPU H100,長期霸占著LLM領域的熱門話題,可以說,英偉達壟斷了目前的AI算力市場。馬斯克甚至戲言:GPU現(xiàn)在比drug還緊俏。

2.2 大語言模型訓練方式

現(xiàn)有的神經(jīng)網(wǎng)絡在進行訓練時,一般基于反向傳播算法(BP算法),先對網(wǎng)絡中的參數(shù)進行隨機初始化,再利用隨機梯度下降(SGD)等優(yōu)化算法不斷優(yōu)化模型參數(shù)。

大語言模型的訓練通常采用兩階段方法:預訓練(pre-training)和微調(fine-tuning)預訓練(Pre-training):

  • 在預訓練階段,模型使用大規(guī)模無監(jiān)督的文本數(shù)據(jù)進行訓練,學習文本數(shù)據(jù)中的語言表示。
  • 通常采用自監(jiān)督學習方法,即使用文本數(shù)據(jù)自身作為標簽來訓練模型。

訓練過程中,模型通過最小化損失函數(shù)來優(yōu)化參數(shù),以使得模型能夠更好地表示文本中的語義和語法信息。

微調(Fine-tuning):

  • 在預訓練完成后,可以將預訓練好的模型參數(shù)應用于特定的下游任務,如文本生成、文本分類、情感分析等。
  • 在微調階段,通常使用帶標簽的數(shù)據(jù)集對模型進行進一步訓練,以適應特定任務的需求。微調可以在預訓練模型的頂部添加一個或多個額外的層,并使用標簽數(shù)據(jù)對這些層進行訓練。

微調的目標是調整模型參數(shù),使得模型能夠更好地適應特定任務的特征和標簽,從而提高任務性能。

在微調階段,模型在與目標任務或領域相關的更具體、更小的數(shù)據(jù)集上進一步訓練。這有助于模型微調其理解,并適應任務的特殊要求。


三、預訓練

3.1 數(shù)據(jù)收集及處理

3.1.1 數(shù)據(jù)來源

無論是怎樣的模型,數(shù)據(jù)的質量都是相當重要的?,F(xiàn)有的大語言模型主要混合各種公共文本數(shù)據(jù)集作為預訓練語料庫。如下為一些代表性模型的預訓練數(shù)據(jù)來源的分布情況。43e86b7e-2209-11ef-bd4a-92fbcf53809c.jpg語料庫的來源可以廣義分為通用文本數(shù)據(jù)和專用文本數(shù)據(jù)。通用指的就是如網(wǎng)頁、書籍和對話文本等廣泛可獲取的,可以增強模型的泛化能力;專用文本數(shù)據(jù)就是在想讓模型更加專注某一專業(yè)領域時所用的,如科學數(shù)據(jù)、代碼等。如上圖中的模型中,就大部分都是使用了通用的預訓練數(shù)據(jù)。

3.1.2 數(shù)據(jù)預處理

收集數(shù)據(jù)之后,由于不確定性,所以需要對數(shù)據(jù)進行預處理,尤其是噪聲、榮譽、無關或有害的數(shù)據(jù)。預處理過程如下:4402580e-2209-11ef-bd4a-92fbcf53809c.jpg(1) 質量過濾(Quality Filtering)刪除低質量數(shù)據(jù),常采用基于分類器和基于啟發(fā)式兩種方法。分類器就是使用用高質量數(shù)據(jù)訓練好的二分類的模型來對數(shù)據(jù)進行分類,不過可能會刪除方言、口語和社會語言的高質量文本?;趩l(fā)式就是設計一組精心設計的規(guī)則來消除低質量文本,如基于語言、生成文本的評估度量、統(tǒng)計特征、關鍵詞等。

(2)去重(De-duplication)

重復數(shù)據(jù)會降低語言模型的多樣性,所以需要進行去重處理。
從數(shù)據(jù)顆粒上來說,可以分為在句子級、文檔級和數(shù)據(jù)集級等進行去重;(3)隱私去除(Privary Reduction)如涉及敏感個人信息的隱私內容,也是需要去除的,很簡單有效的就是用基于如姓名、地址、電話號碼等關鍵詞的方法。(4)分詞(Tokenization)非常關鍵的步驟,將原始文本分割成詞序列。

3.2 架構

3.2.1 編碼器-解碼器架構(Encoder-Decoder)

4414c386-2209-11ef-bd4a-92fbcf53809c.jpg如傳統(tǒng)Transformer 模型就是建立在此結構上。它使用了6層的Encoder和Decoder44207d84-2209-11ef-bd4a-92fbcf53809c.jpg

3.2.2 因果編碼器架構(Causal decoder)

這時當前主流使用的,采用單向注意力掩碼,以確保每個輸入標記只能關注過去的標記和它本身。輸入輸出標記通過解碼器以相同的方式處理。典型的模型有 GPT1/23, OPT, BLOOM, Gopher。

3.2.3 前綴解碼器架構(Prefix decoder)

修正了因果解碼器的掩碼機制,以使其能夠對前綴標記執(zhí)行雙向注意力,并僅對生成的標記執(zhí)行單向注意力。
這樣與編碼器-解碼器架構類似,前綴解碼器可以雙向編碼前綴序列并自回歸地逐個預測輸出標記,其中在編碼和解碼過程中共享相同的參數(shù)??偟膩碚f,Encoder-Decoder適用于序列到序列的任務,Causal Decoder適用于需要生成自回歸序列的任務,而Prefix Decoder適用于需要根據(jù)特定前綴生成序列的任務。

3.3 模型訓練

在數(shù)據(jù)處理好,模型搭建好之后,就要開始對模型進行訓練。


四、微調和強化學習

在預訓練后,大語言模型可以獲得解決各種任務的通用能力。然而,還可以通過特定目標進一步調整,也就是微調(Instruction Tuning)

4.1 指令微調

通過在特定的指令性任務數(shù)據(jù)集上進行訓練,提高模型對于指令類輸入的理解和響應。指令的意思,舉個例子,對聊天機器人的指令,需要包括如“今天天氣如何”和對應的回答,供模型學習。也就是說需要包含明確指令的數(shù)據(jù)集,一個指令需要包括一個任務描述、一個輸入輸出對以及少量實例(可選)。常用的指令實例格式化方法有格式化已有的數(shù)據(jù)集還有格式化人類需求。指令微調對模型的性能改進和任務泛化能夠起到很好的作用

4.2 對齊微調

大語言模型有時可能表現(xiàn)出意外的行為,例如制造虛假信息、追求不準確的目標,以及產(chǎn)生有害的、誤導性的和偏見性的表達。為了避免這些意外行為,研究提出了人類對齊,使大語言模型行為能夠符合人類的期望也就是對齊微調。

在預訓練階段使用的訓練語料庫是沒有對模型的主觀定性評估的。所以可以在使用人類反饋的數(shù)據(jù)進行微調,這個過程稱為強化學。


五、應用

大語言模型作為具有廣泛應用的變革工具而受到重視。

文本生成:這些模型具有理解上下文、含義和語言的微妙復雜性的固有能力。因此,他們可以生成連貫且上下文相關的文本。

問答與信息檢索:大語言模型在問答和信息檢索領域正在快速發(fā)展。他們理解人類語言的卓越能力使他們能夠從龐大的數(shù)據(jù)存儲庫中提取相關細節(jié)。

情感分析與意見挖掘:了解人類的情感和觀點在不同的環(huán)境中都具有巨大的意義,從塑造品牌認知到進行市場分析。像在社交媒體監(jiān)控和品牌認知分析領域的應用。

  • 輔助代碼生成:如GitHub Copilot、通義靈碼

本文來源:嗣金雜談

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    568

    瀏覽量

    11236
  • ChatGPT
    +關注

    關注

    30

    文章

    1595

    瀏覽量

    10006
  • LLM
    LLM
    +關注

    關注

    1

    文章

    340

    瀏覽量

    1231
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    廣和通發(fā)布端側情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的端側情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感
    的頭像 發(fā)表于 09-26 13:37 ?1520次閱讀

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎的評選,歡迎大家?guī)臀覀兺镀薄x謝支持本文轉自:騰訊技術工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數(shù)學解決了工業(yè)場景的問題,筆者基于過往工程經(jīng)驗
    的頭像 發(fā)表于 09-02 13:34 ?2921次閱讀
    3萬字長文!深度解析大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    使用瑞薩MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大語言模型LLM)可用于理解人類語言的交互方式,思考,并給出合適的回應。
    的頭像 發(fā)表于 05-15 14:40 ?766次閱讀
    使用瑞薩MPU芯片RZ/V2H部署DeepSeek-R1<b class='flag-5'>模型</b>

    小白學大模型:從零實現(xiàn) LLM語言模型

    在當今人工智能領域,大型語言模型LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學習大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復雜的任
    的頭像 發(fā)表于 04-30 18:34 ?975次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現(xiàn) <b class='flag-5'>LLM</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學習、開展監(jiān)督微調和進行提煉等。本文將深入探討LLM
    的頭像 發(fā)表于 04-03 12:09 ?1056次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是一款集成化的離線大語言模型(LLM)推理模塊,專為需要高效、智能交互的終端設備設計。Module13.2LLMMate模塊
    的頭像 發(fā)表于 03-28 18:49 ?767次閱讀
    新品 | Module <b class='flag-5'>LLM</b> Kit,離線大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理模塊套裝

    無法在OVMS上運行來自Meta的大型語言模型LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,可開發(fā),靈活擴展···LLM630ComputeKit是一款AI大語言模型推理開發(fā)平臺,專為邊緣計算和智能交互應用而設計。該套件的主板搭載愛芯AX63
    的頭像 發(fā)表于 01-17 18:48 ?1133次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理開發(fā)平臺

    小白學大模型:構建LLM的關鍵步驟

    隨著大規(guī)模語言模型LLM)在性能、成本和應用前景上的快速發(fā)展,越來越多的團隊開始探索如何自主訓練LLM
    的頭像 發(fā)表于 01-09 12:12 ?1495次閱讀
    小白學大<b class='flag-5'>模型</b>:構建<b class='flag-5'>LLM</b>的關鍵步驟

    一文理解多模態(tài)大語言模型——下

    /understanding-multimodal-llms ? 《一文理解多模態(tài)大語言模型 - 上》介紹了什么是多模態(tài)大語言模型,以及構建
    的頭像 發(fā)表于 12-03 15:18 ?926次閱讀
    一文<b class='flag-5'>理解</b>多模態(tài)大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>——下

    什么是LLM?LLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型LLM)的出現(xiàn),標志著我們對語言
    的頭像 發(fā)表于 11-19 15:32 ?4307次閱讀

    如何訓練自己的LLM模型

    訓練自己的大型語言模型LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關
    的頭像 發(fā)表于 11-08 09:30 ?1914次閱讀

    LLM技術對人工智能發(fā)展的影響

    隨著人工智能技術的飛速發(fā)展,大型語言模型LLM)技術已經(jīng)成為推動AI領域進步的關鍵力量。LLM技術通過深度學習和自然語言處理技術,使得機器
    的頭像 發(fā)表于 11-08 09:28 ?2291次閱讀

    使用LLM進行自然語言處理的優(yōu)缺點

    自然語言處理(NLP)是人工智能和語言學領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型語言
    的頭像 發(fā)表于 11-08 09:27 ?3524次閱讀

    LLM和傳統(tǒng)機器學習的區(qū)別

    在人工智能領域,LLM(Large Language Models,大型語言模型)和傳統(tǒng)機器學習是兩種不同的技術路徑,它們在處理數(shù)據(jù)、模型結構、應用場景等方面有著顯著的差異。 1.
    的頭像 發(fā)表于 11-08 09:25 ?2638次閱讀