當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]在人工智能 (AI) 的動態(tài)格局中,兩項突破性技術(shù)—— 大型語言模型 (LLM)和檢索增強生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對 LLM 和 RAG 進行了比較,闡明了它們的機制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨特優(yōu)勢。

人工智能 (AI) 的動態(tài)格局中,兩項突破性技術(shù)—— 大型語言模型 (LLM)和檢索增強生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對 LLM 和 RAG 進行了比較,闡明了它們的機制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨特優(yōu)勢。

大型語言模型(LLM):基礎(chǔ)和應(yīng)用

法學(xué)碩士,例如 GPT(生成式預(yù)訓(xùn)練變壓器),能夠在廣泛的主題中生成連貫且上下文相關(guān)的文本,從而徹底改變了人工智能場景。從本質(zhì)上講,法學(xué)碩士依賴于大量的文本數(shù)據(jù)和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),從他們接受過訓(xùn)練的文本內(nèi)容中學(xué)習(xí)語言模式、語法和知識。

法學(xué)碩士的優(yōu)勢在于其泛化能力:他們無需特定任務(wù)的培訓(xùn)即可執(zhí)行各種與語言相關(guān)的任務(wù)。這包括翻譯語言、回答問題,甚至撰寫文章。然而,法學(xué)碩士并非沒有挑戰(zhàn)。它們有時會產(chǎn)生聽起來合理但不正確或無意義的答案,這種現(xiàn)象被稱為“幻覺”。此外,他們的輸出質(zhì)量在很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量和廣度。

核心方面

· 規(guī)模:法學(xué)碩士的標志是其龐大的參數(shù)數(shù)量,達到數(shù)十億,涵蓋了廣泛的語言范圍。

· 培訓(xùn)制度:他們對不同的文本數(shù)據(jù)進行預(yù)培訓(xùn),隨后針對定制任務(wù)進行微調(diào),加深對語言細微差別的理解。

· 實用范圍:法學(xué)碩士在各個領(lǐng)域都有用途,從幫助內(nèi)容創(chuàng)作到促進語言翻譯。

示例:使用 LLM 生成文本

為了進行說明,請考慮以下使用 LLM 生成文本示例的Python代碼片段:

Python

1

從 變壓器 導(dǎo)入 GPT2Tokenizer,GPT2LMHeadModel

2


3

# 輸入

4

提示= “澳大利亞保留骨灰多久了?”

5

6

# 使用 GPT2 Tokenizer 對輸入進行編碼

7

分詞器= GPT2Tokenizer。from_pretrained ( 'gpt2' )

8

輸入=分詞器。編碼( prompt , return_tensors = 'pt' ) ## 使用 pyTorch ('tf' 使用 TensorFlow)

9


10

# 使用 gpt2 模型生成輸出

11

模型= GPT2LMHeadModel。from_pretrained ( 'gpt2' )

12

outputs = model.generate(inputs, max_length=25)

13


14

# Decode and print the result

15

result = tokenizer.decode(outputs[0], skip_special_tokens=True)

16

print("Generated text:", result)

此代碼使用流行的 LLM GPT-2 初始化文本生成管道,并根據(jù)給定的提示生成文本。

檢索增強生成 (RAG):概述和用例

RAG 通過將 GPT 等模型的生成能力與檢索機制相結(jié)合,引入了一種新穎的方法。該機制實時搜索文本數(shù)據(jù)庫(例如維基百科)以查找可用于通知模型響應(yīng)的相關(guān)信息。這種檢索和生成的結(jié)合使得 RAG 能夠生成不僅與上下文相關(guān)而且基于事實信息的答案。

與傳統(tǒng)法學(xué)碩士相比,RAG 的主要優(yōu)勢之一是它能夠通過引用最新來源提供更準確和具體的信息。這使得 RAG 對于信息準確性和及時性至關(guān)重要的應(yīng)用特別有用,例如新聞報道或?qū)W術(shù)研究協(xié)助。

然而,對外部數(shù)據(jù)庫的依賴意味著如果數(shù)據(jù)庫不全面或檢索過程效率低下,RAG 的性能可能會受到影響。此外,將檢索機制集成到生成過程中會增加模型的復(fù)雜性,從而可能增加所需的計算資源。

核心方面

· 混合性質(zhì):RAG 模型首先檢索相關(guān)文檔,然后利用此上下文進行知情生成。

· 動態(tài)知識訪問:與法學(xué)碩士不同,RAG 模型可以利用最新或特定領(lǐng)域的數(shù)據(jù),從而提供增強的多功能性。

· 應(yīng)用領(lǐng)域:RAG在需要外部知識的場景中表現(xiàn)出色,例如深度問答和事實內(nèi)容生成。

示例:實施 RAG 進行信息檢索

下面是如何實現(xiàn)用于檢索和生成文本的基本 RAG 系統(tǒng)的簡化示例:

Python

1

from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration

2

3

# A sample query to ask the model

4

query = "How long have Australia held on to the Ashes?"

5


6

tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq") ## Get the tokenizer from the pretrained model

7

tokenized_text = tokenizer(query, return_tensors='pt', max_length=100, truncation=True) ## Encode/Tokenize the query

8


9

# Find results with RAG-Sequence model (uncased model) using wiki_dpr dataset

10

retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact", use_dummy_dataset=True) ## Uses a pretrained DPR dataset (wiki_dpr) https://huggingface.co/datasets/wiki_dpr

11

model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever)

12

model_ generated_tokens =模型. generate ( input_ids = tokenized_text [ "input_ids" ], max_new_tokens = 1000 ) ## 從數(shù)據(jù)集中查找相關(guān)信息(tokens)

13


14

print ( tokenizer .batch_decode ( model_ generated_tokens , skip_special_tokens = True ) [ 0 ]) ## 解碼數(shù)據(jù)以找到答案

該代碼利用 Facebook 的 RAG 模型來回答查詢,首先對輸入進行標記,然后根據(jù)實時檢索的信息生成響應(yīng)。

比較見解:LLM 與 RAG

LLM 和 RAG 之間的選擇取決于具體的任務(wù)要求。以下是它們的疊加方式:

知識可及性

法學(xué)碩士依賴于他們的預(yù)訓(xùn)練語料庫,這可能會導(dǎo)致信息過時。RAG 具有檢索功能,可確保訪問最新數(shù)據(jù)。

實施復(fù)雜性

RAG 模型由于其雙步驟性質(zhì),比 LLM 具有更高的復(fù)雜性并且需要更多的資源。

靈活性和應(yīng)用

兩種模型類型都提供了廣泛的應(yīng)用潛力。LLM 為各種NLP任務(wù)奠定了堅實的基礎(chǔ),而 RAG 模型在即時訪問外部詳細數(shù)據(jù)至關(guān)重要的情況下表現(xiàn)出色。

結(jié)論:了解 LLM 和 RAG 前景

LLM 和 RAG 都代表了人工智能在理解和生成類人文本的能力方面的重大進步。在 LLM 和 RAG 模型之間進行選擇需要權(quán)衡 NLP 項目的獨特需求。法學(xué)碩士具有多功能性和通用性,使其適用于廣泛的應(yīng)用程序,并且是各種語言任務(wù)的首選。相比之下,RAG 的優(yōu)勢在于它能夠提供準確、信息豐富的響應(yīng),這在知識密集型任務(wù)中特別有價值,并且非常適合需要合并最新或特定詳細信息的情況。

隨著人工智能的不斷發(fā)展,LLM 和 RAG 的比較分析強調(diào)了為正確的任務(wù)選擇正確的工具的重要性。鼓勵開發(fā)人員和研究人員根據(jù)其特定需求權(quán)衡這些技術(shù)的優(yōu)點和局限性,旨在充分利用人工智能在創(chuàng)建智能、響應(yīng)式和上下文感知應(yīng)用程序方面的全部潛力。


本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉