麻豆国产13p,亚洲欧美日韩久久精品第一区,六月丁香婷婷激情国产,亚洲一区二区欧美,国产精品久久久久免费,99精品久久久久久久

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

RAFT(檢索增強(qiáng)的微調(diào))代表了一種全新的訓(xùn)練大語言模型(LLMs)以提升其在檢索增強(qiáng)生成(RAG)任務(wù)上表現(xiàn)的方法。“檢索增強(qiáng)的微調(diào)”技術(shù)融合了檢索增強(qiáng)生成和微調(diào)的優(yōu)點(diǎn),目標(biāo)是更好地適應(yīng)各個特定領(lǐng)域。該技術(shù)由微軟的主要AI倡導(dǎo)者 Cedric Vidal 和 Meta 的 AI 倡導(dǎo)者 Suraj Subramanian 共同提出。

一、前言

生成式 AI 對企業(yè)最具影響力的應(yīng)用之一是創(chuàng)建能夠訪問已有知識庫的自然語言接口,換句話說,它能夠針對銀行、法律和醫(yī)學(xué)等特定領(lǐng)域提供問題解答。目前主要有兩種方法可以實(shí)現(xiàn)這一點(diǎn):

  1. 特定領(lǐng)域微調(diào) (DSF):在代表特定領(lǐng)域知識的文檔集上訓(xùn)練現(xiàn)有的基礎(chǔ)模型。
  2. 檢索增強(qiáng)生成 (RAG):將文檔存儲在矢量數(shù)據(jù)庫中,并在查詢時(shí)根據(jù)與問題的語義相似性檢索相關(guān)文檔,并將其納入大型語言模型的上下文進(jìn)行情境學(xué)習(xí)。

本文將探討這兩種方法的局限性,并介紹加州大學(xué)伯克利分校研究人員 Tianjun Zhang 和 Shishir G. Patil 提出的 RAFT 方法如何克服這些局限性。該團(tuán)隊(duì)以 Gorilla 大型語言模型而聞名,他們在 RAFT 論文中介紹了這種新方法,并展示了如何使用 Meta Llama 2Azure AI Studio 進(jìn)行研究和實(shí)施。

伯克利團(tuán)隊(duì)還發(fā)表了一篇博客文章,解釋了 RAFT 方法的優(yōu)缺點(diǎn)以及如何產(chǎn)生更有效的結(jié)果。RAFT 論文的代碼實(shí)現(xiàn)可在他們的 Github 代碼庫中找到。

接下來,我們將介紹 RAFT 方法的工作原理。

二、理解 RAFT 方法

RAFT 是一種將預(yù)訓(xùn)練的大型語言模型微調(diào)到特定領(lǐng)域 RAG 設(shè)置的通用方法。在特定領(lǐng)域 RAG 中,模型需要根據(jù)特定領(lǐng)域的一組文檔回答問題,例如企業(yè)中的私有文件。這與通用 RAG 不同,因?yàn)橥ㄓ?RAG 中的模型并不知道它將在哪個領(lǐng)域進(jìn)行測試。

為了更好地理解特定領(lǐng)域 RAG,我們可以將其與考試類比。

  • 閉卷考試:類比于大型語言模型無法訪問任何外部信息來回答問題的情況,例如聊天機(jī)器人。在這種情況下,模型只能依靠預(yù)訓(xùn)練和微調(diào)期間學(xué)習(xí)到的知識來響應(yīng)用戶的提示。
  • 開卷考試:類比于大型語言模型可以參考外部信息來源(例如網(wǎng)站或書籍)的情況。在這種情況下,模型通常會與檢索器配對,檢索器會檢索相關(guān)文檔并將其附加到用戶的提示中。模型只能通過這些檢索到的文檔獲取新知識。因此,模型在開卷考試設(shè)置中的性能很大程度上取決于檢索器的質(zhì)量以及檢索器識別相關(guān)信息的能力。

傳統(tǒng)的 RAG 在收到查詢時(shí),會從索引中檢索一些可能包含答案的文檔,并將其作為上下文來生成答案。這就像學(xué)生參加開卷考試,可以翻閱教科書尋找答案。相比之下,微調(diào)就像閉卷考試,學(xué)生只能依靠記憶來回答問題。顯然,開卷考試更容易,這也解釋了 RAG 的有效性和流行性。

然而,這兩種方法都存在局限。微調(diào)的模型只能依賴于它所訓(xùn)練的知識,有時(shí)可能會出現(xiàn)近似或幻想的問題。RAG 雖然基于文檔,但檢索到的文檔可能只是與查詢語義接近,并不一定包含正確答案。這些干擾性文檔可能會誤導(dǎo)模型,導(dǎo)致生成錯誤的答案。

為了克服 RAG 的這些缺陷,TianjunShishir 提出了一種新的方法:RAFT。他們認(rèn)為,如果學(xué)生在開卷考試前預(yù)先學(xué)習(xí)教科書,就能取得更好的成績。同樣,如果大型語言模型能夠事先“學(xué)習(xí)”文檔,就能提高 RAG 的性能。他們提出的檢索增強(qiáng)型微調(diào)(Retrieval-Augmented Fine Tuning)方法,就是試圖讓模型在使用 RAG 之前先對特定領(lǐng)域進(jìn)行學(xué)習(xí)和適應(yīng)。

RAFT 專注于一種比通用開卷考試更窄但越來越受歡迎的領(lǐng)域,稱為特定領(lǐng)域開卷考試。在這種情況下,我們事先知道模型將要測試的領(lǐng)域,例如企業(yè)文檔、最新新聞或代碼庫等。模型可以使用它所微調(diào)的特定領(lǐng)域中的所有信息來回答問題。

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

RAFT 使用 Meta Llama 2 7B 語言模型,首先準(zhǔn)備一個合成數(shù)據(jù)集,其中每個樣本包含:

  • 一個問題
  • 一組參考文檔(包括相關(guān)文檔和干擾性文檔)
  • 從文檔中生成的答案
  • 使用思維鏈解釋,包含來自相關(guān)文檔的摘錄(由如 GPT-4 或 Llama 2 70B 這樣的通用大語言模型生成)

該數(shù)據(jù)集用于微調(diào) Llama 2 7B 模型,使其更好地適應(yīng)特定領(lǐng)域,并學(xué)會從檢索到的上下文中提取有用的信息。思維鏈解釋可以防止過擬合,提高訓(xùn)練的魯棒性

RAFT 介于 RAG 和特定領(lǐng)域微調(diào)之間,它既能使大型語言模型學(xué)習(xí)領(lǐng)域知識和風(fēng)格,又能提高答案生成的質(zhì)量。對于像 Llama 2 這樣在多個領(lǐng)域訓(xùn)練的預(yù)訓(xùn)練模型,RAFT 可以使其更適合醫(yī)療保健或法律等專業(yè)領(lǐng)域。

三、RAFT 模型評估

為了評估 RAFT 模型的性能,伯克利團(tuán)隊(duì)使用了來自不同領(lǐng)域的數(shù)據(jù)集,包括維基百科、編碼/API 文檔和醫(yī)學(xué)問答:

  • 自然問題 (NQ)、Trivia QA 和 Hotpot QA:基于維基百科的開放域問題,主要集中在常識。
  • HuggingFace、Torch Hub 和 TensorFlow Hub:來自 Gorilla 論文中提出的 APIBench,主要關(guān)注如何根據(jù)文檔生成正確的 API 調(diào)用。
  • PubMed QA:專門針對生物醫(yī)學(xué)研究問答的數(shù)據(jù)集,主要側(cè)重于根據(jù)給定文檔回答醫(yī)學(xué)和生物學(xué)問題。

研究人員還比較了以下基線模型:

  • 使用零樣本提示的 LlaMA2-7B-chat 模型:這是問答任務(wù)中常用的指令微調(diào)模型,提供清晰的指令,但不提供參考文檔。
  • 使用 RAG 的 LlaMA2-7B-chat 模型 (Llama2 RAG):與前者類似,但添加了參考上下文,是處理特定領(lǐng)域問答任務(wù)時(shí)最常用的組合。
  • 使用零樣本提示的特定領(lǐng)域微調(diào) (DSF):在沒有參考文檔的情況下進(jìn)行標(biāo)準(zhǔn)指令微調(diào)。
  • 使用 RAG 的特定領(lǐng)域微調(diào) (DSF RAG):為特定領(lǐng)域微調(diào)模型配備外部知識,使其能夠參考上下文來回答未知問題。

下表展示了 RAFT 在醫(yī)學(xué) (PubMed)、常識 (HotPotQA) 和 API (Gorilla) 基準(zhǔn)測試上的結(jié)果。

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

四、Azure AI Studio 微調(diào)

伯克利團(tuán)隊(duì)使用 Azure AI Studio 中的模型即服務(wù) (MaaS) 對 Meta Llama 2 進(jìn)行了微調(diào),用于他們的 RAFT 論文。微軟學(xué)習(xí)平臺也提供了相關(guān)教程,解釋如何在 Azure AI Studio 中微調(diào) Llama 2 模型。

過去,微調(diào)通常需要機(jī)器學(xué)習(xí)工程師具備豐富的專業(yè)知識,包括生成式 AI、Python、機(jī)器學(xué)習(xí)框架、GPU 和云基礎(chǔ)設(shè)施等。Azure AI Studio 的出現(xiàn)改變了這一現(xiàn)狀,它自動化了所有技術(shù)細(xì)節(jié)和基礎(chǔ)設(shè)施設(shè)置,讓用戶可以專注于數(shù)據(jù)準(zhǔn)備。

以下是訓(xùn)練 RAFT 模型的簡短教程,包括數(shù)據(jù)集準(zhǔn)備、模型微調(diào)和模型部署。

4.1、數(shù)據(jù)集準(zhǔn)備

我們提供一個示例來準(zhǔn)備 RAFT 的數(shù)據(jù)集。數(shù)據(jù)集包含問題、上下文和答案。上下文是一組文檔,答案是使用思維鏈風(fēng)格從其中一個文檔生成的,并借助 GPT-4 進(jìn)行輔助。

Question: The Oberoi family is part of a hotel company that has a head office in what city?context: [The Oberoi family is an Indian family that is famous for its involvement in hotels, namely through The Oberoi Group]...[It is located in city center of Jakarta, near Mega Kuningan, adjacent to the sister JW Marriott Hotel. It is operated by The Ritz-Carlton Hotel Company. The complex has two towers that comprises a hotel and the Airlangga Apartment respectively]...[The Oberoi Group is a hotel company with its head office in Delhi.]CoT Answer: ##Reason: The document ##begin_quote## The Oberoi family is an Indian family that is famous for its involvement in hotels, namely through The Oberoi Group. ##end_quote## establishes that the Oberoi family is involved in the Oberoi group, and the document ##begin_quote## The Oberoi Group is a hotel company with its head office in Delhi. ##end_quote## establishes the head office of The Oberoi Group. Therefore, the Oberoi family is part of a hotel company whose head office is in Delhi. ##Answer: Delhi

4.2、模型微調(diào)

我們將訓(xùn)練模型根據(jù)問題和提供的上下文輸出思維鏈答案。基礎(chǔ)模型 Llama2-7B 適用于 RAG 任務(wù),因?yàn)樗邆渫评怼⒗斫庹Z言、低延遲推理和易于適應(yīng)不同環(huán)境的能力。用戶只需打開 AI Studio 的微調(diào)向?qū)?/p>

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

選擇要微調(diào)的模型

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

選擇上傳數(shù)據(jù)選項(xiàng)并上傳您的訓(xùn)練數(shù)據(jù)集,它必須是 JSONL 格式

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

并指定提示和完成所在的列

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

最后設(shè)置批量大小乘數(shù)、學(xué)習(xí)率和訓(xùn)練輪數(shù)即可。

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

對于這些參數(shù),Tianjun 和 Shishir 建議:

  • 對于微調(diào),使用乘數(shù) 1,學(xué)習(xí)率 0.00002 和訓(xùn)練輪數(shù) 1。

4.3、模型部署

訓(xùn)練模型后,您可以將其部署在您自己的 GPUCPU 上,也可以將其部署在微軟 AI Studio 上。

RAFT:讓大型語言模型更擅長特定領(lǐng)域的 RAG 任務(wù)(raft詳解)

AI Studio 極大地降低了大型語言模型微調(diào)的門檻,讓開發(fā)人員和企業(yè)可以更輕松地調(diào)整模型以適應(yīng)特定領(lǐng)域的任務(wù)。這將推動定制模型在不同企業(yè)中的應(yīng)用,促進(jìn)生成式 AI 和大型語言模型的普及。

五、RAFT 團(tuán)隊(duì)答疑

Cedric 和 Suraj 就 RAFT 的相關(guān)問題采訪了 Tianjun 和 Shishir。

問:為什么選擇 Llama 2 7B?

答:因?yàn)槲覀儗W⒂?RAG 任務(wù),這類任務(wù)需要模型具備推理、理解語言、低延遲推理和易于適應(yīng)不同環(huán)境的能力。Llama 2 7B 恰好滿足這些要求,它是許多常識性問答任務(wù)的良好基礎(chǔ)模型,具有優(yōu)秀的數(shù)學(xué)能力,并且能夠解析較長的文檔。同時(shí),它也適合在 4 個 A100-40G GPU 上訓(xùn)練并在單個 GPU 上部署。綜合考慮性能、易部署性和許可證等因素,Llama 2 模型非常適合 RAFT 任務(wù)。我們也希望借助微軟 AI Studio 探索 Llama 2 13b 或 70b 的潛力。

問:對于嘗試微調(diào) Llama 的人,您有什么建議?

答:微調(diào) Llama 是一項(xiàng)復(fù)雜的任務(wù),涉及數(shù)據(jù)收集、數(shù)據(jù)清理和實(shí)際微調(diào)。我們建議收集與目標(biāo)領(lǐng)域相關(guān)的多樣化問題,并構(gòu)建思維鏈答案。存儲中間檢查點(diǎn)可以幫助提前停止訓(xùn)練。此外,微調(diào)的學(xué)習(xí)率應(yīng)該比預(yù)訓(xùn)練的學(xué)習(xí)率低至少一個數(shù)量級。其他最佳實(shí)踐包括使用 16 位精度、訓(xùn)練不超過 3 個 epoch,以及使用大批量大小。

問:微調(diào)應(yīng)該應(yīng)用于每個領(lǐng)域嗎?

答:微調(diào)模型的知識學(xué)習(xí)依賴于特定領(lǐng)域,但其行為在一定程度上可以泛化到其他領(lǐng)域。這涉及到準(zhǔn)確性和泛化性之間的權(quán)衡。通常,針對特定領(lǐng)域進(jìn)行微調(diào)是比較好的做法,但如果企業(yè)文檔集有限,針對這些文檔進(jìn)行微調(diào)可能會獲得更好的性能,因?yàn)橹R范圍更集中。

問:您對 Azure AI Studio 微調(diào)系統(tǒng)有何看法?

答:Azure AI 微調(diào)系統(tǒng)非常用戶友好,從訓(xùn)練數(shù)據(jù)上傳到超參數(shù)選擇,再到部署訓(xùn)練好的模型,一切都非常簡單易用。

問:AI Studio 微調(diào)有什么優(yōu)勢?

答:最大的優(yōu)勢是用戶無需擔(dān)心 GPU、訓(xùn)練平臺和模型部署等問題,只需一鍵操作即可完成,而且性能出色!

問:您認(rèn)為 AI Studio 微調(diào)可以改進(jìn)什么?

答:作為研究人員,我們希望開發(fā)者能夠提供更多關(guān)于系統(tǒng)內(nèi)部微調(diào)配方的細(xì)節(jié),例如它是使用低秩近似微調(diào)還是全參數(shù)微調(diào),使用了多少個 GPU,以及 LoRA 的超參數(shù)設(shè)置等等。

問:您認(rèn)為 AI Studio 微調(diào)會給行業(yè)帶來什么變化?

答:它可以使企業(yè)輕松進(jìn)行大型語言模型的微調(diào)和部署,極大地促進(jìn)定制模型在不同企業(yè)中的應(yīng)用。

六、結(jié)論

Llama 和 Azure 通過提供易于使用的平臺,使開發(fā)人員和企業(yè)能夠創(chuàng)建針對特定需求和挑戰(zhàn)的創(chuàng)新解決方案,推動了特定領(lǐng)域 AI 開發(fā)的新范式。這將使更多人受益于生成式 AI 和大型語言模型的最新進(jìn)展,構(gòu)建更加多樣化和包容的 AI 生態(tài)系統(tǒng)。(注: AI Studio 微調(diào)目前在美國西部 3 可用

七、References

[1]. Tianjun Zhang, Shishir G. Patil, Naman Jain, Sheng Shen, Matei Zaharia, Ion Stoica, Joseph E. Gonzalez, R. (2024). RAFT: Adapting Language Model to Domain Specific RAG: https://arxiv.org/pdf/2401.08406.pdf

[2]. Gorilla LLM https://github.com/ShishirPatil/gorilla

[3]. Meta Llama 2 https://llama.meta.com/

[4]. Azure AI Studio https://ai.azure.com/

[5]. RAFT Github Repo: https://github.com/ShishirPatil/gorilla/tree/main/raft

[6]. Fine-tune a Llama 2 model in Azure AI Studio: https://learn.microsoft.com/en-us/azure/ai-studio/how-to/fine-tune-model-llama

[7]. MS Learn https://learn.microsoft.com/

[8]. RAFT: Adapting Language Model to Domain Specific RAG: https://gorilla.cs.berkeley.edu/blogs/9_raft.html

相關(guān)新聞

聯(lián)系我們
聯(lián)系我們
公眾號
公眾號
在線咨詢
分享本頁
返回頂部
主站蜘蛛池模板: 丁香花在线高清免费观看 | 欧美精品久久久久久久免费观看 | 亚洲精品第一页 | 四虎永久免费影院 | 色就干| 久久久久久久999 | 小明免费视频一区二区 | 亚洲精品视频在线免费 | 亚洲一区二区三区久久 | 亚洲成人综合网站 | 久久久久久久久久免免费精品 | 极品日韩 | 国产欧美日韩看片片在线人成 | 五月综合久久 | 1024在线观看国产天堂 | 宅男的天堂| 国产精品亚洲一区二区三区久久 | 久久亚洲精品中文字幕二区 | 亚洲视频中文字幕在线 | 在线欧美色 | 久久艹人人艹 | 久久久一本精品99久久精品66 | 亚洲一区二区三区精品影院 | 日本在线一级 | 亚洲视频精品 | 欧美色视频免费高清播放 | 久久er热这里只有精品23 | 亚洲资源在线观看 | 久久精品久 | 婷婷丁香激情五月 | 久久久久久久久久免免费精品 | 久久国产一久久高清 | 亚洲伦理一区二区 | 中文字幕永久免费视频 | 国产成人精品一区二区三区 | 国产欧美日韩精品在线 | 在线观看亚洲国产 | 中文字幕在亚洲第一在线 | 国产最新网站 | 欧美精品一区二区三区四区 | 亚洲国产天堂久久综合2261144 |