中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當前位置: 首頁 > news >正文

做公司網站時的英文簡介網站生成app工具

做公司網站時的英文簡介,網站生成app工具,做爰的細節(jié)描述和過程網站,網站建設前端需要看什么書有同學給我留言說想知道怎么訓練自己的大語言模型,讓它更貼合自己的業(yè)務場景。完整的大語言模型訓練成本比較高昂,不是我們業(yè)余玩家能搞的,如果我們只是想在某個業(yè)務場景或者垂直的方面加強大模型的能力,可以進行微調訓練。 本文…

有同學給我留言說想知道怎么訓練自己的大語言模型,讓它更貼合自己的業(yè)務場景。完整的大語言模型訓練成本比較高昂,不是我們業(yè)余玩家能搞的,如果我們只是想在某個業(yè)務場景或者垂直的方面加強大模型的能力,可以進行微調訓練。

本文就來介紹一種大語言模型微調的方法,使用的工具是我最近在用的 Text Generation WebUI,它提供了一個訓練LoRA的功能。

LoRA是什么

LoRA之于大語言模型,就像設計模式中的裝飾器模式:裝飾器模式允許向一個對象添加新的功能,而不改變其結構。具體來說,裝飾器模式會創(chuàng)建一個裝飾類,用來包裝原有的類,并在保持原有類方法簽名完整性的前提下,提供額外的功能。

LoRA,全稱為Low-Rank Adaptation,是一種微調大型語言模型的技術。LoRA通過向大型語言模型添加一層額外的、低秩的可訓練權重,來增強或調整模型的功能,而不需要改變原有模型的結構或重新訓練整個模型。這就像是用裝飾器包裝了一個對象,增強了其功能,但沒有改變原有對象的本質。

LoRA的關鍵思想是在模型的某些部分(通常是Transfomer注意力機制的權重矩陣)中引入低秩矩陣(低秩就是矩陣的行和列相對大模型的矩陣比較少)。在前向傳播和反向傳播過程中,這些低秩矩陣與大模型的權重矩陣相結合,從而實現對模型的微調。

相比完整的訓練,LoRA訓練具備兩個明顯的優(yōu)勢:

  • 高效:微調過程中需要的計算資源和存儲空間相對很少,如果訓練數據只是幾千條對話數據,我們可以在分鐘級的時間內完成微調。
  • 靈活:因為引入的參數數量相對較少,可以在一定程度上避免過擬合問題,使得模型更容易適應新任務。

因此,研究人員和開發(fā)者使用LoRA,可以在不犧牲模型性能的前提下,以較低的成本對模型進行有效的定制和優(yōu)化。

工具安裝

安裝比較簡單,如果遇到問題,歡迎留言討論。


為了方便測試,我在云環(huán)境也創(chuàng)建了一個鏡像,相關的環(huán)境都配置好了,大家都可以用,內置了幾個國內開源的大語言模型,比如清華智譜的ChatGLM3-6B、零一萬物的Yi-34B,還有最近阿里云開源的Qwen1.5-32B。

鏡像使用方法:

2、GPU型號:最好選擇 3090 或者 4090。因為大模型需要的顯存一般都不低,6B、7B的模型做推理都需要15G左右的顯存。GPU數量選擇1個就夠了。

3、鏡像:選擇“社區(qū)鏡像”,輸入 yinghuoai-text-generation-webui ,即可選擇到我分享的鏡像。

4、服務器開機后,點擊“JupyterLab”進入一個可編程的Web交互環(huán)境。

5、鏡像內置了一個“啟動器”,點擊其中的啟動按鈕可以直接啟動WebUI。

程序默認加載的是阿里開源的 Qwen1.5-7B-Chat 模型,你也可以更換別的模型,只需要去掉命令前邊的“#”,注意同時只能加載一個模型,其它模型不使用時,請使用“#”注釋掉。

6、在下方的日志中看到類似輸出的時候,就代表啟動成功了。其中的 [xxx.gradio.live]就是WebUI的鏈接,點擊就可以在瀏覽器打開它的使用界面。

Lora訓練方法

終于來到重點環(huán)節(jié)了。

訓練

訓練需要一個基礎模型,鏡像默認加載的是 Qwen1.5-7B-Chat。你也可以在WebUI中更換別的模型(前提是已經下載到模型目錄),在 Model 頁簽這里選擇別的模型,然后點擊 Load 加載它。

我們先來快速的過一遍訓練過程,請按照下邊的步驟開啟LoRA訓練:

1、切換到 Training 頁簽。

2、點擊 Train LoRA,進入LoRA訓練設置頁面。

3、填寫Lora模型的名字,注意名字中不能包含英文的點(.)。

4、點擊 Formatted DataSet,代表訓練將使用格式化的數據集。

5、Data Format 數據格式,這里選擇 alpaca-format,這是一種Json數據格式,每條數據聲明了指令、輸入和輸出(其中input是可選的,我們可以把input的內容填寫到instructions中,從而去掉input節(jié)點),如下所示:

{"instruction": "下面是一個對話:","input":"只剩一個心臟了還能活嗎?","output": "能,人本來就只有一個心臟。"
}

6、Dataset 選擇數據集,我這里從 huggingface 上下載了一份弱智吧的問答數據集,鏡像中已經內置。你如果使用自己的訓練數據集,請上傳到 text-generation-webui/training/datasets 中,然后在這里刷新后就可以選擇到。

7、點擊 Start LoRA Training 開始訓練。

8、這里會展示訓練的進度,還剩多長時間。

訓練完成后,這里會顯示“Done”。注意這里有個問題:如果WebUI和服務器斷開了網絡連接,這里就不更新進度了,此時可以去 AutoDL的 jupyterlab 或者你的命令界面中查看訓練進度。

驗證

訓練完成后,我們需要測試下效果,參考如下步驟:

1、切換到 Model 頁面。

2、點擊 Reload 重新加載模型,因為此時模型已經被訓練污染了。

3、刷新LoRA列表。

4、選擇我們訓練出來的模型。

5、Apply LoRAs 應用LoRA模型。

然后在 Parameters 中選擇內置的聊天對話角色。

最后切換到 Chat 頁面,開始對話測試。下面是我分別使用基礎模型和添加LoRA模型后的對話截圖,測試不是很嚴謹,但也能看到比較明顯的差別。

兩個 Qwen1.5-7B-Chat 很難回答正確的問題:

  • 生魚片是死魚片嗎?
  • 小明的爸爸媽媽為什么不邀請小明參加他們的婚禮?

訓練參數

在上邊的步驟中我們使用的都是默認的訓練參數,一般也就夠了。但有時候對訓練出的生成效果不太滿意,就可以手動調整下訓練參數,重新訓練。

我這里把主要的幾個參數介紹下:

1、目標模塊

這個參數僅針對 llama 類型的模型結構,默認勾選的是 q_proj 和 v_proj,具體的名詞不容易理解,我就不多說了,可以簡單的認為是對模型的理解能力進行優(yōu)化,一般這兩個就夠了。當然我們可以勾選更多的項目,優(yōu)化模型的生成效果。但是可能會導致兩個問題,一是訓練要使用更多的資源,更慢;二是可能導致過擬合問題,也就是只在訓練的數據上表現的好,面對新問題就不靈了。Qwen1.5-7B的模型結構也是llama類型的。

2、Epochs

這個參數代表我們要訓練多少輪。訓練的輪次越多,模型從訓練數據中學到的越多,生成就越精確,不過也可能會導致過擬合的問題,所以需要根據實際測試的結果進行調整。

3、LoRA Rank

維度計數,模型權重的更新量。值越大越文件越大,內容控制力更強;較低的值則表示文件更小,控制程度較低。

對于較為簡單的任務或者數據量較小的應用場景,可以選擇較低的值,比如4或8。這樣可以保持模型的簡潔性,減少所需的存儲空間和計算資源,同時避免過擬合。

對于復雜的自然語言處理任務,特別是需要捕捉精細語義關系、句法結構或領域專業(yè)知識的任務,或者大規(guī)模訓練數據時,可能需要選擇較高的值,如128、256甚至1024以上,這樣才有足夠的容量來學習到復雜的模式。更高的LoRA Rank需要更多的顯存支持。

LoRA Rank還應該與LLM的基礎模型規(guī)模相匹配,百億權重的模型可以設置更大值,因為它可以承受更多的權重調整而不會過擬合。

4、LoRA Alpha

數值越高代表LoRA的影響力越大,默認是LoRA Rank值的兩倍。當這個值較高時,適應新任務的能力會增強,但是對基礎模型的影響會比較大,有過擬合的風險,尤其是在數據量有限的情況下。當這個值比較低時,對基礎模型參數的改變較為溫和,這可以保持預訓練模型的泛化能力,但也會降低對新任務的適應性,特別是LoRA任務與預訓練任務差異比較大時。

5、Learning Rate

學習率。機器學習在訓練過程中會不斷檢查自己與訓練數據的偏離程度,它有個名詞叫損失(loss),一個合適的學習率會讓損失逐漸收斂在一個最小值。如果學習率太大,步子就會邁的太大,不能獲取較好的效果;但是如果學習率太小,又會訓練的很慢,成本太高。如下圖所示:

默認值 3e-4 表示 3 乘以 10 的負 4 次方,也就是 0.0003。最大1e-2表示0.01,最小1e-6表示0.000001。

另外需要平衡學習率和輪次:

高學習率 + 低輪次 = 非??斓|量較低的訓練。

低學習率 + 高輪次 = 較慢但質量較高的訓練。

6、LR Scheduler

學習率調度算法,默認的是線性衰減,也就是隨著學習輪次的增加學習率逐漸降低。

還有使用常量、余弦退火、逆平方根、多項式時間等算法,線性衰減和余弦退火比較簡單有效,平常使用的比較多,逆平方根衰減和多項式時間衰減在處理大規(guī)模數據或需要長時間訓練時能提供更為穩(wěn)定的收斂表現。


一個好的模型與訓練數據和訓練參數都有很大的關系,很難一蹴而就。

如果你對訓練的結果不滿意,可以調整這幾個參數試試。注意重新訓練前,先把基礎模型重新加載。

以上就是本文的主要內容,如有問題,歡迎給我留言交流。

關注螢火架構,提升技術認知!

本文轉自 https://juejin.cn/post/7359103640106106918,如有侵權,請聯系刪除。

http://m.risenshineclean.com/news/65243.html

相關文章:

  • 游戲前端轉網站開發(fā)站長工具seo綜合查詢收費嗎
  • 國家建設協會官方網站網上接單平臺有哪些
  • wordpress網頁防破解seo實戰(zhàn)密碼第三版pdf
  • 做網站盡在美橙互聯世界羽聯最新排名
  • 做設計的靠譜兼職網站青島seo服務哪家好
  • 好的做網站的公司鄭州百度推廣托管
  • 收藏網站的鏈接怎么做媒介星軟文平臺官網
  • 網站備案都審核什么免費建一級域名網站
  • 做直播網站用什么系統(tǒng)優(yōu)秀營銷軟文100篇
  • 用asp做的一個網站實例源代碼網絡營銷的作用
  • 快速做自適應網站網站內容編輯
  • 網站客服托管百度廣告聯盟下載
  • cms網站有哪些網站推廣去哪家比較好
  • 裝修設計公司網站百度推廣登錄入口
  • 縣城做信息網站賺不賺錢品牌推廣策略怎么寫
  • 濟南做網站公司哪家好如何做電商 個人
  • 上海網站建設工作東莞整站優(yōu)化排名
  • 甘肅政府網站建設seo如何優(yōu)化關鍵詞
  • 什么是功能型網站有沒有免費的寫文案的軟件
  • 百度外賣網站建設與維護方法seo推廣教學
  • 做古玩生意哪些網站好互聯網營銷師證書怎么考
  • 宜興建設局 審圖中心 網站seo快速排名軟件案例
  • 做企業(yè)網站要大陸營業(yè)執(zhí)照百度小說搜索風云榜總榜
  • 專業(yè)做營銷網站百度推廣怎么推
  • 展示型網站設計方案百度域名收錄
  • 番禺人才網最新招聘信息網濰坊網站建設優(yōu)化
  • 國外免費虛擬主機惠州seo整站優(yōu)化
  • 重慶市建設工程信息網質量監(jiān)督網站seo策劃方案
  • 品牌建設完整版淄博seo
  • b2b門戶網站建設多少錢代寫