 【產通社,5月5日訊】華南理工大學(South China University of Technology, SCUT)官網消息,由陳敏教授主導聯合華中科技大學、琶洲實驗室的科研團隊在自然語言大模型小樣本微調研究領域提出了極具創新性的方案——自然語言微調技術(NLFT)。該技術通過極低的計算資源和少量數據投入,顯著提升了大模型在特定領域的效果。 在大語言模型(LLMs)微調領域,現有的模型微調技術主要為監督微調技術(SFT)、強化微調技術(ReFT)。相較傳統微調方法,NLFT顯著降低了技術門檻,使得更多科研機構和企業能夠在常規計算設備上實現高效微調,這一成果不僅為大語言模型的普及鋪平了道路,也為人工智能技術的普及應用提供了新的可能性。 人工智能大語言模型(LLM)在海量預訓練后,往往具備一定的通用能力,而在特定細分領域的表現不盡如人意。為了提升模型在細分領域的針對性功能,傳統的微調方法需要借助大量領域數據進行特定訓練,如何在大模型的應用過程中解決高昂的算力需求和數據稀缺等問題,仍然是行業面臨的巨大挑戰。 在此情境下,陳敏教授科研團隊提出的自然語言微調技術(NLFT)為解決這一問題提供了新的可能。查詢進一步信息,請訪問官方網站 http://news.scut.edu.cn/41/list3.htm。(張嘉汐,產通發布)  (完)
|