當前位置:首頁 > 科技文檔 > 計算機軟件及計算機應(yīng)用 > 正文

面向聯(lián)邦大語言模型訓(xùn)練的傳輸優(yōu)化技術(shù)綜述

計算機科學 頁數(shù): 14 2024-09-26
摘要: 隨著人工智能技術(shù)的快速發(fā)展,各類大型語言模型不斷涌現(xiàn)。但是專用大語言模型的用戶及數(shù)據(jù)集大多具有隱私性和安全性要求,數(shù)據(jù)安全隱私問題亟待解決。在此背景下,聯(lián)邦大語言模型應(yīng)運而生并得到越來越多的關(guān)注。由于大型語言模型龐大的數(shù)據(jù)量以及聯(lián)邦學習的分布式架構(gòu),海量的參與節(jié)點與云服務(wù)器間進行大量的模型交換會產(chǎn)生較高的通信成本。為提升模型收斂速率,研究人員對面向聯(lián)邦大語言模型訓(xùn)練的傳輸優(yōu)化技... (共14頁)

開通會員,享受整站包年服務(wù)