面向CNN和Transformer的自注意力機(jī)制自適應(yīng)性提示學(xué)習(xí)
摘要: 隨著大規(guī)模預(yù)訓(xùn)練模型對(duì)視覺(jué)領(lǐng)域中的一般性數(shù)據(jù)的深入研究,當(dāng)將其應(yīng)用于特定下游任務(wù)時(shí),若模型只訓(xùn)練分類(lèi)頭方法則極其依賴(lài)于預(yù)訓(xùn)練模型且效果一般;而全面微調(diào)預(yù)訓(xùn)練模型也因模型參數(shù)過(guò)大而變得不切實(shí)際;另外如VPT等視覺(jué)提示學(xué)習(xí)方法在圖像數(shù)據(jù)集具有很大的數(shù)據(jù)多樣性時(shí),每個(gè)數(shù)據(jù)集的通用提示在向原始預(yù)訓(xùn)練數(shù)據(jù)分布轉(zhuǎn)變時(shí)會(huì)帶來(lái)極大的挑戰(zhàn).基于以上的種種挑戰(zhàn),本文提出一種新的提示學(xué)習(xí)方法,即在輸... (共7頁(yè))
開(kāi)通會(huì)員,享受整站包年服務(wù)