原始文章

這篇論文提出SPD自我監督框架,能自動產生高品質的離散文件ID(DocIDs),提升生成式文件檢索效果。SPD先學連續文件表示,再逐步離散化成DocIDs,減少資訊流失。這些DocIDs可結合大型語言模型使用,檢索效能在標準測試上勝過傳統方法。 PubMed DOI


站上相關主題文章列表

傳統藥物設計又慢又容易失敗,深度學習模型像DrugGPT雖然能產生新分子,但常常沒用。DrugGen是改良版,結合真實資料和優化技術,能產生100%有效分子,預測和多樣性都更好。測試證明它有效,還能幫助藥物再利用和新藥設計,大大提升藥物開發效率。 PubMed DOI

這篇論文提出LLaFS++新架構,首次用大型語言模型(LLMs)來提升少量樣本分割(FSS)效果。透過LLMs的知識,LLaFS++能克服標註資料少的問題,分割表現更好。架構有多項創新設計,像是直接輸出多邊形、區域-屬性表、多模態引導、課程學習結合偽樣本合成,以及新推論方法減少過度分割。實驗結果在多個基準上都拿下最佳表現,展現LLMs在少量樣本視覺任務的潛力。 PubMed DOI

這篇論文提出 AttrDD,一種專為視覺-語言模型設計的階層式少量樣本微調框架。它先用微調後的模型縮小到最容易混淆的幾個類別,再用大型語言模型產生屬性描述來細分。這種兩階段、以屬性為主的方法,搭配輕量級 adapter,不只提升微調效率,在多項基準測試上也優於現有方法。 PubMed DOI