這篇論文提出SPD自我監督框架,能自動產生高品質的離散文件ID(DocIDs),提升生成式文件檢索效果。SPD先學連續文件表示,再逐步離散化成DocIDs,減少資訊流失。這些DocIDs可結合大型語言模型使用,檢索效能在標準測試上勝過傳統方法。 PubMed DOI ♡
短文本聚類面臨詞彙共現的挑戰,但研究顯示大型語言模型(LLMs)能有效生成嵌入,捕捉語義細微差異,改善聚類結果。透過高斯混合模型,聚類效果比傳統方法如doc2vec和潛在狄利克雷分配更明顯且易解釋。人類評審和生成型LLM的驗證顯示高一致性,顯示LLM能縮短聚類產出與解釋的距離。此外,LLM與人類編碼的比較揭示了兩者的偏見,質疑傳統將人類編碼視為最終標準的做法。 PubMed DOI
傳統藥物設計又慢又容易失敗,深度學習模型像DrugGPT雖然能產生新分子,但常常沒用。DrugGen是改良版,結合真實資料和優化技術,能產生100%有效分子,預測和多樣性都更好。測試證明它有效,還能幫助藥物再利用和新藥設計,大大提升藥物開發效率。 PubMed DOI
這篇論文提出LLaFS++新架構,首次用大型語言模型(LLMs)來提升少量樣本分割(FSS)效果。透過LLMs的知識,LLaFS++能克服標註資料少的問題,分割表現更好。架構有多項創新設計,像是直接輸出多邊形、區域-屬性表、多模態引導、課程學習結合偽樣本合成,以及新推論方法減少過度分割。實驗結果在多個基準上都拿下最佳表現,展現LLMs在少量樣本視覺任務的潛力。 PubMed DOI
SDoH-GPT 是一套新方法,結合大型語言模型、少量範例學習和 XGBoost 分類器,能自動從醫療紀錄擷取健康社會決定因素。這大幅減少人工標註,省時又省錢,準確度也很高(Cohen’s kappa 0.92、AUROC 超過 0.90),已在三個資料集驗證,讓醫療界更容易運用 SDoH 資料。 PubMed DOI
這篇論文提出 AttrDD,一種專為視覺-語言模型設計的階層式少量樣本微調框架。它先用微調後的模型縮小到最容易混淆的幾個類別,再用大型語言模型產生屬性描述來細分。這種兩階段、以屬性為主的方法,搭配輕量級 adapter,不只提升微調效率,在多項基準測試上也優於現有方法。 PubMed DOI
這篇論文提出一套以使用者為核心的分散式AI影像生成服務架構,利用生成式擴散模型(GDMs),讓用戶能共享部分生成流程,提升效率。作者還結合大型語言模型與強化學習,模擬用戶回饋,優化主觀體驗品質(QoE)。新演算法G-DDPG能根據用戶偏好和網路狀況有效分配資源,模擬結果顯示QoE提升約15%。 PubMed DOI
這篇論文提出DP2Unlearning方法,能有效從大型語言模型中移除特定資料,不用重新訓練。它利用差分隱私訓練模型,達到資料移除的正式保證,效果接近完全重訓,但計算成本只要一半,表現也比現有方法更好。 PubMed DOI