原始文章

檢索增強生成(RAG)透過從資料庫中檢索知識來提升大型語言模型(LLMs)的表現,但傳統方法在檢索句子或段落時可能會引入噪音。為了解決這個問題,我們提出了BiomedRAG框架,將自動檢索的區塊文件直接輸入LLM。經過在四個生物醫學自然語言處理任務和八個數據集的評估,BiomedRAG的表現平均提升了9.95%,並且在多項基準上達到最先進的結果,超越了4.97%。這個框架為生物醫學領域的LLM應用提供了更準確且可調整的方法。 PubMed DOI


站上相關主題文章列表

在醫療領域,使用大型語言模型(LLMs)是重要進步,有助於改善病患護理、研究和教育。雖然LLMs有不完美之處,但透過提示工程和檢索增強生成(RAG)等策略,可以提高準確性和相關性。尤其在臨床決策等需要全面資訊的任務中,RAG是相當有幫助的。一個以KDIGO 2023慢性腎臟病指南為基礎的ChatGPT模型整合了RAG,展現了提供準確醫療建議的潛力。 PubMed DOI

這篇論文介紹了Self-BioRAG,是專為生物醫學領域設計的框架,可生成解釋並檢索特定領域文件。透過在生物醫學指令集上的訓練,Self-BioRAG在醫學問答任務中表現比現有方法更好,顯示出明顯的進步。該框架結合了檢索增強生成和自我反思,提供精確且熟練的答案。Self-BioRAG強調了領域特定組件的重要性,可增進生物醫學和臨床領域的能力。該框架的數據、程式碼和模型權重可在https://github.com/dmis-lab/self-biorag 下載。 PubMed DOI

這項研究探討如何透過檢索增強生成(RAG)來提升從PubMed資料庫獲取醫療資訊的效果。研究將RAG與大型語言模型結合,旨在提高醫療專業人員獲得資訊的準確性和相關性。使用1,000個查詢的標記數據集進行評估,結果顯示在答案的相關性上有不錯的表現,但也指出在基礎性和上下文相關性方面仍需改進。 PubMed DOI

現代的生成式人工智慧技術,如檢索增強生成(RAG),能顯著提升癌症治療的討論效果。專家通常需花費大量時間審查文獻以尋找證據和建議,但透過RAG流程,這個過程變得更簡單。該流程從可信來源(如OncoKB)檢索相關文本,並提供給大型語言模型(LLM),無需微調。研究顯示,透過向Llama 2模型提出簡單問題,能重現超過80%的治療關係,顯示出減少文獻審查勞動量的潛力,並提升討論效率。 PubMed DOI

基於知識圖譜的檢索增強生成(KG-RAG)框架,成功解決了大型語言模型在生物醫學等知識密集型領域的挑戰。透過SPOKE生物醫學知識圖譜,KG-RAG優化了標記使用,提升了Llama-2、GPT-3.5和GPT-4的表現。該框架有效降低標記消耗超過50%,同時保持準確性,顯著改善了對生物醫學提示的回應,並在基準數據集上提升表現,Llama-2在多選題上提高了71%。KG-RAG以具成本效益的方式結合知識圖譜與大型語言模型,讓通用模型更能應對特定領域查詢。SPOKE KG和KG-RAG的代碼已公開,並提供生物醫學基準數據集供研究使用。 PubMed DOI

本研究綜合了近期在生物醫學領域中有關檢索增強生成(RAG)和大型語言模型(LLMs)的研究,旨在提供臨床發展的指導方針。透過系統文獻回顧和統合分析,研究納入了335項研究中的20項,結果顯示RAG顯著提升了模型表現,勝算比為1.35(P = .001)。報告詳細說明了臨床任務及評估方法,並提出在臨床環境中實施增強LLM的指導方針。未來研究應聚焦於RAG的整合與應用。 PubMed DOI

這項研究評估大型語言模型(LLMs)在生成臨床試驗計畫書的有效性。研究人員使用LLM生成不同疾病和試驗階段的計畫書,並根據臨床思維、透明度、醫學術語和內容相關性四個標準進行評估。結果顯示,LLM在內容相關性和術語方面表現良好,但在臨床思維和透明度上則較差。為提升表現,研究人員採用檢索增強生成(RAG)方法,顯著改善了內容質量,提升了臨床思維和透明度的分數。這表明RAG方法能有效提升LLM在臨床試驗文件撰寫的可用性,並可能改變藥物開發過程。 PubMed DOI

這項研究探討大型語言模型(LLMs)和檢索增強生成(RAG)系統在管理基於證據的信息的效果,特別針對13項神經學指導方針和130個問題。結果顯示性能差異明顯,雖然RAG系統在準確性上有所提升,但仍可能產生有害回應。此外,RAG系統在處理案例型問題時表現不如知識型問題。研究強調需要進一步改進和規範,以確保RAG增強的LLMs在臨床上的安全使用。 PubMed DOI

檢索增強生成(RAG)透過整合最新數據,提升大型語言模型(LLMs)的準確性與上下文意識。這方法將文本轉為數值嵌入,幫助檢索與使用者查詢相關的數據片段,讓模型的回答更具時效性。在腫瘤學中,RAG能改善治療建議、增強臨床試驗匹配,並加速藥物開發。不過,RAG的效果取決於數據質量,偏見或不完整的信息可能導致錯誤結果,因此需謹慎實施並加強人類監督。 PubMed DOI

這篇文章探討了一項研究,分析檢索增強生成(RAG)如何提升大型語言模型(LLMs)在放射學的表現。RAG 讓 LLMs 能夠即時訪問更新的知識庫,無需微調即可生成準確答案。研究中使用了來自 *RadioGraphics* 的 3,689 篇文章作為數據庫,並評估了五種 LLMs 在192道放射學考題中的表現。結果顯示,RAG 顯著提升了 GPT-4 和 Command R+ 的得分,特別是在與 *RadioGraphics* 相關的問題上,成功檢索並引用了相關資料。整體而言,RAG 在放射學任務中展現了提升 LLM 能力的潛力。 PubMed DOI