原始文章

這項研究提出了一種新穎的增強檢索生成(RAG)系統,結合微調的大型語言模型(LLMs)與向量數據庫,充分發揮結構化數據檢索的優勢。主要方法包括LoRA和QLoRA,專注於高效的參數微調和記憶優化。獨特之處在於納入用戶反饋,讓模型持續適應用戶需求,提升性能。此外,研究還引入量化影響度量(QIM)作為AI評審機制,增強結果選擇的準確性。這些成果為未來聊天機器人技術的發展提供了重要見解,並已公開相關數據集和工具供社群使用。 PubMed DOI


站上相關主題文章列表

LLMs在臨床上很強大,但商業化的LLMs可能有錯誤。檢索增強生成(RAG)可改善這問題。LiVersa是一個用RAG與AASLD指南創建的肝病LLM,對HBV和HCC表現良好,但有些回答不準確。研究顯示RAG可創建疾病特定LLMs,應用在臨床和個人化醫學。 PubMed DOI

LLMs在臨床上很強大,但可能出錯。檢索增強生成(RAG)可減少錯誤。"LiVersa"是專為肝臟疾病設計的LLM,使用RAG技術。測試顯示LiVersa回答肝臟問題很準確,但還需改進。LiVersa展示了RAG技術在臨床上定製LLMs的潛力。 PubMed DOI

在醫療領域,使用大型語言模型(LLMs)是重要進步,有助於改善病患護理、研究和教育。雖然LLMs有不完美之處,但透過提示工程和檢索增強生成(RAG)等策略,可以提高準確性和相關性。尤其在臨床決策等需要全面資訊的任務中,RAG是相當有幫助的。一個以KDIGO 2023慢性腎臟病指南為基礎的ChatGPT模型整合了RAG,展現了提供準確醫療建議的潛力。 PubMed DOI

RISE框架的開發目的是提升大型語言模型(LLMs)在回答糖尿病相關問題的準確性和全面性。研究評估了RISE的有效性,包含重寫查詢、資訊檢索、摘要和執行四個步驟。研究結果顯示,應用RISE後,三個基礎LLM(GPT-4、Claude 2和Google Bard)的回答準確性平均提高12%。具體來說,GPT-4提高7%,Claude 2提高19%,Google Bard提高9%。此外,回答的全面性和可理解性也有所增強,顯示RISE對於患者教育和慢性疾病自我管理的重要性,有助於改善公共健康。 PubMed DOI

這項研究探討檢索增強生成(RAG)模型在回答擴散性大B細胞淋巴瘤(DLBCL)問題的效果,並與OpenAI的GPT-3.5、GPT-4及微軟的Prometheus進行比較。結果顯示,RAG模型在準確性和相關性上表現優於其他大型語言模型,且幻覺現象較少。雖然GPT-4和GPT-3.5在可讀性上較佳,但仍產生了許多不準確的資訊。研究強調了進一步探索不同模型架構及方法在專業領域的潛力。 PubMed DOI

這項研究探討如何透過檢索增強生成(RAG)來提升從PubMed資料庫獲取醫療資訊的效果。研究將RAG與大型語言模型結合,旨在提高醫療專業人員獲得資訊的準確性和相關性。使用1,000個查詢的標記數據集進行評估,結果顯示在答案的相關性上有不錯的表現,但也指出在基礎性和上下文相關性方面仍需改進。 PubMed DOI

現代的生成式人工智慧技術,如檢索增強生成(RAG),能顯著提升癌症治療的討論效果。專家通常需花費大量時間審查文獻以尋找證據和建議,但透過RAG流程,這個過程變得更簡單。該流程從可信來源(如OncoKB)檢索相關文本,並提供給大型語言模型(LLM),無需微調。研究顯示,透過向Llama 2模型提出簡單問題,能重現超過80%的治療關係,顯示出減少文獻審查勞動量的潛力,並提升討論效率。 PubMed DOI

基於知識圖譜的檢索增強生成(KG-RAG)框架,成功解決了大型語言模型在生物醫學等知識密集型領域的挑戰。透過SPOKE生物醫學知識圖譜,KG-RAG優化了標記使用,提升了Llama-2、GPT-3.5和GPT-4的表現。該框架有效降低標記消耗超過50%,同時保持準確性,顯著改善了對生物醫學提示的回應,並在基準數據集上提升表現,Llama-2在多選題上提高了71%。KG-RAG以具成本效益的方式結合知識圖譜與大型語言模型,讓通用模型更能應對特定領域查詢。SPOKE KG和KG-RAG的代碼已公開,並提供生物醫學基準數據集供研究使用。 PubMed DOI

這項研究探討了基於檢索增強生成(RAG)的大型語言模型(LLMs)在提供前交叉韌帶(ACL)損傷資訊的準確性。研究人員編輯了100個問題和答案,並測試了不同模型的表現。結果顯示,未整合RAG的模型準確率低於60%,但整合後平均提升39.7%。Meta的Llama 3 70b達到94%準確率,而結合RAG與AI代理的GPT-4則達95%。研究結果顯示RAG和代理增強能有效提升醫療資訊的準確性,對醫學領域的LLMs應用提供了支持。 PubMed DOI

大型語言模型(LLMs)在各領域表現優異,但對於不準確性和資料來源虛構的擔憂,影響其在科學研究中的應用。為了解決這些問題,檢索增強生成(RAG)方法被提出,讓LLMs能夠訪問外部數據,增強推理能力。 LmRaC是一個新工具,利用用戶的實驗結果回答複雜科學問題,並從PubMed創建可靠的知識庫,確保答案準確且附有引用,降低錯誤資訊風險。它還能根據用戶提供的文件和數據,針對特定問題提供定制回應。 更多資訊可至GitHub倉庫查詢:https://github.com/dbcraig/LmRaC,或在Docker Hub找到LmRaC應用程式。 PubMed DOI