原始文章

這項研究探討如何透過檢索增強生成(RAG)來提升從PubMed資料庫獲取醫療資訊的效果。研究將RAG與大型語言模型結合,旨在提高醫療專業人員獲得資訊的準確性和相關性。使用1,000個查詢的標記數據集進行評估,結果顯示在答案的相關性上有不錯的表現,但也指出在基礎性和上下文相關性方面仍需改進。 PubMed DOI


站上相關主題文章列表

人工智慧在醫療保健領域發展迅速,尤其透過自然語言處理的 AI 聊天機器人,能模擬人類對話,幫助臨床醫生和患者溝通。機器人應用檢索增強生成技術,提供更具針對性和詳細的回應。整合臨床數據和權威醫學資料,AI 聊天機器人能提供更貼心的指導、快速的診斷和治療建議,進而改善患者結果。 PubMed DOI

LLMs在臨床上很強大,但商業化的LLMs可能有錯誤。檢索增強生成(RAG)可改善這問題。LiVersa是一個用RAG與AASLD指南創建的肝病LLM,對HBV和HCC表現良好,但有些回答不準確。研究顯示RAG可創建疾病特定LLMs,應用在臨床和個人化醫學。 PubMed DOI

LLMs在臨床上很強大,但可能出錯。檢索增強生成(RAG)可減少錯誤。"LiVersa"是專為肝臟疾病設計的LLM,使用RAG技術。測試顯示LiVersa回答肝臟問題很準確,但還需改進。LiVersa展示了RAG技術在臨床上定製LLMs的潛力。 PubMed DOI

在醫療領域,使用大型語言模型(LLMs)是重要進步,有助於改善病患護理、研究和教育。雖然LLMs有不完美之處,但透過提示工程和檢索增強生成(RAG)等策略,可以提高準確性和相關性。尤其在臨床決策等需要全面資訊的任務中,RAG是相當有幫助的。一個以KDIGO 2023慢性腎臟病指南為基礎的ChatGPT模型整合了RAG,展現了提供準確醫療建議的潛力。 PubMed DOI

這篇論文介紹了Self-BioRAG,是專為生物醫學領域設計的框架,可生成解釋並檢索特定領域文件。透過在生物醫學指令集上的訓練,Self-BioRAG在醫學問答任務中表現比現有方法更好,顯示出明顯的進步。該框架結合了檢索增強生成和自我反思,提供精確且熟練的答案。Self-BioRAG強調了領域特定組件的重要性,可增進生物醫學和臨床領域的能力。該框架的數據、程式碼和模型權重可在https://github.com/dmis-lab/self-biorag 下載。 PubMed DOI

研究目的是評估使用RAG和LLMs(如GPT模型)來改善急診分流流程,提升護理一致性。通過模擬情境測試,發現搭配RAG的GPT-3.5模型在分流準確性上表現優異,可達70%正確率,並將低分流率降至8%。整合這兩者可提高急診評估的精確性和一致性,但仍需在實際醫療環境中驗證。 PubMed DOI

這項研究探討檢索增強生成(RAG)模型在回答擴散性大B細胞淋巴瘤(DLBCL)問題的效果,並與OpenAI的GPT-3.5、GPT-4及微軟的Prometheus進行比較。結果顯示,RAG模型在準確性和相關性上表現優於其他大型語言模型,且幻覺現象較少。雖然GPT-4和GPT-3.5在可讀性上較佳,但仍產生了許多不準確的資訊。研究強調了進一步探索不同模型架構及方法在專業領域的潛力。 PubMed DOI

這項研究針對將非結構化醫療文本轉換為結構化格式的挑戰,提出了一個自動化的本地流程,確保使用開源大型語言模型(LLMs)時能維護數據隱私。研究針對包含敏感健康資訊的德語醫療文件進行測試,結果顯示在800份非結構化醫療報告中,數據提取的準確率高達90%,表現優於醫生和醫學生的手動提取。這顯示該流程能有效提升數據可用性,同時保障隱私。 PubMed DOI

現代的生成式人工智慧技術,如檢索增強生成(RAG),能顯著提升癌症治療的討論效果。專家通常需花費大量時間審查文獻以尋找證據和建議,但透過RAG流程,這個過程變得更簡單。該流程從可信來源(如OncoKB)檢索相關文本,並提供給大型語言模型(LLM),無需微調。研究顯示,透過向Llama 2模型提出簡單問題,能重現超過80%的治療關係,顯示出減少文獻審查勞動量的潛力,並提升討論效率。 PubMed DOI

基於知識圖譜的檢索增強生成(KG-RAG)框架,成功解決了大型語言模型在生物醫學等知識密集型領域的挑戰。透過SPOKE生物醫學知識圖譜,KG-RAG優化了標記使用,提升了Llama-2、GPT-3.5和GPT-4的表現。該框架有效降低標記消耗超過50%,同時保持準確性,顯著改善了對生物醫學提示的回應,並在基準數據集上提升表現,Llama-2在多選題上提高了71%。KG-RAG以具成本效益的方式結合知識圖譜與大型語言模型,讓通用模型更能應對特定領域查詢。SPOKE KG和KG-RAG的代碼已公開,並提供生物醫學基準數據集供研究使用。 PubMed DOI