原始文章

這項研究探討大型語言模型(LLMs)在法醫傷害評估中的挑戰,因為這領域需要特定知識和準確的信息檢索。作者提出結合檢索增強生成(RAG)、圖形知識庫和深度學習技術,以提升LLMs根據中國《身體傷害程度評估標準》的評估能力。他們建立了一個包含26,199個傷害案例的數據集,並開發了RoBERTa-CNN模型來準確分類傷害。結果顯示,這種方法顯著提高了九個LLMs的準確率,並在犯罪分類中展現多樣性,證明了結合領域知識和先進技術的有效性。 PubMed DOI


站上相關主題文章列表

在醫療領域,使用大型語言模型(LLMs)是重要進步,有助於改善病患護理、研究和教育。雖然LLMs有不完美之處,但透過提示工程和檢索增強生成(RAG)等策略,可以提高準確性和相關性。尤其在臨床決策等需要全面資訊的任務中,RAG是相當有幫助的。一個以KDIGO 2023慢性腎臟病指南為基礎的ChatGPT模型整合了RAG,展現了提供準確醫療建議的潛力。 PubMed DOI

這項研究探討增強檢索生成(RAG)的大型語言模型(LLMs)在急診科臨床紀錄中生成ICD-10-CM代碼的有效性,並與醫療提供者進行比較。研究基於Mount Sinai Health System的500次急診就診數據,發現RAG增強的LLMs在準確性和特異性上均優於醫療提供者,且GPT-4的表現尤為突出。即使是較小的模型如Llama-3.1-70B,經過RAG後也顯示出顯著提升。這顯示生成式人工智慧在改善醫療編碼準確性及減少行政負擔方面的潛力。 PubMed DOI

這項研究探討了基於檢索增強生成(RAG)的大型語言模型(LLMs)在提供前交叉韌帶(ACL)損傷資訊的準確性。研究人員編輯了100個問題和答案,並測試了不同模型的表現。結果顯示,未整合RAG的模型準確率低於60%,但整合後平均提升39.7%。Meta的Llama 3 70b達到94%準確率,而結合RAG與AI代理的GPT-4則達95%。研究結果顯示RAG和代理增強能有效提升醫療資訊的準確性,對醫學領域的LLMs應用提供了支持。 PubMed DOI

傷害是全球健康的重要議題,具高發病率與死亡率。有效的傷害監測對預防至關重要,但通常需耗費大量資源。本研究專注於利用大型語言模型(LLMs)從急診部的臨床筆記中提取傷害相關資訊。研究使用了來自兩所城市學術醫院的數據,評估Llama-2模型在提取傷害機制、地點、活動、意圖和嚴重性方面的準確性。結果顯示,Llama-2模型在各項任務中表現優於BERT模型,顯示出其在傷害監測與預防中的潛力。 PubMed DOI

檢索增強生成(RAG)透過從資料庫中檢索知識來提升大型語言模型(LLMs)的表現,但傳統方法在檢索句子或段落時可能會引入噪音。為了解決這個問題,我們提出了BiomedRAG框架,將自動檢索的區塊文件直接輸入LLM。經過在四個生物醫學自然語言處理任務和八個數據集的評估,BiomedRAG的表現平均提升了9.95%,並且在多項基準上達到最先進的結果,超越了4.97%。這個框架為生物醫學領域的LLM應用提供了更準確且可調整的方法。 PubMed DOI

這項研究探討了增強檢索生成(RAG)的GPT-4模型在診斷和分類創傷性傷害的效果。研究人員開發了名為TraumaCB的工具,利用專家知識來提升準確性。結果顯示,TraumaCB在診斷上達到100%準確率,分類96%,明顯優於一般的GPT-4。這項研究強調了傷害分類的挑戰,並指出結合RAG的GPT-4能提升創傷放射學的診斷能力,對急診部門的效率有正面影響。 PubMed DOI

這項研究探討大型語言模型(LLMs)和檢索增強生成(RAG)系統在管理基於證據的信息的效果,特別針對13項神經學指導方針和130個問題。結果顯示性能差異明顯,雖然RAG系統在準確性上有所提升,但仍可能產生有害回應。此外,RAG系統在處理案例型問題時表現不如知識型問題。研究強調需要進一步改進和規範,以確保RAG增強的LLMs在臨床上的安全使用。 PubMed DOI

這篇文章探討了一項研究,分析檢索增強生成(RAG)如何提升大型語言模型(LLMs)在放射學的表現。RAG 讓 LLMs 能夠即時訪問更新的知識庫,無需微調即可生成準確答案。研究中使用了來自 *RadioGraphics* 的 3,689 篇文章作為數據庫,並評估了五種 LLMs 在192道放射學考題中的表現。結果顯示,RAG 顯著提升了 GPT-4 和 Command R+ 的得分,特別是在與 *RadioGraphics* 相關的問題上,成功檢索並引用了相關資料。整體而言,RAG 在放射學任務中展現了提升 LLM 能力的潛力。 PubMed DOI

這項研究探討檢索增強生成(RAG)對大型語言模型(LLMs)在醫學領域的影響,特別針對2024年日本骨科專家考試。研究團隊建立了專門資料庫,評估了GPT-3.5 Turbo、GPT-4o和o1-preview的表現。結果顯示,GPT-3.5 Turbo使用RAG後準確率未見提升,仍為28%;而GPT-4o和o1-preview的準確率分別從62%和67%提升至72%和84%。分析指出,GPT-3.5 Turbo在利用檢索數據上表現不佳,顯示其推理能力不足。總體而言,RAG顯著提升了GPT-4o和o1-preview的表現,特別是o1-preview達到臨床實踐的水準。 PubMed DOI

這項研究探討了基於GPT-4的檢索增強生成(RAG)模型在術前評估中的有效性。研究測試了十個大型語言模型,生成超過3,200個回應,並與近450個人類答案進行比較。結果顯示,使用國際指導的GPT-4 LLM-RAG模型準確率達96.4%,明顯高於人類的86.6%,且反應時間更快、不一致情況較少。這顯示LLM-RAG模型在醫療環境中提升術前評估的潛力。 PubMed DOI