原始文章

這項研究評估大型語言模型(LLM)對醫師診斷推理的影響,與傳統資源相比。研究於2023年11月29日至12月29日進行,參與者來自多所學術機構的醫師,分為兩組:一組使用LLM和傳統資源,另一組僅用傳統資源。結果顯示,LLM組的中位診斷推理分數為76%,略高於傳統組的74%,但差異不顯著(P = .60)。不過,LLM的單獨表現比傳統資源高出16個百分點(P = .03),顯示人工智慧在臨床實踐中的潛力。 PubMed DOI


站上相關主題文章列表

研究發現,透過診斷提示,GPT-4能夠模擬臨床醫師的診斷過程並保持準確性。這對醫師理解並信任LLMs的回應很重要,有助於克服「黑盒子」問題,提升LLMs在醫學實踐中的安全性與效益。 PubMed DOI

一項研究比較了使用 GPT-4 大型語言模型(LLM)作為醫師診斷輔助工具與傳統資源的影響。這項研究涉及 50 名醫師,發現與傳統資源相比,GPT-4 在診斷推理方面並未顯著改善,但在某些臨床推理方面表現較佳。該研究指出了增強醫師與人工智慧在臨床實踐中合作的潛力。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

使用大型語言模型(LLM)能顯著提升醫生在複雜管理推理任務上的表現,超越傳統資源。在一項針對92位醫生的隨機對照試驗中,使用GPT-4的醫生在管理推理任務中得分較高。研究顯示,LLM的協助能改善管理決策、診斷決策及特定案例的表現,顯示其在複雜臨床情境中做出決策的能力,特別是在缺乏明確答案的情況下。 PubMed DOI

這項研究比較了十五個大型語言模型(LLMs)在處理眼科案例的表現,測試來自《JAMA Ophthalmology》的二十個案例。結果顯示,這些模型的平均得分為19,三個模型(ChatGPT 3.5、Claude Pro和Copilot Pro)表現優於平均,其中Copilot Pro得分最高。雖然這些模型的可讀性高於八年級水平,對一般人來說較難理解,但對眼科醫生則可接受。研究認為,雖然LLMs的準確性不足以單獨用於病人護理,但在協助醫生方面顯示出潛力,特別是訂閱制模型。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來提升醫學生的臨床決策訓練,透過模擬病人互動進行。研究分為對照組和反饋組,反饋組除了模擬對話外,還獲得AI生成的表現反饋。共21名醫學生參與,使用臨床推理指標評估表現。結果顯示,反饋組經過訓練後表現顯著優於對照組,特別在情境創建和資訊獲取上。研究指出,AI模擬對話結合結構化反饋,能有效支持臨床決策訓練,提升學生的實務準備。 PubMed DOI

這項研究比較了大型語言模型(LLMs)與人類腸胃科醫生在挑戰性腸胃病例中的診斷能力。研究分析了67個病例,發現LLM Claude 3.5 Sonnet的準確率達76.1%,明顯高於腸胃科醫生的45.5%。這顯示先進的LLMs能成為腸胃科醫生的有力工具,提供高效且具成本效益的診斷支持。 PubMed DOI

生成式人工智慧(GAI)在醫療領域有顯著進展,但對於罕見疾病如原發性免疫疾病(PI)的輔助效果仍待探討。本研究評估了六種大型語言模型(LLMs)在提供PI臨床指導的表現。結果顯示,GPT-4o、Llama-3.1-70B-Instruct和Mistral-Large-Instruct-2407的診斷準確率超過88%,其中GPT-4o以96.2%領先。其他模型表現較差,準確率約60%或更低。雖然LLMs在PI診斷上顯示潛力,但仍需改進以提升臨床實用性。 PubMed DOI

這項研究探討人類與大型語言模型(LLMs)合作對腦部MRI掃描診斷準確性和效率的影響。研究中,六名放射科住院醫師評估40個挑戰性MRI案例,分別使用傳統網路搜尋和LLM輔助搜尋。結果顯示,LLM輔助的診斷準確率為61.4%,高於傳統的46.5%,且差異具統計意義。不過,解讀時間和信心水平未見變化。研究指出的挑戰包括案例描述不準確、LLM的幻覺現象及上下文不足。雖然LLM能提升診斷準確性,但仍需進一步研究以優化人類與LLM的合作。 PubMed DOI

這項研究探討人工智慧在醫療上的應用,特別是命名實體識別(NER)和大型語言模型(LLMs),評估紐約大學和辛辛那提大學的電子健康紀錄中的臨床推理文件。分析了700份NYU和450份UC的住院醫師紀錄,並開發了多種AI模型。NYUTron LLM在NYU表現最佳,而GatorTron LLM在UC也有不錯的成績。研究顯示AI工具能顯著提升臨床推理的質量,並強調這些模型在不同醫療機構的應用潛力。 PubMed DOI