原始文章

這項研究評估了十四個大型語言模型(LLMs)在不同臨床情境中推薦抗生素的表現。研究使用標準化提示,針對60個案例的藥物選擇、劑量和治療持續時間進行評估。結果顯示,ChatGPT-o1的準確率最高,達71.7%,劑量正確性達96.7%。而在治療持續時間方面,Gemini表現最佳(75.0%)。不過,各模型在複雜案例中的表現差異明顯,顯示出在臨床應用前仍需謹慎驗證。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在社區藥局的表現,包括藥物資訊檢索、標籤錯誤識別、處方解讀及決策支持等。結果顯示,ChatGPT對藥物查詢的回應相當滿意,能引用正確的藥物數據,並成功識別標籤錯誤。在臨床情境中,其建議與藥師相當,特別是在藥物反應評估和健康建議方面。研究指出,ChatGPT可能成為社區藥局的有用工具,但仍需進一步驗證其在不同查詢和病人群體中的有效性及隱私問題。 PubMed DOI

抗微生物抗藥性對全球公共健康造成重大挑戰。本研究評估了AI語言模型ChatGPT<sup>®</sup>在抗生素處方上的表現,並與傳染病專家比較。研究創建了100個模擬病人案例,結果顯示ChatGPT<sup>®</sup>與專家在抗生素處方上達成一致的有51個案例,Cohen's kappa係數為0.48,顯示中等一致性。在抗藥性機制方面,雙方一致的有42個案例,kappa係數為0.39,顯示公平一致性。整體而言,ChatGPT<sup>®</sup>在抗生素管理上的一致性較差。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4、Gemini 和 Med-Go—在134個醫學領域的臨床決策表現。結果顯示,Med-Go 的中位數得分為37.5,優於其他模型,而 Gemini 得分最低,為33.0,差異顯著(p < 0.001)。所有模型在鑑別診斷上表現較弱,但治療建議則較強。研究建議將專業醫學知識納入 LLM 訓練,以提升效能,並需進一步改善其在臨床環境中的精確性與安全性。 PubMed DOI

大型語言模型(LLMs)在醫療領域的應用日益增多,能協助診斷和治療感染。一項研究比較了全科醫生與六個LLMs(如ChatGPT、Gemini等)對24個臨床案例的反應。全科醫生在診斷和抗生素處方的準確率高達96%-100%,但在劑量和療程的準確性上較低(50%-75%)。LLMs的表現也不錯,但在參考指導方針的能力上不一致,特別是在挪威的表現不佳。研究指出LLMs有數據洩漏的風險,雖然它們在抗生素處方上有潛力,但全科醫生在臨床情境解釋和指導方針應用上仍更具優勢。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT 3.5、ChatGPT 4.0和Gemini,對自體免疫疾病臨床問題的回答效果。共提出46個問題,並由專家根據五個質量維度進行評估。結果顯示,ChatGPT 4.0在所有維度上表現優於其他兩者,平均得分為199.8,顯示其在相關性、正確性、完整性、有用性和安全性方面的顯著優勢。整體而言,ChatGPT 4.0在提供準確且有用的醫療資訊上,顯示出更高的效能,顯示大型語言模型在醫療服務中的潛力。 PubMed DOI

這項研究發現,ChatGPT-4o在分析敗血症患者臨床紀錄、評估抗生素和導管管理上表現不錯,但在隔離措施和壓瘡辨識上有失誤。整體來說,LLMs有潛力成為臨床感染控制的輔助工具。 PubMed DOI

這篇回顧分析168篇研究,發現ChatGPT-4o在選擇題最準,ChatGPT-4開放式問題表現最好,但人類醫師在前1和前3名診斷還是最強。Claude 3 Opus在前5名診斷勝出,Gemini則在分級和分類任務表現最佳。這些結果可作為醫療現場選用AI輔助的參考依據。 PubMed DOI

這項研究比較三款大型語言模型與資淺、資深醫師在回答自體免疫疾病臨床問題的表現。結果發現,特別是Claude 3.5 Sonnet,在正確性和完整性等方面都勝過醫師,顯示AI有潛力協助臨床照護。 PubMed DOI

這項研究比較了10款大型語言模型在提供梅毒資訊的表現,發現ChatGPT 4.0和Claude的正確率最高,但有些模型在複雜議題上表現不佳,還會出現過時或錯誤的資訊。只有六成AI生成內容能直接用於臨床,顯示專家審核仍不可或缺。 PubMed DOI

這項研究針對2024年ESC心房顫動指引,測試三款大型語言模型(ChatGPT-4o、Claude 3.5 Sonnet、Gemini 1.5 Pro),發現它們在指引一致性上表現中等到高,Claude 3.5 Sonnet用思路鏈提問法時最好(60.3%)。中英文表現差不多,但LLM常建議比指引更積極的治療。建議臨床使用時多問幾次、用不同問法,並持續評估模型表現。 PubMed DOI