原始文章

這項研究探討醫學生在臨床案例評估中使用不同的臨床決策支持系統(CDSS)表現。學生分為三組,分別使用臨床實踐指導方針(CPG)、線上資料庫(OR)和ChatGPT。結果顯示,使用ChatGPT的組別回答速度較快,但在準確性上,CPG表現最佳。研究強調在醫學教育中有效使用大型語言模型(如ChatGPT)的潛在好處與風險,並建議應加強相關訓練,以降低誤用風險。 PubMed DOI


站上相關主題文章列表

ChatGPT因其文本分析能力而在醫學領域被認為是一個有價值的工具,用於臨床決策支持。儘管它專注於文本語義而非複雜的數據結構,但它可以協助智能CDSS的算法設計。與人類專業知識合作,ChatGPT有潛力增強有效CDSS的開發。 PubMed DOI

研究發現ChatGPT在臨床決策上有潛力,但也有限制,需要人類監督。提出了增強臨床決策支援系統的建議。醫療人員應謹慎運用ChatGPT,並需進一步研究其在醫療領域的影響及負責任應用的方法。 PubMed DOI

研究發現三款大型語言模型在醫療決策上的表現,ChatGPT最優,其次是Google的Bard和Bing的AI。結果顯示ChatGPT提供更易懂且符合指引的醫療建議,對初級醫生學習和臨床決策有潛力,但還需更多整合到教育中。 PubMed DOI

大型語言模型(LLMs)如ChatGPT-3.5在醫學教育中有應用,可填補知識空白、協助鑑別診斷、挑戰假設、支援決策、改善護理管理,甚至進行困難對話、倫理教學。儘管有擔憂,但已有行為準則指導使用。ChatGPT對病房學習有潛力,但仍需進一步研究。 PubMed DOI

這項研究評估了ChatGPT-3.5在肺病學考試中的表現,並與三年級醫學生進行比較。研究分為兩組:244名法語醫學生和ChatGPT,後者以無上下文(V1)和有上下文(V2)兩種格式測試。結果顯示,V1在放射學和胸外科表現佳,但在病理學和藥理學上不理想;V2則在所有類別中表現更準確,並在開放式問題上優於學生。V2通過考試的比例超過62.1%,而V1未能通過。總體而言,ChatGPT的表現與醫學生相似,受問題格式和複雜度影響,尤其在需要臨床判斷的任務上表現不佳。 PubMed DOI

這項研究評估了ChatGPT在醫學訓練中的診斷準確性和教育效用。分析150個Medscape案例後,發現ChatGPT正確回答49%的案例,整體診斷準確率為74%。雖然在解讀實驗室數值和影像結果上有些限制,但它在教育上顯示出潛力,能有效排除某些鑑別診斷並建議後續步驟,讓複雜的醫學概念更易理解。未來研究應著重提升其教育能力。 PubMed DOI

醫療領域,特別是腫瘤學,面臨許多挑戰,如腫瘤委員會會議繁忙、討論時間短,以及護理品質的擔憂。為了解決這些問題,越來越多人關注整合臨床決策支持系統(CDSSs)來協助醫生管理癌症護理。然而,CDSSs在臨床上的應用仍然有限。2022年OpenAI推出的ChatGPT引發了對大型語言模型(LLMs)作為CDSS的興趣。我們進行了一項回顧,評估LLMs在醫療專科,特別是腫瘤學中的有效性,並比較使用者看法與實際表現,以探討其在改善癌症護理結果的可行性。 PubMed DOI

這項研究探討了將ChatGPT融入醫學教育的可行性,並強調AI能力對醫學生的重要性。52名醫學生參與了混合式學習課程,評估了使用ChatGPT的效果。主要發現包括:學生在整合ChatGPT的課程中滿意度和學習進展高,且對AI技能的重視程度上升。雖然學生對ChatGPT生成的病人資訊評價中等,但使用擴展提示後明顯改善。研究建議將ChatGPT納入醫學教育,以提升學習體驗並發展AI能力。 PubMed DOI

這項研究比較了ChatGPT生成的回饋與專家回饋對一年級醫學生臨床推理技能的影響。129名學生被隨機分為兩組,分別接受專家回饋和ChatGPT回饋。結果顯示,兩組在整體表現上沒有顯著差異,但對照組在複雜案例中表現較好。實驗組在了解AI角色後,對AI的批判性思維有明顯提升。這表明ChatGPT可作為專家回饋的替代方案,但在處理複雜案例上可能不足,並促進學生對AI的批判性認識。 PubMed DOI

這項研究評估了Chat GPT在分析潛在藥物間相互作用(pDDIs)的效果,並與現有的臨床決策支持系統(CDSSs)如MediQ®、Lexicomp®和Micromedex®進行比較。研究中有30名使用多種藥物的患者,結果顯示CDSSs識別了280個臨床相關的pDDIs,而Chat GPT僅檢測到80個。特別是,Chat GPT漏掉了許多與QTc延長相關的pDDIs,且在90%的重複查詢中結果不一致。雖然在某些副作用查詢中提供了有用建議,但整體表現仍不理想,結論認為目前不適合用於pDDI分析,但未來有改進的潛力。 PubMed DOI