原始文章

DeepSeek 這款新 AI 在腸胃科專科考試表現比舊版 ChatGPT 更好,分數都超過及格線。不過,DeepSeek 對冷門題目還是有盲點,也還沒辦法看影像,實際應用還需要專科醫師再確認。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

ChatGPT-4o 在英美醫師執照考試表現亮眼,即使遇到全新題目也能高分,證明不是只靠背題庫。不過,遇到圖片型選項時表現就變差。這說明單靠出新題或圖片題,無法完全防堵 AI 作弊,還是得有嚴格監考和安全措施,才能確保考試公平。 PubMed DOI

這項研究比較ChatGPT-4.0和DeepSeek-R1在回答耳鼻喉科手術常見問題的表現。ChatGPT-4.0內容較詳細但有時會漏掉手術細節,DeepSeek-R1則簡潔但細節不足。兩者在複雜手術和長期照護上都不夠完善,目前都還不適合提供個別病人專業建議,AI在這領域還需加強。 PubMed DOI

ChatGPT-4參加西班牙醫師考試,200題答對150題,成績約在1,900到2,300名之間,已能申請多數醫學專科。它在有無圖片題目表現差不多,難題表現較弱,跟人類類似。研究認為AI有教育潛力,但會出錯,不能取代醫師,答案還是要專業審查。 PubMed DOI

這項研究發現,ChatGPT 3.5在皮膚科住院醫師考題表現不如資深醫師,只能應付簡單題目;4.0版雖然進步,能達到部分初中階醫師水準,但遇到難題還是有瓶頸。整體來說,ChatGPT 4.0在皮膚科教育有潛力,但目前還無法取代資深醫師,未來若持續進步,對醫學訓練會更有幫助。 PubMed DOI

ChatGPT 在通用外科考試拿到 72.7 分,超過及格線,生理學和選擇題表現不錯,但解剖學和需要分析的題目比較弱。雖然有潛力協助醫學教育,但還有不少限制,未來要再多研究和評估,才能廣泛應用。 PubMed DOI

這項研究比較DeepSeek-V3和ChatGPT-4o在回答腹腔鏡膽囊切除術常見病人問題的表現。由兩位外科醫師評分後,發現DeepSeek-V3在適切性、正確性和易讀性都勝出,顯示它在這類病人衛教上可能更有優勢。 PubMed DOI