原始文章

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 PubMed DOI


站上相關主題文章列表

AI聊天機器人如ChatGPT是強大工具,改變科技互動方式,在醫學領域有潛力。研究顯示ChatGPT 4.0比3.5更優,尤其在小兒心臟病學知識方面,正確率提升至66%,顯著進步。儘管尚未達專業水準,但進步明顯。 PubMed DOI

研究發現ChatGPT在回答心臟症狀問題時準確率高,尤其在簡單問題表現優秀。然而,對於複雜問題準確性較低。最新版本改進許多,有潛力成為醫學AI輔助工具,但仍需進一步研究。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4在教育患者心臟影像方面的表現。結果顯示,在三次聊天中,ChatGPT-4在正確性和一致性方面優於ChatGPT-3.5。兩者都有超過一半問題回答正確,但仍需改進才能在教育患者心臟影像上更有效。 PubMed DOI

研究比較了AI聊天機器人在心臟病學領域的表現,發現ChatGPT 4.0的準確率最高,Bing次之,Bard最低。ChatGPT在各個心臟病學主題上表現都很好。研究指出ChatGPT 4.0可作為心臟病學教育的重要資源,但也提醒要持續評估和改進Bard等機器人,確保醫學知識的準確性。 PubMed DOI

研究評估了ChatGPT在Amboss問題庫的2,377個USMLE Step 1練習問題上的表現。整體準確率為55.8%,顯示問題難度與表現呈反向關係。在血清學問題上表現不錯,但心電圖相關內容表現較差,病理生理學更差。研究強調了進一步瞭解ChatGPT在醫學教育和考試中的能力和限制的重要性。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在心血管醫學問題上的表現,並與內科住院醫師和主治醫師進行比較。結果顯示,ChatGPT-4的準確率為74.5%,優於3.5版本的64.3%。它的表現與內科實習醫師(63.3%)和高年級住院醫師(63.3%)相當,但仍低於心臟科主治醫師的85.7%。雖然ChatGPT在某些領域顯示潛力,但仍需提升準確性,才能成為醫療專業人員的可靠工具。 PubMed DOI

這項研究評估了ChatGPT-4在小兒心臟病學中解讀多模態影像的能力,針對100道包含心臟超音波、血管造影、X光和心電圖的選擇題進行測試。結果顯示,提供影像時正確率為41%,心電圖的準確率最高(54%),而血管造影最低(29%)。不提供影像時,表現稍降至37%。研究指出,ChatGPT-4在解讀影像的能力有限,強調需進一步訓練才能整合進臨床實踐,並需更多研究探討其臨床推理能力。 PubMed DOI

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

這項研究評估了ChatGPT在回答美國醫學執照考試第二階段臨床知識問題的表現,分析了其在不同醫學專科、問題類型和難度上的準確性。總共評估了3,000道問題,結果顯示正確率為57.7%。在「男性生殖系統」類別中準確率最高(71.7%),而「免疫系統」最低(46.3%)。隨著問題難度和長度增加,表現下降,顯示較複雜問題更易錯誤。整體而言,ChatGPT的能力接近及格門檻,顯示其作為醫學生輔助學習工具的潛力,並強調了精煉AI模型和設計抗AI考題的重要性。 PubMed DOI