原始文章

這項研究評估了OpenAI最新的語言模型Chat Generative Pre-trained Transformer-4o在成人臨床心臟病自我評估計畫(ACCSAP)的表現。經過測試後,該模型對594個問題的正確回答率為69.2%。在純文本問題上表現較佳(73.9%),但在影像解讀上則較差(55.3%),尤其是心電圖問題得分僅56.5%。雖然模型在醫學影像解讀上顯示出一定能力,但準確性不穩定,特別是沒有文本輔助的影像。總體來看,該模型在醫學教育和臨床決策中仍有潛力,但影像解讀方面的限制明顯。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT 3.5和4在回答骨科考試問題的表現,使用了來自首爾國立大學醫院的160道問題,分為11個子類別。結果顯示,ChatGPT 3.5的正確率為37.5%,而ChatGPT 4提升至60.0%(p < 0.001)。大部分類別中,ChatGPT 4表現較佳,唯獨在腫瘤相關問題上不如3.5。此外,ChatGPT 4的回答不一致率顯著低於3.5(9.4%對比47.5%)。雖然ChatGPT 4在骨科考試中表現不錯,但仍需謹慎對待其不一致的回答和錯誤解釋。 PubMed DOI

這項研究評估了ChatGPT-4o在急性心臟病案例中的表現,並與心臟科醫生和急診醫生進行比較。結果顯示,ChatGPT-4o和心臟科醫生的準確性均達100%,而急診醫生較低。ChatGPT-4o反應最快,且在準確性和完整性上得分最高。研究顯示,ChatGPT-4o的表現優於人類醫生,顯示其在臨床決策支持上的潛力,但人類監督仍然對安全整合AI進醫療至關重要。 PubMed DOI

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

這項研究評估了ChatGPT 3.5在婦產科個人學習回顧(PROLOG)中的表現,主要針對住院醫師的教育效果。結果顯示,ChatGPT在848個非視覺問題中正確率為57.8%,一級問題的表現(60.5%)優於高階問題(56.8%)。但在65個包含視覺資料的問題中,正確率僅有16.9%。由於PROLOG的及格分數是80%,ChatGPT未能達標,顯示其在專業知識和邏輯推理上仍有不足,無法成為可靠的教育工具。 PubMed DOI

這項研究評估了ChatGPT-3.5、ChatGPT-4及由ChatGPT-4驅動的Microsoft Copilot在手外科自我評估考試中的表現。分析了1,000道來自美國手外科學會的問題。結果顯示,ChatGPT-3.5的正確率為51.6%,而ChatGPT-4提升至63.4%;Microsoft Copilot則為59.9%。ChatGPT-4和Microsoft Copilot的表現均優於ChatGPT-3.5,顯示出它們在醫學教育中的潛力。研究建議未來需進一步評估這些模型在不同情境下的可靠性。 PubMed DOI

這項研究評估了ChatGPT-4在重症醫學的表現,使用的數據來自中國的健康專業技術考試。ChatGPT-4回答了600個問題,成功率達73.5%,超過60%的及格標準,基礎知識的準確率最高,達81.94%。單選題表現(76.72%)優於多選題(51.32%)。雖然它在臨床決策和醫學教育上顯示潛力,但仍需醫療專業人員的監督,以確保準確性和病人安全。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 PubMed DOI

這項研究發現,ChatGPT-4在有選擇題選項時,答對率超過86%,但沒選項時最低只有61.5%。它在管理問題上比診斷問題更容易出錯。雖然GPT-4能處理臨床資訊,但不是真的懂臨床情境。未來如果和專業醫療人員搭配,有機會幫助臨床工作,但還需要更多測試來確保安全和有效。 PubMed DOI

這項研究發現,ChatGPT-4在回答心血管生理學選擇題時,正確率(83.33%)明顯高於ChatGPT-3.5(60%),而且解釋也更清楚。不過,AI的答案還是需要專業老師把關,醫學教育用AI時要特別小心。 PubMed DOI