原始文章

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 PubMed DOI


站上相關主題文章列表

心血管疾病是全球主要的健康問題,人工智慧(AI)如ChatGPT為心血管醫學帶來了新機會。這篇文章探討了ChatGPT如何透過症狀分析、風險評估和診斷輔助來提升臨床決策,並改善醫療教育及研究交流。不過,也需注意潛在的不準確性、倫理問題和數據隱私等挑戰。未來應專注於提升訓練數據質量、開發專用模型及建立監管框架,以增強ChatGPT的臨床應用,進而改善治療效果和護理品質。 PubMed DOI

這項研究評估了ChatGPT-4o在急性心臟病案例中的表現,並與心臟科醫生和急診醫生進行比較。結果顯示,ChatGPT-4o和心臟科醫生的準確性均達100%,而急診醫生較低。ChatGPT-4o反應最快,且在準確性和完整性上得分最高。研究顯示,ChatGPT-4o的表現優於人類醫生,顯示其在臨床決策支持上的潛力,但人類監督仍然對安全整合AI進醫療至關重要。 PubMed DOI

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。 PubMed DOI

這項研究評估了基於ChatGPT的AI模型在解讀心電圖(ECG)的效果,並與心臟科醫生進行比較。分析了107個不同難度的ECG案例,結果顯示心臟科醫生的準確率為92.52%,遠高於AI模型的57.94%至62.62%。雖然AI在女性患者的表現較佳,但整體上仍不如醫生。研究指出,AI模型在ECG解讀上有潛力,但目前的可靠性不足,需進一步研究以提升準確性,特別是在複雜診斷方面。 PubMed DOI

這項研究評估了ChatGPT在回答美國醫學執照考試第二階段臨床知識問題的表現,分析了其在不同醫學專科、問題類型和難度上的準確性。總共評估了3,000道問題,結果顯示正確率為57.7%。在「男性生殖系統」類別中準確率最高(71.7%),而「免疫系統」最低(46.3%)。隨著問題難度和長度增加,表現下降,顯示較複雜問題更易錯誤。整體而言,ChatGPT的能力接近及格門檻,顯示其作為醫學生輔助學習工具的潛力,並強調了精煉AI模型和設計抗AI考題的重要性。 PubMed DOI

學生們越來越依賴人工智慧(AI)工具,如ChatGPT,來輔助醫學教育和考試準備。一項研究檢視了AI生成的多選題,這些題目模仿美國醫學執照考試(USMLE)第一階段的格式。研究發現,83%的問題事實上是準確的,常見主題包括深靜脈血栓和心肌梗塞。研究建議,分開生成內容主題和問題可以提升多樣性。總體而言,ChatGPT-3.5能有效生成相關考題,但需謹慎提示以減少偏見,對醫學生準備USMLE考試有幫助。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4在提供心房顫動相關資訊的準確性。研究使用108個結構化問題,涵蓋治療選擇和生活方式調整,由三位心臟科醫師根據準確性、清晰度和臨床相關性評估其回答。結果顯示,ChatGPT-4在「生活方式調整」和「日常生活與管理」表現良好,但在較複雜的問題上則表現不佳。整體而言,雖然它在簡單主題上有潛力,但對於需要深入臨床見解的複雜問題仍有局限。 PubMed DOI

ChatGPT 在通用外科考試拿到 72.7 分,超過及格線,生理學和選擇題表現不錯,但解剖學和需要分析的題目比較弱。雖然有潛力協助醫學教育,但還有不少限制,未來要再多研究和評估,才能廣泛應用。 PubMed DOI

這項研究發現,ChatGPT-4在回答心血管生理學選擇題時,正確率(83.33%)明顯高於ChatGPT-3.5(60%),而且解釋也更清楚。不過,AI的答案還是需要專業老師把關,醫學教育用AI時要特別小心。 PubMed DOI