原始文章

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在骨科住院醫師考試(OITE)中的表現,分析了其對2022年考題的回答。結果顯示,ChatGPT的整體正確率為48.3%,在67.6%的問題中展現了邏輯推理能力,並在68.1%的案例中有效利用資訊。然而,回答中常見的問題是資訊謬誤,顯示出提供不正確資訊的傾向。雖然它在某些方面有能力,但目前的限制使其不太可能成為可靠的學習資源。 PubMed DOI

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

學生們越來越依賴人工智慧(AI)工具,如ChatGPT,來輔助醫學教育和考試準備。一項研究檢視了AI生成的多選題,這些題目模仿美國醫學執照考試(USMLE)第一階段的格式。研究發現,83%的問題事實上是準確的,常見主題包括深靜脈血栓和心肌梗塞。研究建議,分開生成內容主題和問題可以提升多樣性。總體而言,ChatGPT-3.5能有效生成相關考題,但需謹慎提示以減少偏見,對醫學生準備USMLE考試有幫助。 PubMed DOI

這項研究發現,ChatGPT-4在手術室情境下協助臨床決策時,表現和住院麻醉科醫師有時相近、有時差異較大。給它更多提示會讓表現變好,但整體來說,準確度和完整性還不夠穩定,目前還不適合用來做手術中的即時決策。 PubMed DOI

這項研究發現,ChatGPT在麻醉與重症醫學考試中,表現比初階住院醫師好,但比資深住院醫師差一點,整體成績和住院醫師差不多。未來有機會把ChatGPT應用在麻醉和重症醫學的教學上,當作輔助學習的工具。 PubMed DOI

研究發現,ChatGPT-4在兒童加護病房(PICU)事實性知識題表現不錯,答案較完整,有六成時間被評審偏好;但臨床推理還是專科醫師表現較佳,正確率也較高。兩者結合效果最好。總結來說,ChatGPT-4有潛力輔助PICU教育,但臨床推理部分還是需要專家把關,不能單獨使用。 PubMed DOI

ChatGPT-4參加西班牙醫師考試,200題答對150題,成績約在1,900到2,300名之間,已能申請多數醫學專科。它在有無圖片題目表現差不多,難題表現較弱,跟人類類似。研究認為AI有教育潛力,但會出錯,不能取代醫師,答案還是要專業審查。 PubMed DOI

ChatGPT 在通用外科考試拿到 72.7 分,超過及格線,生理學和選擇題表現不錯,但解剖學和需要分析的題目比較弱。雖然有潛力協助醫學教育,但還有不少限制,未來要再多研究和評估,才能廣泛應用。 PubMed DOI

這項研究發現,ChatGPT能快速產出真實的心血管臨床案例,有助於教學情境設計,但內容常有錯誤、資訊不全或不符護理標準。專家審查仍是確保臨床正確性和教學品質的關鍵步驟。 PubMed DOI

研究發現,大型語言模型(如ChatGPT)在協助圍手術期醫學教學時,能正確回答99.3%的案例式問題,且沒有捏造答案;遇到不會的問題也會直接拒答,顯示AI在醫學教育上相當可靠。 PubMed DOI