原始文章

這項研究評估了ChatGPT-4在為臨床前醫學生創建急性哮喘模擬的有效性。結果顯示,所有模擬都符合基本醫學準確性。進階參數方面,55%的模擬提供延遲反饋,正確組與錯誤組的反饋效果差異明顯。79%的模擬能自主得出結論,且在全面反饋上兩組表現相近。總結來說,ChatGPT-4在基本模擬上表現優異,但延遲反饋的效果受使用者輸入影響,建議未來需進一步研究以確保其在不同情境下的穩定性。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用ChatGPT作為醫學教育中的標準化病人,特別是在病史採集方面。研究分為兩個階段:第一階段評估其可行性,模擬炎症性腸病的對話並將回應分為好、中、差三類。第二階段則評估其擬人化、臨床準確性和適應性,並調整提示以增強回應。 結果顯示,ChatGPT能有效區分不同質量的回應,經過修訂的提示使其準確性提高了4.926倍。整體而言,研究表明ChatGPT可作為模擬醫學評估的工具,並有潛力改善醫學訓練。 PubMed DOI

這項研究評估了兩個版本的ChatGPT在美國醫學執照考試(USMLE)風格問題上的表現,使用了900道選擇題。結果顯示,ChatGPT-4的準確率為71.33%,明顯高於AMBOSS用戶的54.38%和ChatGPT-3.5的46.23%。ChatGPT-4在準確率上比ChatGPT-3.5提升了25%,且在多次測試中的一致性也較高。雖然兩個模型在不同醫學主題上的表現有所不同,但問題的複雜性可能影響了表現變異性。總體而言,ChatGPT-4在醫學教育中展現出潛力,甚至在某些方面超越人類。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

這項研究探討了使用ChatGPT-4o作為虛擬病人,協助醫學實習生的臨床訓練。研究在艾登阿德南門德雷斯大學進行,21名六年級醫學生參與,透過問卷、訪談和觀察收集數據。結果顯示,實習生的自我評估與實際表現正相關,但在問題解決和臨床推理上存在明顯差距,且時間壓力加劇不安感。儘管面臨技術問題,實習生對AI輔助訓練表示滿意,並願意參加類似訓練。研究建議ChatGPT-4o可成為提升臨床技能的有效工具。 PubMed DOI

這項研究評估了ChatGPT-4在重症醫學的表現,使用的數據來自中國的健康專業技術考試。ChatGPT-4回答了600個問題,成功率達73.5%,超過60%的及格標準,基礎知識的準確率最高,達81.94%。單選題表現(76.72%)優於多選題(51.32%)。雖然它在臨床決策和醫學教育上顯示潛力,但仍需醫療專業人員的監督,以確保準確性和病人安全。 PubMed DOI

這項研究發現,ChatGPT-4在有選擇題選項時,答對率超過86%,但沒選項時最低只有61.5%。它在管理問題上比診斷問題更容易出錯。雖然GPT-4能處理臨床資訊,但不是真的懂臨床情境。未來如果和專業醫療人員搭配,有機會幫助臨床工作,但還需要更多測試來確保安全和有效。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究發現,ChatGPT-4在回答心血管生理學選擇題時,正確率(83.33%)明顯高於ChatGPT-3.5(60%),而且解釋也更清楚。不過,AI的答案還是需要專業老師把關,醫學教育用AI時要特別小心。 PubMed DOI

這項研究發現,ChatGPT能快速產出真實的心血管臨床案例,有助於教學情境設計,但內容常有錯誤、資訊不全或不符護理標準。專家審查仍是確保臨床正確性和教學品質的關鍵步驟。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI