原始文章

這項研究發現,透過反覆回饋修正,GPT-4o能快速產出高品質的跨專業教育臨床情境,品質甚至不輸人類導師設計,學生也分辨不出差異。這方法能有效減輕教師負擔,對資源有限的教學環境特別有幫助。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用ChatGPT作為醫學教育中的標準化病人,特別是在病史採集方面。研究分為兩個階段:第一階段評估其可行性,模擬炎症性腸病的對話並將回應分為好、中、差三類。第二階段則評估其擬人化、臨床準確性和適應性,並調整提示以增強回應。 結果顯示,ChatGPT能有效區分不同質量的回應,經過修訂的提示使其準確性提高了4.926倍。整體而言,研究表明ChatGPT可作為模擬醫學評估的工具,並有潛力改善醫學訓練。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

這項研究探討了使用ChatGPT-4o作為虛擬病人,協助醫學實習生的臨床訓練。研究在艾登阿德南門德雷斯大學進行,21名六年級醫學生參與,透過問卷、訪談和觀察收集數據。結果顯示,實習生的自我評估與實際表現正相關,但在問題解決和臨床推理上存在明顯差距,且時間壓力加劇不安感。儘管面臨技術問題,實習生對AI輔助訓練表示滿意,並願意參加類似訓練。研究建議ChatGPT-4o可成為提升臨床技能的有效工具。 PubMed DOI

這項研究評估了ChatGPT-4在為臨床前醫學生創建急性哮喘模擬的有效性。結果顯示,所有模擬都符合基本醫學準確性。進階參數方面,55%的模擬提供延遲反饋,正確組與錯誤組的反饋效果差異明顯。79%的模擬能自主得出結論,且在全面反饋上兩組表現相近。總結來說,ChatGPT-4在基本模擬上表現優異,但延遲反饋的效果受使用者輸入影響,建議未來需進一步研究以確保其在不同情境下的穩定性。 PubMed DOI

研究發現,ChatGPT-4在兒童加護病房(PICU)事實性知識題表現不錯,答案較完整,有六成時間被評審偏好;但臨床推理還是專科醫師表現較佳,正確率也較高。兩者結合效果最好。總結來說,ChatGPT-4有潛力輔助PICU教育,但臨床推理部分還是需要專家把關,不能單獨使用。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI

這項研究發現,ChatGPT能快速產出真實的心血管臨床案例,有助於教學情境設計,但內容常有錯誤、資訊不全或不符護理標準。專家審查仍是確保臨床正確性和教學品質的關鍵步驟。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI