原始文章

研究發現,大型語言模型(如ChatGPT)在協助圍手術期醫學教學時,能正確回答99.3%的案例式問題,且沒有捏造答案;遇到不會的問題也會直接拒答,顯示AI在醫學教育上相當可靠。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧(AI)在醫學教育中案例學習(CBL)的應用,特別針對中東和北非地區的COVID-19情境。CBL是培訓醫療專業人員的重要方法,能將理論與實務結合。雖然創建有效案例需耗時且具挑戰性,但AI能透過分析大量醫療數據,簡化這一過程,生成多樣的臨床情境。研究顯示,AI生成的案例能提升學習者的參與感與批判性思維,適用於不同教育層級,並呼籲進一步努力以促進其在醫學教育中的應用。 PubMed DOI

人工智慧(AI),特別是大型語言模型(LLMs),逐漸融入疼痛醫學的教育中。本研究評估了AI在培訓專業人員的優缺點。文獻指出AI的優勢包括易用性、影像解讀協助、技能訓練及個性化學習,但也面臨回應不一致、人際技能發展不足及教育不平等等挑戰。 在初步的品質改善專案中,測試了三個LLMs,結果顯示ChatGPT Plus表現最佳,正確回答16題。雖然AI在疼痛醫學教育中展現潛力,但仍需進一步研究以克服現有限制,並謹慎使用AI作為輔助工具。 PubMed DOI

最近的人工智慧進展讓大型語言模型能針對特定領域進行客製化,像是醫學教育。本研究評估了一個專為提升醫學生和醫師臨床知識的客製化GPT模型,結果顯示其準確率達83.6%,高於一般AI模型。住院醫師對此模型的滿意度高,特別是它能促進學習獨立性和信心。這些發現顯示,客製化GPT有潛力改善醫學教育,但學習者和教育者仍需批判性地評估AI生成的內容。 PubMed DOI

研究用360題心臟科考題測試ChatGPT,初始得分54.44%,給予學習資料後提升到79.16%,接近人類平均。ChatGPT在基礎科學和藥理學表現佳,但解剖學較弱,且無法處理圖片等視覺資料。顯示AI能透過學習進步,但還有待改進,未來需更多研究優化醫學教育應用。 PubMed DOI

這項研究發現,ChatGPT-4在手術室情境下協助臨床決策時,表現和住院麻醉科醫師有時相近、有時差異較大。給它更多提示會讓表現變好,但整體來說,準確度和完整性還不夠穩定,目前還不適合用來做手術中的即時決策。 PubMed DOI

這項研究發現,ChatGPT在麻醉與重症醫學考試中,表現比初階住院醫師好,但比資深住院醫師差一點,整體成績和住院醫師差不多。未來有機會把ChatGPT應用在麻醉和重症醫學的教學上,當作輔助學習的工具。 PubMed DOI

研究比較四款大型語言模型在2021年土耳其醫學專科考試的表現,ChatGPT 4正確率最高(88.75%),Llama 3 70B(79.17%)、Gemini 1.5 Pro(78.13%)次之,Command R+僅50%。ChatGPT 4在基礎和臨床醫學題目都很強,顯示它和Llama 3 70B有潛力協助土耳其語醫學教育與臨床應用,其他兩款則還需加強。 PubMed DOI

ChatGPT 在通用外科考試拿到 72.7 分,超過及格線,生理學和選擇題表現不錯,但解剖學和需要分析的題目比較弱。雖然有潛力協助醫學教育,但還有不少限制,未來要再多研究和評估,才能廣泛應用。 PubMed DOI

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI

五款主流大型語言模型(如ChatGPT-4、Gemini等)在麻醉學考題測試中都拿到高分,彼此表現差不多,顯示未來有望協助醫學教育和臨床決策。不過,還需要更多研究來確認它們的可靠性、倫理問題及對病患照護的實際影響。 PubMed DOI