原始文章

這項研究評估了ChatGPT在回答骨科多選題的準確性及其作為醫學生學習輔助工具的效果。結果顯示,ChatGPT-4.0的準確率達70.60%。在129名醫學生中,經過兩週的介入,使用ChatGPT的組別在骨科測試中表現顯著優於對照組,特別是在A1、A2和A3/4的題目上。此外,ChatGPT組在學期末的外科和婦產科考試中也表現更佳。研究結果顯示,將ChatGPT融入醫學教育能提升學習成效,並已在中國臨床試驗註冊中心註冊。 PubMed DOI


站上相關主題文章列表

ChatGPT是一個受歡迎的工具,可提供有條理的回應。研究評估了它在醫學教育中的表現,測試了基礎醫學和臨床醫學的MCQs。結果顯示,在基礎醫學方面得分為74%,臨床醫學方面為70%,總體得分為72%。顯示ChatGPT對醫學生和教職員有幫助。 PubMed DOI

研究使用大型語言模型探討骨科領域,專注於ACL手術。結果顯示ChatGPT在回答患者和醫生問題時相當準確,但仍需專業醫師確認。雖有潛力作為知識補充,但無法取代專業醫師。 PubMed DOI

研究評估了ChatGPT在過去5次醫學專業考試中的表現,分析了成功率和排名。ChatGPT回答各種問題,成功率不同,排名從第1787名到第4428名。在短問題和單選多選擇題上表現較佳,但仍落後於人類專家。研究引起對ChatGPT在醫療服務潛力的好奇。 PubMed DOI

研究比較了ChatGPT和GPT-4在沒有圖像的骨科住院醫師考試(OITE)上的表現。ChatGPT在PGY-1級別回答問題的準確率為54.3%,並有47.2%引用來源,期刊影響因子為5.4。GPT-4在PGY-5級別回答問題的準確率為73.6%,並有87.9%引用來源,期刊影響因子為5.2。結果顯示GPT-4優於平均PGY-5級別,顯示明顯進步。AI有潛力提升醫學教育和醫療服務效率。 PubMed DOI

研究比較了ChatGPT-4與專業醫療保健提供者在遠距醫療中的表現,尤其是在骨科諮詢方面。結果顯示,ChatGPT-4在邏輯推理、外部資訊、引導功能和醫學知識普及教育方面表現不錯,但在內部資訊和治療效果方面稍差。整體滿意度則相似。研究指出,ChatGPT-4在某些方面能提供類似專業知識,可能成為遠程健康建議和患者教育的有用工具。 PubMed DOI

研究評估了ChatGPT 3.5在印度大學醫學本科社區醫學考試的表現。結果顯示,ChatGPT在回答考題時展現出色的相關性、連貫性和完整性。儘管在醫學教育上有潛力,但仍需進一步探討其可靠性和應用價值,才能廣泛運用。 PubMed DOI

研究比較了ChatGPT和Google搜尋對賓夕法尼亞大學第三年醫學生外科實習的影響。19名學生參與,兩者都提升了考試成績,Google效果稍好。但干預後成績無顯著差異。學生認為ChatGPT有用,但在外科實習中使用仍有疑慮。 PubMed DOI

研究發現AI語言模型ChatGPT在2021年骨科住院醫師培訓考試(OITE)中表現不錯,得分61.2%,跟一名平均第三年的醫師相當。評審間一致,回答合理。未來需進一步研究對學習和考試的長期影響。 PubMed DOI

研究發現,在骨科創傷手術中使用ChatGPT表現良好,對患者、非骨科醫生和專家骨科外科醫生的回答準確率分別為52.9%、64.7%和70.5%。ChatGPT的回答完整性得分也很高,分別為52.9%、73.5%和82.4%。整體而言,ChatGPT在骨科創傷手術中為不同對象提供有價值和準確回答的潛力表現出色。 PubMed DOI

這項研究評估了ChatGPT 3.5和4在回答骨科考試問題的表現,使用了來自首爾國立大學醫院的160道問題,分為11個子類別。結果顯示,ChatGPT 3.5的正確率為37.5%,而ChatGPT 4提升至60.0%(p < 0.001)。大部分類別中,ChatGPT 4表現較佳,唯獨在腫瘤相關問題上不如3.5。此外,ChatGPT 4的回答不一致率顯著低於3.5(9.4%對比47.5%)。雖然ChatGPT 4在骨科考試中表現不錯,但仍需謹慎對待其不一致的回答和錯誤解釋。 PubMed DOI