原始文章

這項研究發現,ChatGPT-4在回答關節置換相關問題時,正確率只有66.9%,明顯低於骨科研究員和主治醫師。特別是在有圖片的題目上,表現更差。雖然ChatGPT可當作學習輔助,但還無法取代專業醫師的臨床判斷,未來還需更多研究來提升AI在醫療領域的應用。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT 3.5和4在回答骨科考試問題的表現,使用了來自首爾國立大學醫院的160道問題,分為11個子類別。結果顯示,ChatGPT 3.5的正確率為37.5%,而ChatGPT 4提升至60.0%(p < 0.001)。大部分類別中,ChatGPT 4表現較佳,唯獨在腫瘤相關問題上不如3.5。此外,ChatGPT 4的回答不一致率顯著低於3.5(9.4%對比47.5%)。雖然ChatGPT 4在骨科考試中表現不錯,但仍需謹慎對待其不一致的回答和錯誤解釋。 PubMed DOI

2022年11月,OpenAI推出了ChatGPT,引發了對其在醫學領域有效性的討論。研究專注於ChatGPT對髕股疼痛的回答能力,並比較一般民眾、非骨科醫生及專家的評價。使用12個問題進行評估,結果顯示專家對ChatGPT的評分普遍較低,尤其在複雜問題上。雖然ChatGPT提供的資訊質量不錯,但隨著問題複雜度增加,其表現下降,顯示出人類專業知識在醫療中的重要性。 PubMed DOI

隨著人工智慧和機器學習的進步,像ChatGPT這樣的工具對現代醫學和病人教育產生影響。本研究評估了ChatGPT對全膝關節置換術(TKA)和全髖關節置換術(THA)術前問題的回答有效性。結果顯示,ChatGPT引用的109個來源中,只有36%是準確的,且大多數來源的出版時間集中在2011至2015年。雖然其準確性評分為4.4/6,但引用不準確文獻的比例高達64.22%。因此,使用ChatGPT進行醫學查詢時需謹慎。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在提供肩膀和肘部手術資訊的準確性,分析了114個問題。結果顯示,ChatGPT 3.5的正確率為52.3%,而ChatGPT 4則達到73.3%。雖然3.5在不穩定性類別表現較佳,但4在大多數其他類別中表現更優。兩者的表現都超過50%的熟練度,但仍無法取代臨床決策。研究建議進一步改善ChatGPT的訓練,以提升其作為醫療資訊資源的效用。 PubMed DOI

這項研究評估了ChatGPT-4在回答全踝關節置換術(TAA)相關問題的表現。研究人員提出十二個常見問題,並請四位專科外科醫生評分其回答的準確性和清晰度。平均得分為1.8(滿分4分),顯示在事實性問題上表現尚可,但對於術後方案等細緻問題評分較低。外科醫生的評分差異顯著,顯示出不同的解讀和期望。這強調了針對特定臨床情境設計AI工具的必要性,以提升病人教育和資訊的準確性。 PubMed DOI

這項研究發現,ChatGPT-4在回答全髖關節置換術後性生活相關問題時,表現普遍算是「尚可」,尤其適合用來做一般衛教,特別是面對敏感話題。不過,遇到需要更專業或個別化的情境時,ChatGPT的表現就比較有限,因此還是要依賴專業醫師的建議。 PubMed DOI

這項研究發現,結合RAG技術的ChatGPT-4在骨科考題上的表現,正確率約74%,跟骨科醫師差不多,也比沒用RAG的ChatGPT-4和3.5好。RAG還能讓AI引用資料來源,提升可信度,對骨科教學和考試準備很有幫助。 PubMed DOI

這項研究發現,ChatGPT在回答肩關節置換手術常見問題時,只有一題被評為「優秀」,其他答案雖然還可以,但都不夠詳細。ChatGPT適合用來幫助病人和醫師溝通,但在治療細節和正確性上還有待加強。建議把它當作輔助工具,不能取代專業醫療意見,使用時也要有專業監督。 PubMed DOI

這項研究發現,ChatGPT在解釋膝關節置換手術及術後照護時,比DeepSeek更準確、讓人更滿意。不論病人還是骨科醫師,都比較推薦ChatGPT。顯示ChatGPT有機會成為病人衛教和減輕手術焦慮的好幫手。未來可再研究AI怎麼融入臨床,對治療結果有什麼影響。 PubMed DOI

這項研究測試了經過客製化訓練的ChatGPT,針對高脛骨截骨術(HTO)問題的回答能力,並以專家共識聲明為基礎。研究用10題測試AI,並由三位膝關節外科醫師評分。結果顯示,AI在正確性、相關性、清楚度和完整性方面表現都不錯,評審間一致性也高。雖然對非共識聲明的題目分數略低,但整體來說,這個AI有潛力成為外科醫師的輔助工具,也適合應用在其他醫療指引上。 PubMed DOI