原始文章

這項研究指出,網路醫療資訊在骨科領域的使用越來越普遍,但也面臨品質挑戰。研究評估了25個網站,並針對10個網站使用髖部資訊評分系統(HISS)進行分析。最初的平均分數為9.5,顯示品質不佳。經過ChatGPT的建議後,分數提升至21.5,顯示出優秀的品質。結果顯示,ChatGPT能顯著改善線上病人資訊的品質,成為骨科醫生創建教育材料的有力工具,雖然無法取代專業知識,但能提升醫療資訊的可及性與品質。 PubMed DOI


站上相關主題文章列表

2022年11月,OpenAI推出了ChatGPT,引發了對其在醫學領域有效性的討論。研究專注於ChatGPT對髕股疼痛的回答能力,並比較一般民眾、非骨科醫生及專家的評價。使用12個問題進行評估,結果顯示專家對ChatGPT的評分普遍較低,尤其在複雜問題上。雖然ChatGPT提供的資訊質量不錯,但隨著問題複雜度增加,其表現下降,顯示出人類專業知識在醫療中的重要性。 PubMed DOI

隨著人工智慧和機器學習的進步,像ChatGPT這樣的工具對現代醫學和病人教育產生影響。本研究評估了ChatGPT對全膝關節置換術(TKA)和全髖關節置換術(THA)術前問題的回答有效性。結果顯示,ChatGPT引用的109個來源中,只有36%是準確的,且大多數來源的出版時間集中在2011至2015年。雖然其準確性評分為4.4/6,但引用不準確文獻的比例高達64.22%。因此,使用ChatGPT進行醫學查詢時需謹慎。 PubMed DOI

膝關節骨關節炎(OA)對患者生活品質影響深遠,常需手術。雖然全膝關節置換術(TKA)常見,但年輕的單側膝關節OA患者可能更適合高胫骨截骨術(HTO)。有效的患者教育至關重要,但許多線上健康資訊對一般人來說過於複雜。研究探討定制版ChatGPT是否能提升膝關節OA和HTO的教育可讀性與準確性。結果顯示,微調後的ChatGPT在可讀性和資訊質量上均有顯著改善,顯示定制AI工具能讓醫療資訊更易理解。 PubMed DOI

這項研究評估了骨科手術的線上病患教育材料(OPEMs)的可讀性,結果顯示這些材料的可讀性都超過建議的六年級水平,無論是英文還是西班牙文。研究針對六種常見手術,分析了57份英文和56份西班牙文的OPEMs,並使用五種可讀性測試。經過ChatGPT重寫後,英文OPEMs的可讀性從9.6降至7.7,西班牙文則從9.5降至8.3,且字數、複雜詞彙和長句子都有明顯減少,準確性仍然保持。這顯示人工智慧工具能有效提升OPEMs的可讀性,讓病患更容易理解。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究探討了人工智慧技術,特別是ChatGPT和Gemini,在提供病人醫療資訊(PFI)方面的效果,專注於手部手術。研究發現,雖然AI生成的內容與傳統資料在準確性上無顯著差異,但手外科醫生認為傳統資料在全面性和清晰度上更佳。非醫療參與者則偏好AI生成的文本。整體來說,兩者的資訊都適合病人理解,但AI內容仍需改進以符合醫療標準。持續研究對於提升病人教育和術後護理溝通非常重要。 PubMed DOI

健康素養對醫生與病人溝通非常重要,特別是手術病人需要理解複雜的程序。美國醫學會建議病人教育材料應以六到八年級的閱讀水平撰寫,但許多線上資源卻較難懂。研究人員分析了三十段有關肩膀和肘部手術的資訊,發現原始文本的可讀性達到十年級。使用ChatGPT-4簡化後,文本可讀性顯著提高,降至八年級水平。這顯示AI能有效簡化醫療資訊,但仍需人類審查以確保準確性。 PubMed DOI

這項研究發現,ChatGPT在解釋膝關節置換手術及術後照護時,比DeepSeek更準確、讓人更滿意。不論病人還是骨科醫師,都比較推薦ChatGPT。顯示ChatGPT有機會成為病人衛教和減輕手術焦慮的好幫手。未來可再研究AI怎麼融入臨床,對治療結果有什麼影響。 PubMed DOI

這項研究測試了經過客製化訓練的ChatGPT,針對高脛骨截骨術(HTO)問題的回答能力,並以專家共識聲明為基礎。研究用10題測試AI,並由三位膝關節外科醫師評分。結果顯示,AI在正確性、相關性、清楚度和完整性方面表現都不錯,評審間一致性也高。雖然對非共識聲明的題目分數略低,但整體來說,這個AI有潛力成為外科醫師的輔助工具,也適合應用在其他醫療指引上。 PubMed DOI

這項研究發現,ChatGPT-4在回答關節置換相關問題時,正確率只有66.9%,明顯低於骨科研究員和主治醫師。特別是在有圖片的題目上,表現更差。雖然ChatGPT可當作學習輔助,但還無法取代專業醫師的臨床判斷,未來還需更多研究來提升AI在醫療領域的應用。 PubMed DOI