原始文章

微創脊椎手術(MISS)近年來成為傳統手術的替代選擇,因其切口小、恢復快及併發症少等優勢。隨著患者在網上尋求MISS資訊,資訊的清晰度與準確性變得重要。研究發現,許多相關網頁內容的可讀性超過建議水平,讓患者難以理解。本研究評估ChatGPT對MISS常見問題的回答在臨床適宜性和可讀性方面的表現。結果顯示,雖然術前和術後問題的回答通常適宜,但手術中問題的回答有一半被認為不可靠。未來的AI工具應注重清晰溝通,並需醫療專業人員的監督。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

研究比較ChatGPT生成的青光眼手術健康資訊與現有線上資料,發現兩者閱讀難度都高(11至12年級),且資訊品質一般。ChatGPT在評估資源品質方面表現準確,但對一般讀者來說仍複雜。儘管未達預期閱讀水準,ChatGPT可協助自動化評估。 PubMed DOI

研究評估使用ChatGPT向病人提供醫學資訊,並比較ChatGPT-3.5和ChatGPT-4的表現。結果顯示ChatGPT-4準確性較佳,回答也較完整。雖然ChatGPT有應用價值,但仍需謹慎確保病人安全及護理品質,並進一步研究在醫學領域使用大型語言模型的可行性。 PubMed DOI

研究發現ChatGPT在脊椎病變方面有一定準確性,但也有誤診風險。外科醫生應謹慎使用ChatGPT,視為輔助工具而非取代臨床經驗,以免造成誤導。 PubMed DOI

研究評估了ChatGPT對頸椎問題病人的問答品質,平均得分7.1分,準確性4.1分,適切性1.8分,可讀性1.2分。初步可讀性為13.5年級,簡化後提升至11.2年級。雖然ChatGPT提供特定資訊潛力,但準確性和可讀性有限。外科醫生需留意,病人可能會越來越依賴此技術。 PubMed DOI

ChatGPT在生成病人諮詢材料方面受到關注,但其有效性尚待評估。一項研究測試了ChatGPT在五種手術程序的圍手術期諮詢及併發症的表現。結果顯示,ChatGPT能提供全面的手術前諮詢要點,但對於手術併發症的準確性則不盡理想。與線上教育資源相比,ChatGPT的回應在適用性和病人教育材料評估中表現良好。總體而言,雖然ChatGPT能處理基本諮詢,但在複雜併發症方面仍有待加強。 PubMed DOI

這項研究探討內視鏡顱底手術相關的線上病患教育材料的可讀性與品質,並評估ChatGPT在改善這些材料方面的潛力。雖然建議可讀性應在六年級以下,但許多現有文章仍難以理解。研究發現66篇文章中,10篇可讀性最低的經過ChatGPT修改後,Flesch可讀性指數顯著提升,從19.7增至56.9,顯示可讀性改善至10年級水平。總體而言,ChatGPT有效提升了病患教育材料的可讀性與品質,顯示其在創建和精煉內容上的潛力。 PubMed DOI

這項研究評估了GPT-4在初級和急診護理中對脊椎問題的分診和診斷效果。研究設計了十五個臨床情境,要求GPT-4提供診斷、影像學建議及轉診需求。結果顯示,GPT-4能準確識別診斷並給出符合標準的臨床建議。雖然它有過度轉診的傾向,但這並不顯著。整體表現與主治醫師和住院醫師相當,顯示其在脊椎問題初步分診中的潛力。不過,GPT-4並非專為醫療用途設計,需注意其限制。隨著進一步訓練,這類AI可能在分診中變得更重要。 PubMed DOI

這項研究探討了使用ChatGPT重寫術後護理指導的效果,目的是讓病人和照護者更容易理解。原本的指導內容過於複雜,平均閱讀水平在七到八年級,而建議的水平是六年級。結果顯示,只有一個六年級的版本達標,四年級的版本則都不合格。雖然可理解性隨著閱讀水平降低而改善,但四年級版本的可行性下降。研究發現,ChatGPT能有效降低閱讀水平,增強病人理解能力,且不影響安全性。建議撰寫時可要求低一到兩個年級,以達最佳效果。 PubMed DOI

這項研究評估了ChatGPT-4在介入放射學程序潛在併發症資訊的準確性、可靠性和可讀性。兩位經驗豐富的醫師使用5點李克特量表對25個程序的回應進行評分,結果顯示評分一致性高(ICC達0.928)。可讀性評估顯示資訊通常達到大學水平,但可讀性較低。整體而言,ChatGPT-4在提供準確資訊方面表現良好,未出現幻覺,顯示其在病人教育上有潛力,但仍需高健康素養以理解這些資訊。 PubMed DOI