原始文章

這項研究比較了ChatGPT 4o和ChatGPT 4o mini在診斷和治療伴隨神經根症狀的腰椎間盤突出(LDH)的能力。研究評估了21個問題,並由五位骨科醫生檢視兩者的回答準確性和可靠性。結果顯示,ChatGPT 4o在分析53名病人的影像時,識別LDH的準確率達0.81,且與醫生的協議程度為中等。雖然兩者都有強大的臨床支援能力,但ChatGPT 4o的回答更全面。不過,內容的複雜性仍需改進,以提升病人的理解和減少焦慮。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT根據指引提供腰背痛的臨床建議的能力。ChatGPT在提供基於指引的建議時的準確性因指引類型而異。整體而言,當要求以經驗豐富的骨科醫師回答時,ChatGPT的準確性有所提高。然而,有時它會錯誤地建議證據,或者在建議缺乏足夠證據時未提及。 PubMed DOI

研究評估使用ChatGPT向病人提供醫學資訊,並比較ChatGPT-3.5和ChatGPT-4的表現。結果顯示ChatGPT-4準確性較佳,回答也較完整。雖然ChatGPT有應用價值,但仍需謹慎確保病人安全及護理品質,並進一步研究在醫學領域使用大型語言模型的可行性。 PubMed DOI

研究發現ChatGPT在脊椎病變方面有一定準確性,但也有誤診風險。外科醫生應謹慎使用ChatGPT,視為輔助工具而非取代臨床經驗,以免造成誤導。 PubMed DOI

生成式人工智慧如ChatGPT和Google Bard被應用在患者教育,例如腰椎間盤突出。研究發現,這些AI回答腰椎間盤突出的問題時,準確性和清晰度有差異,需要改進。未來應該專注於提升AI模型,以增進患者和醫師之間的溝通。 PubMed DOI

研究測試ChatGPT在幫HLD患者解答問題的效用。結果顯示ChatGPT通常提供有用、安全的資訊,但有時會有不完整的答案。使用者要小心使用。 PubMed DOI

研究比較了ChatGPT和NASS頸神經根症指引的安全性和準確性。結果顯示,ChatGPT-4在完整性方面優於ChatGPT-3.5,且比NASS指引更易理解。醫師評估發現ChatGPT的回應安全且符合最佳實踐。未來的ChatGPT版本可能有助於提升頸神經根症指引的可存取性和易理解性,但仍需進一步改進。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答腰椎間盤突出合併神經根症的臨床問題時的表現。結果顯示,ChatGPT-3.5的準確率為47%,而ChatGPT-4.0提升至67%。雖然兩者都提供了補充資訊,但ChatGPT-4.0的補充資訊較少。特定方面如定義和病史檢查兩者皆達100%準確率,但在診斷測試上,3.5為0%,4.0則為100%。整體來看,ChatGPT-4.0的表現優於3.5,但醫師仍需謹慎使用,以防錯誤資訊。 PubMed DOI

這項研究評估了GPT-4在初級和急診護理中對脊椎問題的分診和診斷效果。研究設計了十五個臨床情境,要求GPT-4提供診斷、影像學建議及轉診需求。結果顯示,GPT-4能準確識別診斷並給出符合標準的臨床建議。雖然它有過度轉診的傾向,但這並不顯著。整體表現與主治醫師和住院醫師相當,顯示其在脊椎問題初步分診中的潛力。不過,GPT-4並非專為醫療用途設計,需注意其限制。隨著進一步訓練,這類AI可能在分診中變得更重要。 PubMed DOI

微創脊椎手術(MISS)近年來成為傳統手術的替代選擇,因其切口小、恢復快及併發症少等優勢。隨著患者在網上尋求MISS資訊,資訊的清晰度與準確性變得重要。研究發現,許多相關網頁內容的可讀性超過建議水平,讓患者難以理解。本研究評估ChatGPT對MISS常見問題的回答在臨床適宜性和可讀性方面的表現。結果顯示,雖然術前和術後問題的回答通常適宜,但手術中問題的回答有一半被認為不可靠。未來的AI工具應注重清晰溝通,並需醫療專業人員的監督。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Copilot,對於低背痛(LBP)醫療建議的有效性。研究在蒙特利爾大學進行,針對27個常見問題進行回答,並由物理醫學科醫師評估其有效性、安全性和實用性。結果顯示,ChatGPT在有效性得分3.33,安全性3.19,實用性3.60;而Copilot則分別為3.18、3.13和3.57。臨床背景對結果影響不大,顯示LLMs在低背痛自我管理中具有可靠性,未來在病人照護中有潛力。 PubMed DOI