原始文章

這項研究評估了ChatGPT在凍結肩患者資訊提供上的有效性。五位醫師針對十四個肌肉骨骼疾病的關鍵問題,與120位患者進行諮詢,並使用5點李克特量表評估ChatGPT 4.0的回應。結果顯示,85.7%的回應獲得5分,92.9%的回應在安全性上也得分高。整體來看,ChatGPT提供的資訊有效、安全且實用,但使用者仍需謹慎,並不應取代專業醫療建議,定期更新資訊也很重要。 PubMed DOI


站上相關主題文章列表

研究測試ChatGPT在幫HLD患者解答問題的效用。結果顯示ChatGPT通常提供有用、安全的資訊,但有時會有不完整的答案。使用者要小心使用。 PubMed DOI

這項研究評估了ChatGPT-4在回答有關尺側韌帶(UCL)損傷的問題時的有效性,並與Google進行比較。研究發現,ChatGPT-4的學術來源比例高達90%,而Google僅50%。兩者在常見問題上有40%的重疊,但在數字回答中,只有20%的答案完全相同。ChatGPT-4的答案準確性顯著高於Google,顯示其在提供臨床相關資訊方面的潛力。不過,在完全應用於臨床前,仍需進一步驗證。 PubMed DOI

這項研究評估了ChatGPT在肩袖修復手術患者資源中的有效性,並比較了3.5和4.0版本的資訊內容與可讀性。三位外科醫生在2023年8月提出了13個常見問題,分析結果顯示兩個版本的資訊質量高,但可讀性較差,且缺乏引用影響可靠性。雖然4.0版本的可讀性優於3.5,但整體仍需改進。總之,ChatGPT提供的資訊有價值,但在可讀性和引用方面仍有待加強。 PubMed DOI

這項研究評估了ChatGPT對反向肩關節置換術(RSA)常見問題的回答準確性。研究從病人教育網站收集了十個問題,並由兩位骨科醫生分析回答的清晰度和準確性。結果顯示,平均DISCERN評分為44,七個回答質量中等,三個則較差。所有回答在JAMA標準上得分為0,平均可讀性為14.35,顯示需具備大學程度的閱讀能力。雖然ChatGPT的回答中等,但缺乏可靠引用和可讀性限制了其在病人教育中的有效性,強調了創建可靠資源的重要性及醫生的角色。 PubMed DOI

這項研究評估了ChatGPT在回答有關全肩關節置換術的病人常見問題的效果。研究者提出十個問題,並用評分系統來檢視回答的準確性和清晰度。結果顯示,平均回答質量尚可,但仍需進一步澄清,Mika分數為2.93,DISCERN分數為46.60,屬於「尚可」等級。可讀性分析顯示,回答水平達到大學畢業生程度,超過病人教育材料的理想標準。結論指出,ChatGPT可作為病人教育的輔助工具,但不應取代醫療專業人員的諮詢。 PubMed DOI

這項研究評估了ChatGPT對全肩關節置換術(TSA)常見病人問題的回答質量。研究人員整理了15個問題,並直接詢問ChatGPT,三位認證的骨科醫生用A-F評分系統對其回答進行評分。結果顯示,ChatGPT的整體評分為B-,在術前和術後問題上也相似。雖然它提供了合理建議,並承認自身限制,但常常忽略最新研究,且回答有時超出問題範疇。研究指出,人工智慧可作為病人初步詢問的工具,但無法取代骨科醫生的專業知識。 PubMed DOI

這項研究評估了ChatGPT對於常見肩部病理問題的回答準確性和完整性,包括二頭肌腱炎、旋轉袖撕裂等。三位經驗豐富的骨科醫生使用李克特量表進行評估,結果顯示ChatGPT的答案通常準確且完整,準確性分數介於5.1到5.8之間,完整性分數則在2.3到2.9之間。雖然ChatGPT可作為病患的有用資源,但仍建議病患應與醫療提供者確認線上資訊。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在提供肩膀和肘部手術資訊的準確性,分析了114個問題。結果顯示,ChatGPT 3.5的正確率為52.3%,而ChatGPT 4則達到73.3%。雖然3.5在不穩定性類別表現較佳,但4在大多數其他類別中表現更優。兩者的表現都超過50%的熟練度,但仍無法取代臨床決策。研究建議進一步改善ChatGPT的訓練,以提升其作為醫療資訊資源的效用。 PubMed DOI

這項研究評估了ChatGPT對旋轉袖撕裂病人常見問題的回答能力,並比較了標準與六年級閱讀水平的回應。結果顯示,標準回應在準確性(4.7)和適當性(4.5)上優於六年級回應(3.6和3.7),且差異顯著(P < 0.001)。不過,標準回應的準確性和適當性仍低於OrthoInfo(準確性4.7對5.0,適當性4.5對5.0)。雖然標準回應較佳,但可讀性卻不如OrthoInfo。結論建議,ChatGPT不應作為病人資訊的唯一來源,但可作為骨科醫生資訊的補充。 PubMed DOI

這項研究評估了ChatGPT在回答有關觸發指的病人問題的有效性,目的是改善病人教育並探討人工智慧的角色。研究人員整理了十個常見問題,並根據《美國醫學會雜誌》(JAMA)和DISCERN工具的標準評估ChatGPT的回答。結果顯示,ChatGPT的回答質量中等,60%被認為滿意,但40%有缺陷,主要是缺乏科學參考資料。此外,回答的可讀性達到大學水平,對健康素養較低的病人來說理解上有挑戰。結論指出,雖然ChatGPT能提供一般資訊,但在作為病人主要教育資源前,需專家監督。這是首個專門檢視ChatGPT在觸發指情境中的研究。 PubMed DOI