原始文章

這項研究評估了ChatGPT對脊柱側彎問題的回答在可靠性、有用性、品質和可讀性方面的表現。選擇了十六個常見問題,由兩位專家評分。結果顯示,可靠性平均得分4.68,有用性得分4.84,整體品質得分4.28,評價普遍正面。雖然一般資訊的回答表現不錯,但針對治療和個人化問題的回答仍需加強。可讀性方面,回答需具備高中三年級到大學程度的閱讀能力。總體來說,ChatGPT提供的脊柱側彎資訊可靠,但在特定問題上仍需謹慎使用。 PubMed DOI


站上相關主題文章列表

2022年11月,OpenAI推出了ChatGPT,引發了對其在醫學領域有效性的討論。研究專注於ChatGPT對髕股疼痛的回答能力,並比較一般民眾、非骨科醫生及專家的評價。使用12個問題進行評估,結果顯示專家對ChatGPT的評分普遍較低,尤其在複雜問題上。雖然ChatGPT提供的資訊質量不錯,但隨著問題複雜度增加,其表現下降,顯示出人類專業知識在醫療中的重要性。 PubMed DOI

這項研究分析了三款AI聊天機器人(ChatGPT、Perplexity和Gemini)在低背痛相關問題上的可讀性、可靠性和回應質量。研究使用25個常見搜尋關鍵字,評估這些機器人提供的資訊是否易懂且可靠。結果顯示,所有機器人的可讀性均高於六年級水平,表示資訊難以理解。Perplexity在質量評估中表現最佳,但整體而言,這些聊天機器人的回應質量和可靠性都偏低。研究建議未來應提升AI聊天機器人的資訊清晰度與質量,以更好地幫助患者。 PubMed DOI

生成式 AI 工具如 ChatGPT 在醫療查詢中越來越受歡迎,特別是在解答髕腱病相關問題上。一項研究評估了 ChatGPT-4 的表現,收集了 48 個問題並由專家評估其回應。結果顯示,只有 33% 的回應準確,但 75% 是全面的。治療相關問題的準確率僅 17%。回應的可讀性達到大學水平,且可理解性良好(83%),但可行性較低(60%)。總體而言,ChatGPT-4 提供了豐富資訊,但準確性不足,且對於低學歷者不易理解。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究探討了ChatGPT在回答頸椎手術常見問題的準確性與可靠性。研究中對ChatGPT-3.5提出20個問題,並進行三次提問,總共獲得60個回應。三位脊椎外科醫生根據準確性和實用性評分,結果顯示平均分數為3.17,66.7%的回應被評為「中等」質量。不過,測試的可靠性較低,顯示不同提問的回應質量不一致。總體來看,ChatGPT提供的答案雖然中等,但仍需進一步研究以提升其可靠性與準確性。 PubMed DOI

這項研究評估了AI工具,特別是ChatGPT 3.5和4.0,在提供低背痛患者教育的效果。結果顯示,ChatGPT 4.0在回應質量上明顯優於3.5,得分分別為1.03和2.07,且可靠性得分也較高。兩者在心理社會因素的問題上表現不佳,顯示出臨床醫生在這類情感敏感問題上的監督是必要的。未來發展應著重提升AI在心理社會方面的能力。 PubMed DOI

脊髓刺激(SCS)是一種有效的慢性疼痛治療方法,但患者常有疑問。本研究探討ChatGPT對SCS常見問題的回答在可靠性、準確性和可理解性方面的表現。研究選擇了十三個問題,並由專業醫師和非醫療人士評估。結果顯示,ChatGPT的回答在可靠性和可理解性上表現良好,準確性也達到95%。總結來說,ChatGPT可作為患者教育SCS的輔助工具,尤其在一般性問題上,但對於技術性問題則可能較為困難。 PubMed DOI

這項研究探討了ChatGPT在提供脊柱側彎相關資訊的準確性與易懂性。研究人員整理了十二個常見問題,並用ChatGPT生成回答,兩位兒童骨科醫生對這些回答進行評估。結果顯示,ChatGPT的回答在準確性上表現不錯,但仍需澄清,且可讀性過高,適合的讀者層級從11年級到大學畢業,可能不符合預期病患的需求。研究建議未來需改進回答的準確性與可讀性,並評估AI在其他兒童骨科問題上的可靠性。 PubMed DOI

這項研究評估了手部手術相關的線上醫療資訊,並比較了Google、ChatGPT-3.5和ChatGPT-4.0的回應。研究針對腕隧道症候群、網球肘和富血小板血漿用於拇指關節炎三個問題進行分析。 主要發現包括: 1. **可讀性**:Google的回應較易讀,平均在八年級水平,而ChatGPT則在大學二年級水平。低共識主題的可讀性普遍較差。 2. **可靠性與準確性**:ChatGPT-4的可靠性與3.5相似,但低共識主題的可讀性較低,準確性差異不大。 3. **覆蓋範圍**:ChatGPT-4和Google在疾病原因和程序細節的覆蓋上有所不同,但在解剖學和病理生理學上相似。 總結來說,雖然ChatGPT能提供可靠的醫療資訊,但可讀性較差,醫療提供者需注意其局限性。 PubMed DOI

這項研究比較ChatGPT、Perplexity和Gemini三款AI聊天機器人,針對僵直性脊椎炎的回答。結果發現,三者的答案都超過國中六年級的閱讀難度,一般人較難看懂。Perplexity的資訊最可靠、品質也最好。不過,整體來說,這些AI在可讀性、正確性和品質上還有進步空間,未來仍需加強與監督。 PubMed DOI