原始文章

這項研究發現,ChatGPT 3.5和4.0在針對成人峽部脊椎滑脫症時,依照2014年NASS指引給建議的整體一致性只有中等(3.5版45%,4.0版42%)。遇到有明確指引的問題表現較好,但面對沒有直接指引的問題時,準確度就明顯下降,顯示ChatGPT在處理複雜醫療議題和最新醫學證據上還有待加強。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT根據指引提供腰背痛的臨床建議的能力。ChatGPT在提供基於指引的建議時的準確性因指引類型而異。整體而言,當要求以經驗豐富的骨科醫師回答時,ChatGPT的準確性有所提高。然而,有時它會錯誤地建議證據,或者在建議缺乏足夠證據時未提及。 PubMed DOI

研究評估使用ChatGPT向病人提供醫學資訊,並比較ChatGPT-3.5和ChatGPT-4的表現。結果顯示ChatGPT-4準確性較佳,回答也較完整。雖然ChatGPT有應用價值,但仍需謹慎確保病人安全及護理品質,並進一步研究在醫學領域使用大型語言模型的可行性。 PubMed DOI

研究評估使用OpenAI的ChatGPT模型協助退行性脊椎前移臨床決策,結果顯示ChatGPT-4.0較符合NASS指南。雖然有潛力,但需謹慎使用,因為當指南不清晰時可能提供不準確資訊。臨床醫師應小心使用ChatGPT,並與文獻核對建議。 PubMed DOI

研究比較了ChatGPT和NASS頸神經根症指引的安全性和準確性。結果顯示,ChatGPT-4在完整性方面優於ChatGPT-3.5,且比NASS指引更易理解。醫師評估發現ChatGPT的回應安全且符合最佳實踐。未來的ChatGPT版本可能有助於提升頸神經根症指引的可存取性和易理解性,但仍需進一步改進。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答腰椎間盤突出合併神經根症的臨床問題時的表現。結果顯示,ChatGPT-3.5的準確率為47%,而ChatGPT-4.0提升至67%。雖然兩者都提供了補充資訊,但ChatGPT-4.0的補充資訊較少。特定方面如定義和病史檢查兩者皆達100%準確率,但在診斷測試上,3.5為0%,4.0則為100%。整體來看,ChatGPT-4.0的表現優於3.5,但醫師仍需謹慎使用,以防錯誤資訊。 PubMed DOI

這項研究評估了GPT-4在初級和急診護理中對脊椎問題的分診和診斷效果。研究設計了十五個臨床情境,要求GPT-4提供診斷、影像學建議及轉診需求。結果顯示,GPT-4能準確識別診斷並給出符合標準的臨床建議。雖然它有過度轉診的傾向,但這並不顯著。整體表現與主治醫師和住院醫師相當,顯示其在脊椎問題初步分診中的潛力。不過,GPT-4並非專為醫療用途設計,需注意其限制。隨著進一步訓練,這類AI可能在分診中變得更重要。 PubMed DOI

這項研究調查了四個大型語言模型(LLMs)—Bard、BingAI、ChatGPT-3.5 和 ChatGPT-4—在遵循2023年北美脊椎學會(NASS)頸椎融合指導方針的表現。結果顯示,這些模型的遵循率不高,ChatGPT-4和Bing Chat表現較佳,僅達60%。在特定情況下,所有模型都未能符合NASS建議,顯示出明顯差異。研究強調了對LLMs進行更好訓練的需求,並指出在臨床決策中考慮病人特徵的重要性,顯示出人工智慧在醫療中的潛力與挑戰。 PubMed DOI

本研究評估了ChatGPT在老年人髖部骨折管理方面的表現,基於美國骨科醫學會的指導方針。使用19項陳述進行測試,結果顯示其準確率分別為0.684、0.579和0.632,精確率則為0.740、0.737和0.718,顯示中等一致性。雖然ChatGPT能提供相關指導,但準確性仍有待加強,且幻覺現象是主要限制。未來應探討如何有效利用ChatGPT作為病人教育工具。 PubMed DOI

這項研究比較了ChatGPT 4o和ChatGPT 4o mini在診斷和治療伴隨神經根症狀的腰椎間盤突出(LDH)的能力。研究評估了21個問題,並由五位骨科醫生檢視兩者的回答準確性和可靠性。結果顯示,ChatGPT 4o在分析53名病人的影像時,識別LDH的準確率達0.81,且與醫生的協議程度為中等。雖然兩者都有強大的臨床支援能力,但ChatGPT 4o的回答更全面。不過,內容的複雜性仍需改進,以提升病人的理解和減少焦慮。 PubMed DOI

這項研究評估了ChatGPT-4.0在頸椎和脊髓損傷管理上與神經外科醫師學會(CNS)指導方針的一致性。共設計36個問題,分為治療性、診斷性和臨床評估類型。結果顯示,61.1%的回應與指導方針一致,其中治療性問題的符合率為70.8%。不過,對於I級證據的建議,ChatGPT表現不佳,僅有20%的符合率。總體來看,雖然ChatGPT在某些方面表現中等,但醫療人員在使用AI建議時仍需謹慎,待更穩健的模型出現。 PubMed DOI