原始文章

這項研究調查了四個大型語言模型(LLMs)—Bard、BingAI、ChatGPT-3.5 和 ChatGPT-4—在遵循2023年北美脊椎學會(NASS)頸椎融合指導方針的表現。結果顯示,這些模型的遵循率不高,ChatGPT-4和Bing Chat表現較佳,僅達60%。在特定情況下,所有模型都未能符合NASS建議,顯示出明顯差異。研究強調了對LLMs進行更好訓練的需求,並指出在臨床決策中考慮病人特徵的重要性,顯示出人工智慧在醫療中的潛力與挑戰。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLM)是強大的人工智慧工具,可促進類似人類的溝通並提供有價值的資訊。研究發現,ChatGPT在回答脊椎外科醫師有關急性腰椎間盤突出(LDH)問題時表現良好,清晰度高且特定。儘管未涵蓋所有知情同意書內容,但提供額外見解。然而,回答中有些許不準確。LLM如ChatGPT有助於患者教育,但需謹慎監控風險與機會。 PubMed DOI

研究評估使用ChatGPT向病人提供醫學資訊,並比較ChatGPT-3.5和ChatGPT-4的表現。結果顯示ChatGPT-4準確性較佳,回答也較完整。雖然ChatGPT有應用價值,但仍需謹慎確保病人安全及護理品質,並進一步研究在醫學領域使用大型語言模型的可行性。 PubMed DOI

生成式人工智慧如ChatGPT和Google Bard被應用在患者教育,例如腰椎間盤突出。研究發現,這些AI回答腰椎間盤突出的問題時,準確性和清晰度有差異,需要改進。未來應該專注於提升AI模型,以增進患者和醫師之間的溝通。 PubMed DOI

研究比較OpenAI的ChatGPT 3.5和Google的Bard在回答腰椎融合手術問題時的表現,結果顯示兩者回答品質高,但在手術風險、成功率和手術方法等特定問題上表現較差。評分者間一致性不高,Bard在同理心和專業性方面稍遜。未來需加強大型語言模型在醫學教育和醫療溝通的應用。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答腰椎間盤突出合併神經根症的臨床問題時的表現。結果顯示,ChatGPT-3.5的準確率為47%,而ChatGPT-4.0提升至67%。雖然兩者都提供了補充資訊,但ChatGPT-4.0的補充資訊較少。特定方面如定義和病史檢查兩者皆達100%準確率,但在診斷測試上,3.5為0%,4.0則為100%。整體來看,ChatGPT-4.0的表現優於3.5,但醫師仍需謹慎使用,以防錯誤資訊。 PubMed DOI

頸椎病是常見的退化性脊椎疾病,患者常尋求醫療資訊來管理症狀。本研究評估大型語言模型(LLMs)對頸椎病患者常見問題的回答準確性。三位經驗豐富的脊椎外科醫生評估來自不同LLMs的回應,結果顯示所有模型表現滿意,尤其是GPT-4的準確性最高。分析中也顯示不同主題的表現差異,反映了目前人工智慧的限制及未來發展的潛力。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Gemini,在提供小兒骨科疾病建議的可靠性,並參考了美國骨科醫學會(AAOS)的指導方針。結果顯示,ChatGPT和Gemini的符合率分別為67%和69%,差異不大。值得注意的是,ChatGPT沒有引用任何研究,而Gemini則參考了16項研究,但大多數存在錯誤或不一致。總體來看,這些模型雖然在某程度上符合指導方針,但仍有許多中立或不正確的陳述,顯示醫療AI模型需改進與提高透明度。 PubMed DOI

這項研究評估了幾個商業可用的大型語言模型(LLMs)在提供治療建議時,與美國骨科醫學會(AAOS)針對肩袖撕裂和前交叉韌帶(ACL)損傷的臨床指導方針(CPGs)的符合度。分析了48項CPGs,結果顯示70.3%的回應與指導方針一致,ChatGPT-4的符合率最高(79.2%),而Mistral-7B最低(58.3%)。研究指出,雖然LLMs能提供一致建議,但缺乏透明的資料來源,限制了其作為臨床支持工具的可靠性,未來應擴大評估範圍以減少偏見。 PubMed DOI

這項研究評估了ChatGPT-4在生成骨科疾病治療建議的有效性,並與美國骨科醫學會的指導方針及醫師計畫進行比較。主要發現包括: 1. ChatGPT-4的建議與AAOS指導方針一致性達90%。 2. 與主治醫師的建議一致性為78%。 3. 在骨折及關節炎案例中表現優異,但腕管綜合症表現不佳。 4. 不一致主要出現在腕管綜合症及其他特定損傷。 5. 雖然ChatGPT-4能提供準確建議,但在考量患者特定因素時仍需醫師的批判性評估。 總之,ChatGPT-4在骨科治療中具輔助潛力,但需專業監督。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)—ChatGPT 3.5、ChatGPT 4.0 和 Google Bard—在提供青少年特發性脊柱側彎(AIS)資訊的效果。研究人員針對AIS的常見問題設計了10個關鍵問題,並由專業醫生評估這些模型的回答。結果顯示,只有26%的回答被評為「優秀」,其中ChatGPT 4.0表現最佳,達39%。雖然這些模型在清晰度和同理心上表現不錯,但仍需改進,特別是在語言適用性和情境理解方面。整體而言,這項研究顯示了LLMs在病人教育中的潛力。 PubMed DOI