原始文章

這項研究評估了三款AI聊天機器人(ChatGPT-4.0、ChatGPT-3.5和Google Gemini)在美國骨科醫學會針對小兒肱骨上髁骨折和股骨幹骨折的建議中的準確性。結果顯示,ChatGPT-4.0和Google Gemini的準確率較高,分別為11項和9項建議。雖然所有機器人都提供了補充資訊,但修改需求各異,且可讀性方面Google Gemini表現較佳。整體而言,這些工具在小兒骨科病人教育上仍需改進。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT和Google Bard在骨科患者教育上的效果,專注於運動醫學和小兒骨科。專業骨科醫師評分後發現,兩者回應品質皆佳,ChatGPT回應更易讀。結果顯示兩者效果無明顯差異,但仍需改進以提高可靠性。研究指出人工智慧在骨科教育中扮演重要角色,呼籲進一步研究將其負責任地整合至醫療教育中。 PubMed DOI

這項研究評估了大型語言模型(LLMs),如ChatGPT和Gemini,在提供小兒骨科疾病建議的可靠性,並參考了美國骨科醫學會(AAOS)的指導方針。結果顯示,ChatGPT和Gemini的符合率分別為67%和69%,差異不大。值得注意的是,ChatGPT沒有引用任何研究,而Gemini則參考了16項研究,但大多數存在錯誤或不一致。總體來看,這些模型雖然在某程度上符合指導方針,但仍有許多中立或不正確的陳述,顯示醫療AI模型需改進與提高透明度。 PubMed DOI

這項研究評估了ChatGPT-4在生成骨科疾病治療建議的有效性,並與美國骨科醫學會的指導方針及醫師計畫進行比較。主要發現包括: 1. ChatGPT-4的建議與AAOS指導方針一致性達90%。 2. 與主治醫師的建議一致性為78%。 3. 在骨折及關節炎案例中表現優異,但腕管綜合症表現不佳。 4. 不一致主要出現在腕管綜合症及其他特定損傷。 5. 雖然ChatGPT-4能提供準確建議,但在考量患者特定因素時仍需醫師的批判性評估。 總之,ChatGPT-4在骨科治療中具輔助潛力,但需專業監督。 PubMed DOI

本研究評估了ChatGPT在老年人髖部骨折管理方面的表現,基於美國骨科醫學會的指導方針。使用19項陳述進行測試,結果顯示其準確率分別為0.684、0.579和0.632,精確率則為0.740、0.737和0.718,顯示中等一致性。雖然ChatGPT能提供相關指導,但準確性仍有待加強,且幻覺現象是主要限制。未來應探討如何有效利用ChatGPT作為病人教育工具。 PubMed DOI

這項研究評估了ChatGPT在回答小兒肱骨上髁骨折相關問題的效果。研究中提出七個常見問題,並根據回答的清晰度和準確性進行分類。結果顯示,四個回答雖然滿意,但仍需澄清;三個則不滿意,缺乏準確性和清晰度。沒有任何回答被評為優秀。研究指出,ChatGPT提供的資訊雖有幫助,但通常需要進一步澄清,特別是在治療方案上。因此,建議家長應諮詢醫療專業人員以獲得準確指導。這項評估屬於五級專家意見。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

這項研究評估了兩個人工智慧模型,ChatGPT-4o 和 Gemini Advanced,與美國外科醫學會2022年脊椎損傷管理指導方針的一致性。研究設計了52個問題,結果顯示ChatGPT-4o的一致率為73.07%,正確回答38題;而Gemini Advanced為69.23%,正確回答36題。兩者在臨床資訊一致率均為75%。Gemini在診斷性問題上表現較佳,但ChatGPT在治療性問題上較強。整體而言,這些模型在脊椎損傷管理上顯示潛力,但仍有改進空間。 PubMed DOI

這項研究評估了ChatGPT-4o在遠端橈骨骨折治療適當性評分的準確性,並與美國骨科醫學會的指導方針進行比較。分析了240個病人情境,考量骨折類型、受傷機制及病人健康狀況。主要發現顯示,對於不同治療選項的評分誤差不一,掌側鎖定板的誤差最小,而背側鋼板的誤差最大。雖然某些治療方法之間有正相關,但整體上ChatGPT-4o偏向保守治療,這引發了對其在醫療建議可靠性上的疑慮。 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT-4o、DeepSeek-V3 和 Gemini 1.5—在手部骨折診斷與治療建議的有效性,並與經驗豐富的外科醫生進行比較。結果顯示,ChatGPT-4o的準確率最高,但精確度較低;DeepSeek-V3表現中等,偶爾漏掉正確方案;而Gemini 1.5則表現不佳。結論指出,雖然AI能增強臨床流程,但在複雜案例中仍無法取代人類專業,且需解決倫理問題才能廣泛應用。 PubMed DOI

這項研究評估了大型語言模型(LLM)如ChatGPT和Gemini在提供骨關節軟骨壞死(OCD)資訊的表現。七位專科骨科醫生使用5點李克特量表評估兩個模型的回應,涵蓋相關性、準確性、清晰度等六個類別。結果顯示,ChatGPT在清晰度上得分最高,而Gemini在相關性和準確性上表現優異。不過,兩者在基於證據的回應上得分較低,顯示需改進。整體而言,ChatGPT表現較佳,但仍需進一步研究以確認LLMs在其他骨科疾病上的可靠性。 PubMed DOI