原始文章

這項研究比較了三款AI聊天機器人回答兒童O型腿和X型腿問題的表現。結果發現,ChatGPT和Gemini的答案比Copilot更正確、內容也更完整,但三者在表達清楚度和錯誤資訊風險上差不多。整體來說,AI可以協助提供健康資訊,但在兒科醫療領域,專家審核還是很重要。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT和Google Bard在骨科患者教育上的效果,專注於運動醫學和小兒骨科。專業骨科醫師評分後發現,兩者回應品質皆佳,ChatGPT回應更易讀。結果顯示兩者效果無明顯差異,但仍需改進以提高可靠性。研究指出人工智慧在骨科教育中扮演重要角色,呼籲進一步研究將其負責任地整合至醫療教育中。 PubMed DOI

這項研究評估了三個AI聊天機器人—ChatGPT、Google Bard和Microsoft Copilot—在小兒骨科肢體重建手術問題上的回答準確性。研究者提出23個常見問題,並由三位骨科醫生用4分制評分。結果顯示,ChatGPT的回答最準確,評價為令人滿意,幾乎不需澄清;而Microsoft Copilot的回答準確性最低,需要中等程度的澄清。這顯示在醫療領域,特別是專業領域,聊天機器人的信息可靠性有差異。 PubMed DOI

這項研究評估了三款AI聊天機器人(ChatGPT-4.0、ChatGPT-3.5和Google Gemini)在美國骨科醫學會針對小兒肱骨上髁骨折和股骨幹骨折的建議中的準確性。結果顯示,ChatGPT-4.0和Google Gemini的準確率較高,分別為11項和9項建議。雖然所有機器人都提供了補充資訊,但修改需求各異,且可讀性方面Google Gemini表現較佳。整體而言,這些工具在小兒骨科病人教育上仍需改進。 PubMed DOI

這項研究探討了ChatGPT在提供脊柱側彎相關資訊的準確性與易懂性。研究人員整理了十二個常見問題,並用ChatGPT生成回答,兩位兒童骨科醫生對這些回答進行評估。結果顯示,ChatGPT的回答在準確性上表現不錯,但仍需澄清,且可讀性過高,適合的讀者層級從11年級到大學畢業,可能不符合預期病患的需求。研究建議未來需改進回答的準確性與可讀性,並評估AI在其他兒童骨科問題上的可靠性。 PubMed DOI

研究比較了ChatGPT、Google Gemini和Microsoft Copilot在小兒眼科選擇題的表現,Copilot正確率最高(74%),也最容易閱讀。雖然這些AI對學習有幫助,但答案不一定完全正確,使用時還是要多加留意。 PubMed DOI

AI聊天機器人(如ChatGPT、Gemini、Meta AI)對先天性馬蹄足的資訊大致正確,但約四分之一內容有限或有誤,完全安全的回答僅三成,各平台差異不大。因準確性和安全性仍有疑慮,建議家長還是要諮詢專業醫師,不要只靠AI。若AI能取得最新實證醫療資料,未來會更可靠。 PubMed DOI

這項研究比較ChatGPT和Gemini在依據2022年AAOS兒童肱骨髁上骨折指引下的表現。結果發現,兩者回答都符合指引,但Gemini在提供有根據的醫學證據上表現較佳,顯示Gemini在臨床資訊可靠度上較有潛力。不過,兩款AI各有優缺點。 PubMed DOI

這項研究比較ChatGPT-4.0、ChatGPT-3.5和Google Gemini在回答DDH醫學問題時的表現。結果發現,三款AI的答案準確性都有限,常常有錯誤或遺漏重點。雖然準確度差不多,但Google Gemini的內容最容易閱讀。建議醫師要提醒病患,AI醫療資訊還有很多限制,不能完全依賴。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究比較ChatGPT-4o和Gemini 2.0 Flash在回答半月板撕裂常見問題的準確性。兩者回答句數和可驗證比例差不多。只用UpToDate驗證,約58%內容正確;加上期刊文章則提升到84%。兩款AI準確度沒顯著差異,但多元驗證來源能提升正確性。總結來說,AI可輔助骨科衛教,但還是無法取代醫師專業判斷。 PubMed DOI