原始文章

AI聊天機器人(如ChatGPT、Gemini、Meta AI)對先天性馬蹄足的資訊大致正確,但約四分之一內容有限或有誤,完全安全的回答僅三成,各平台差異不大。因準確性和安全性仍有疑慮,建議家長還是要諮詢專業醫師,不要只靠AI。若AI能取得最新實證醫療資料,未來會更可靠。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人(ChatGPT-4.0、ChatGPT-3.5和Google Gemini)在美國骨科醫學會針對小兒肱骨上髁骨折和股骨幹骨折的建議中的準確性。結果顯示,ChatGPT-4.0和Google Gemini的準確率較高,分別為11項和9項建議。雖然所有機器人都提供了補充資訊,但修改需求各異,且可讀性方面Google Gemini表現較佳。整體而言,這些工具在小兒骨科病人教育上仍需改進。 PubMed DOI

網路與人工智慧(AI)已改變現代醫學,讓醫療資訊更易獲取,但病人的自主權仍需依賴清晰準確的資訊。本文評估AI生成的足踝手術資訊質量與可讀性,結果顯示AI生成的資訊可讀性差,準確性與質量不如人類生成的資料。AI的資訊理解需要更高的教育水平,可能會誤導病人。因此,建議在臨床諮詢中使用來自專業機構的資訊,因為目前AI在知情同意過程中的應用證據仍不足。 PubMed DOI

本研究評估六款生成式AI聊天機器人在鎖骨骨折管理教育中的效果,包括ChatGPT 4、Gemini 1.0等。雖然可讀性分數無顯著差異,但Microsoft Copilot和Perplexity的回答質量明顯優於其他模型。整體來看,這些AI模型在病患教育中表現良好,特別是Microsoft Copilot和Perplexity,適合用於提供鎖骨骨折相關資訊。 PubMed DOI

尿道下裂是一種常見的先天性疾病,對父母的教育非常重要。本研究探討了ChatGPT在提供尿道下裂相關資訊的表現,針對診斷、治療及術後護理提出問題,並使用PEMAT-P工具評估其可理解性和可行性。結果顯示可理解性得分平均為88%,可行性則為51%。在準確性評估中,41%的回應被認為完全準確。整體Kappa值為0.607,顯示醫生間對資訊準確性有共識。未來需改善回應的準確性,並考慮加入視覺輔助工具以協助父母。 PubMed DOI

這項研究評估了六款生成式AI聊天機器人在跟腱斷裂相關問題上的可讀性和回應質量,目的是探討它們作為病人教育工具的潛力。分析的聊天機器人包括ChatGPT 3.5、ChatGPT 4、Gemini 1.0、Gemini 1.5 Pro、Claude和Grok。結果顯示,Gemini 1.0的可讀性最佳,對一般讀者最易理解;而在回應質量上,Gemini 1.0和ChatGPT 4的表現優於其他模型。整體而言,這些聊天機器人都能提供高於平均水平的資訊,顯示出它們在病人教育上的價值。 PubMed DOI

這項研究比較ChatGPT-4.0、ChatGPT-3.5和Google Gemini在回答DDH醫學問題時的表現。結果發現,三款AI的答案準確性都有限,常常有錯誤或遺漏重點。雖然準確度差不多,但Google Gemini的內容最容易閱讀。建議醫師要提醒病患,AI醫療資訊還有很多限制,不能完全依賴。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究比較了三款AI聊天機器人回答兒童O型腿和X型腿問題的表現。結果發現,ChatGPT和Gemini的答案比Copilot更正確、內容也更完整,但三者在表達清楚度和錯誤資訊風險上差不多。整體來說,AI可以協助提供健康資訊,但在兒科醫療領域,專家審核還是很重要。 PubMed DOI

這項研究比較ChatGPT-4o和Gemini 2.0 Flash在回答半月板撕裂常見問題的準確性。兩者回答句數和可驗證比例差不多。只用UpToDate驗證,約58%內容正確;加上期刊文章則提升到84%。兩款AI準確度沒顯著差異,但多元驗證來源能提升正確性。總結來說,AI可輔助骨科衛教,但還是無法取代醫師專業判斷。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答先天性上肢差異常見問題時,大約一半答案正確且清楚,但有8%內容不夠好或可能誤導。回答內容深度和完整性不一,且很少建議諮詢專業醫師。總結來說,ChatGPT提供的資訊大致可靠,但不夠全面或個人化,建議病人衛教時要小心使用。 PubMed DOI