原始文章

這項研究比較 ChatGPT-4o 和 DeepSeek R1 回答 ACL 手術常見問題的表現。結果顯示,兩者答案都很正確且一致。ChatGPT 的內容較完整,DeepSeek 則更清楚、好讀,對一般人來說較容易理解。整體來說,兩款 AI 都能提供高品質資訊,若能結合兩者優點,將更有助於病人衛教。 PubMed DOI


站上相關主題文章列表

這項研究比較了Google網頁搜尋和ChatGPT對於關於前十字韌帶重建手術的常見病人問題的回答。相較於Google搜尋結果,ChatGPT提供了更準確和完整的答案。這項研究凸顯了像ChatGPT這樣的人工智慧在向病人提供可靠資訊方面的潛力。 PubMed DOI

這項研究評估了ChatGPT-4在回答有關前交叉韌帶(ACL)手術的十大常見問題的準確性。研究人員從運動醫學專科機構收集問題,並由兩位專科外科醫生使用李克特量表進行評分。結果顯示,有五個回答被評為「完全準確」,另外三個至少獲得一位醫生的肯定。評分者之間的協議程度為中等,權重卡帕值為0.57,且80%的回答在時間上保持一致。研究指出,ChatGPT可作為提供ACL手術一般資訊的工具,但不應取代病人與外科醫生的直接溝通。 PubMed DOI

本研究評估了ChatGPT-4與Google搜尋在全肩關節置換術(TSA)醫療資訊的準確性與範圍。結果顯示,兩者在數值回答上高度一致,準確性相似,但來源上有顯著差異。Google的資訊來源多樣,包含醫療實踐與社交媒體,而ChatGPT-4則完全依賴學術來源。對於開放式問題,兩者的答案重疊率較低。整體而言,ChatGPT-4提供可靠的學術資訊,而Google則提供更廣泛的來源,顯示出AI工具在醫療資訊提供上的潛力。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在生成病人教育材料的效果,針對常見的上肢和下肢骨科疾病進行分析。結果顯示,ChatGPT-3.5的可讀性僅有2%和4%達標,而ChatGPT-4.0則有54%達標,顯示出明顯的進步。雖然ChatGPT-4.0在可讀性上表現優異,但兩者仍被視為不可靠,無法完全取代傳統病人教育方式,應作為醫療提供者的輔助工具。 PubMed DOI

這項研究評估了四個人工智慧模型在生成脊椎手術病患教育材料的有效性,主要針對腰椎椎間盤切除術、脊椎融合術和減壓椎板切除術。結果顯示,DeepSeek-R1 的可讀性最佳,Flesch-Kincaid 分數介於 7.2 到 9.0 之間,而 ChatGPT-o3 的可讀性最低,超過 10.4。所有模型的資訊品質均低於 60,顯示出「公平」的品質,主要因缺乏參考資料。研究強調改善引用實踐及個性化 AI 生成健康資訊的必要性,未來應整合互動元素和病患反饋,以提升準確性和可及性。 PubMed DOI

這項研究評估了ChatGPT-4在回答全踝關節置換術(TAA)相關問題的表現。研究人員提出十二個常見問題,並請四位專科外科醫生評分其回答的準確性和清晰度。平均得分為1.8(滿分4分),顯示在事實性問題上表現尚可,但對於術後方案等細緻問題評分較低。外科醫生的評分差異顯著,顯示出不同的解讀和期望。這強調了針對特定臨床情境設計AI工具的必要性,以提升病人教育和資訊的準確性。 PubMed DOI

這項研究發現,ChatGPT-4 和 4o 在回答肌肉骨骼放射學問題時,表現比 DeepSeek R1 好很多,答案更準確、結構清楚,參考資料也比較可靠。特別是針對最新研究,ChatGPT-4o 最值得信賴;相較之下,DeepSeek R1 常出錯,還會給假資料,還需要再加強。 PubMed DOI

這項研究比較DeepSeek-V3和ChatGPT-4o在回答腹腔鏡膽囊切除術常見病人問題的表現。由兩位外科醫師評分後,發現DeepSeek-V3在適切性、正確性和易讀性都勝出,顯示它在這類病人衛教上可能更有優勢。 PubMed DOI

這項研究發現,ChatGPT在解釋膝關節置換手術及術後照護時,比DeepSeek更準確、讓人更滿意。不論病人還是骨科醫師,都比較推薦ChatGPT。顯示ChatGPT有機會成為病人衛教和減輕手術焦慮的好幫手。未來可再研究AI怎麼融入臨床,對治療結果有什麼影響。 PubMed DOI

這項研究測試了經過客製化訓練的ChatGPT,針對高脛骨截骨術(HTO)問題的回答能力,並以專家共識聲明為基礎。研究用10題測試AI,並由三位膝關節外科醫師評分。結果顯示,AI在正確性、相關性、清楚度和完整性方面表現都不錯,評審間一致性也高。雖然對非共識聲明的題目分數略低,但整體來說,這個AI有潛力成為外科醫師的輔助工具,也適合應用在其他醫療指引上。 PubMed DOI