原始文章

本研究探討生成預訓練變壓器(ChatGPT)在放射影像中分類股骨轉子周圍骨折的準確性。研究結果顯示,ChatGPT能根據修訂的AO/OTA分類系統將骨折分為穩定(A1)和不穩定(A2),其分類一致性(κ = 0.420)與骨科醫生相似,顯示中等可靠性。這表明ChatGPT可有效整合進臨床工作流程,並在數據收集上需求較低,對醫療應用具潛力。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT在土耳其骨科與創傷學考試的表現,分析了過去四年400道公開考題的結果。結果顯示,ChatGPT的得分超過98.7%的考生,且具統計學意義,顯示其表現優於平均考生。儘管ChatGPT在理論部分表現出色,研究仍強調人類因素的重要性,因為這些因素結合了理論與實踐知識,對醫療實踐至關重要。這是首次在此醫學考試背景下評估ChatGPT的能力。 PubMed DOI

本研究探討ChatGPT-4o在分析膝關節骨關節炎(OA)X光片的能力,並評估其準確性。117張X光片由兩位骨科醫生和ChatGPT-4o分析,使用多種分級系統。結果顯示,ChatGPT-4o的識別率達100%,但詳細分級準確性僅35%,遠低於醫生的89.6%。此外,ChatGPT-4o在嚴重病例中常低估OA程度,且其評分一致性較差。雖然能快速識別,但在臨床應用上仍需提升分級準確性。未來研究應聚焦於改善這方面的表現。 PubMed DOI

這項研究評估了ChatGPT-4o在遠端橈骨骨折治療適當性評分的準確性,並與美國骨科醫學會的指導方針進行比較。分析了240個病人情境,考量骨折類型、受傷機制及病人健康狀況。主要發現顯示,對於不同治療選項的評分誤差不一,掌側鎖定板的誤差最小,而背側鋼板的誤差最大。雖然某些治療方法之間有正相關,但整體上ChatGPT-4o偏向保守治療,這引發了對其在醫療建議可靠性上的疑慮。 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT-4o、DeepSeek-V3 和 Gemini 1.5—在手部骨折診斷與治療建議的有效性,並與經驗豐富的外科醫生進行比較。結果顯示,ChatGPT-4o的準確率最高,但精確度較低;DeepSeek-V3表現中等,偶爾漏掉正確方案;而Gemini 1.5則表現不佳。結論指出,雖然AI能增強臨床流程,但在複雜案例中仍無法取代人類專業,且需解決倫理問題才能廣泛應用。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT-4,在分析複雜臨床數據及生成合理評估和計畫的能力,特別針對骨科手術。研究聚焦於急診部門的十種常見骨折,利用患者的諮詢紀錄來提供AI所需的病史和檢查結果。結果顯示,ChatGPT-4能產出安全且合理的計畫,與多專科會議的臨床結果相符。雖然對大型語言模型的評估仍在發展中,但這項研究顯示AI在臨床決策中的潛力,未來可考慮以實際臨床結果作為基準。 PubMed DOI

這項研究評估了ChatGPT 4.0在2022年骨科與創傷學專科考試的多選題表現,分析了95道題目,正確率為61.05%。結果顯示,無論問題字數或分類,表現差異不大。雖然ChatGPT在骨科知識上表現不錯,但仍需進一步發展和人類監督,以確保其有效性。這項研究屬於第四級證據,屬於病例系列。 PubMed DOI

這項研究發現,ChatGPT-4o在判斷脊椎X光片是否有裝穩定系統,以及細分類型時,表現比BiomedCLIP更好,準確率也較高。不過,遇到複雜案例時還是有挑戰。BiomedCLIP雖然回答一致,但分類準確度較低。整體來說,ChatGPT-4o在臨床輔助診斷上更有優勢。 PubMed DOI

研究發現,ChatGPT-4.0在判讀肌肉骨骼腫瘤影像時,主要診斷正確率低於人類專家(44%比87%),但若加上次要診斷,差距縮小(71%比94%)。雖然準確度還不及專家,但因為速度快又隨時可用,未來有機會成為放射科的輔助工具。 PubMed DOI

這項研究比較三種ChatGPT模型預測手腕X光骨齡和生長階段的準確度,結果都和專家評估高度一致。GPT-o1-pro骨齡預測最準,GPT-4o則在生長階段分類表現最佳。雖然還不能取代臨床判斷,但這些AI工具已展現初步評估的實用性,未來還需持續優化。 PubMed DOI

這項研究發現,ChatGPT-4在回答關節置換相關問題時,正確率只有66.9%,明顯低於骨科研究員和主治醫師。特別是在有圖片的題目上,表現更差。雖然ChatGPT可當作學習輔助,但還無法取代專業醫師的臨床判斷,未來還需更多研究來提升AI在醫療領域的應用。 PubMed DOI