原始文章

這項研究比較三種ChatGPT模型預測手腕X光骨齡和生長階段的準確度,結果都和專家評估高度一致。GPT-o1-pro骨齡預測最準,GPT-4o則在生長階段分類表現最佳。雖然還不能取代臨床判斷,但這些AI工具已展現初步評估的實用性,未來還需持續優化。 PubMed DOI


站上相關主題文章列表

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

本研究比較了ChatGPT4.0與3.5在手外科影像問題上的表現,發現兩者在正確率上無顯著差異(分別為30.1%和28.7%)。雖然ChatGPT4.0提供的解釋較長,但對答案的信心卻較低,尤其在放射影像問題上表現出更高的不確定性。未來研究應探討AI生成的回答如何影響臨床與教育環境中的行為,以促進AI在醫療中的應用。 PubMed DOI

本研究探討生成預訓練變壓器(ChatGPT)在放射影像中分類股骨轉子周圍骨折的準確性。研究結果顯示,ChatGPT能根據修訂的AO/OTA分類系統將骨折分為穩定(A1)和不穩定(A2),其分類一致性(κ = 0.420)與骨科醫生相似,顯示中等可靠性。這表明ChatGPT可有效整合進臨床工作流程,並在數據收集上需求較低,對醫療應用具潛力。 PubMed DOI

這項研究評估了ChatGPT 4o在美國手外科學會(ASSH)自我評估問題上的表現,並與先前版本比較。研究使用2008至2013年的ASSH考試數據,透過OpenAI的API進行統計分析。結果顯示,ChatGPT 4o在增強技術的幫助下,表現與人類考生相當,明顯超越ChatGPT 3.5,且測試的可靠性很高。這些發現顯示,人工智慧,特別是ChatGPT,能有效支持醫學教育和臨床實踐,達到與人類專家相似的評估水平。 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT-4o、DeepSeek-V3 和 Gemini 1.5—在手部骨折診斷與治療建議的有效性,並與經驗豐富的外科醫生進行比較。結果顯示,ChatGPT-4o的準確率最高,但精確度較低;DeepSeek-V3表現中等,偶爾漏掉正確方案;而Gemini 1.5則表現不佳。結論指出,雖然AI能增強臨床流程,但在複雜案例中仍無法取代人類專業,且需解決倫理問題才能廣泛應用。 PubMed DOI

這項研究探討了人工智慧,特別是ChatGPT-4,在分析複雜臨床數據及生成合理評估和計畫的能力,特別針對骨科手術。研究聚焦於急診部門的十種常見骨折,利用患者的諮詢紀錄來提供AI所需的病史和檢查結果。結果顯示,ChatGPT-4能產出安全且合理的計畫,與多專科會議的臨床結果相符。雖然對大型語言模型的評估仍在發展中,但這項研究顯示AI在臨床決策中的潛力,未來可考慮以實際臨床結果作為基準。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀膝關節X光片和分級骨關節炎時,表現遠不如專業放射科醫師,準確率只有0.23,幾乎無法正確分辨不同等級。結果顯示,目前ChatGPT-4o還不適合用在這類臨床診斷,未來還需要大幅改進。 PubMed DOI

這項研究發現,ChatGPT-4 在診斷和處理常見手部、手腕創傷時,表現和整形外科住院醫師差不多,甚至在急診處置上更優秀。AI 有潛力成為急診室醫師的好幫手,但還是建議當作輔助工具,不能完全取代專業醫師的判斷。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀X光片時,整體正確率約69%,腹部X光片表現比胸部好。它對常見異常如肺水腫、腸阻塞較準確,但對氣胸、肋骨骨折較弱。雖然AI回覆都算安全,但目前準確率還不夠高,還需改進才能真正成為臨床輔助工具。 PubMed DOI

研究發現,ChatGPT-4.0在判讀肌肉骨骼腫瘤影像時,主要診斷正確率低於人類專家(44%比87%),但若加上次要診斷,差距縮小(71%比94%)。雖然準確度還不及專家,但因為速度快又隨時可用,未來有機會成為放射科的輔助工具。 PubMed DOI