原始文章

研究發現,ChatGPT-4.0在判讀肌肉骨骼腫瘤影像時,主要診斷正確率低於人類專家(44%比87%),但若加上次要診斷,差距縮小(71%比94%)。雖然準確度還不及專家,但因為速度快又隨時可用,未來有機會成為放射科的輔助工具。 PubMed DOI


站上相關主題文章列表

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

這項研究評估了ChatGPT-4o在識別MRI影像及診斷腦腫瘤的表現,並與經驗豐富的放射科醫師進行比較。研究涵蓋46名腦腫瘤患者的術前MRI影像。結果顯示,ChatGPT-4o識別病變的準確率為95.7%,但在定位病變和區分腦外、腦內病變方面表現不佳。其診斷成功率僅為56.8%,遠低於放射科醫師的90.9-93.2%。雖然ChatGPT-4o在某些特徵識別上表現良好,但在診斷上仍需改進,未來有潛力成為放射科醫師的輔助工具。 PubMed DOI

這項研究探討了一個基於GPT-4的大型語言模型(LLM)在評估肌肉骨骼MRI掃描請求的有效性,特別針對放射學領域。這個模型結合了來自33項美國放射學會的適當性標準,並在70個虛構案例上測試。結果顯示,優化後的LLM準確率達92.86%,明顯優於基準模型和標準GPT-4,且在處理臨床資訊不足的案例時特別有效。這顯示出其在放射學臨床決策支持中的潛力。 PubMed DOI

本研究評估了ChatGPT 4.0根據ACR-TI-RADS 2017標準解讀甲狀腺超音波報告的能力,並與醫療專家及一名缺乏經驗的使用者進行比較。結果顯示,ChatGPT在回聲焦點的評估上與專家一致,但在其他標準上則有不一致。缺乏經驗的使用者表現優於ChatGPT,顯示傳統醫學訓練的重要性。結論指出,ChatGPT可作為輔助診斷工具,但無法取代人類專業知識,並建議改善AI算法以增強其臨床實用性。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀膝關節X光片和分級骨關節炎時,表現遠不如專業放射科醫師,準確率只有0.23,幾乎無法正確分辨不同等級。結果顯示,目前ChatGPT-4o還不適合用在這類臨床診斷,未來還需要大幅改進。 PubMed DOI

這項研究發現,ChatGPT-4在回答FRCR Part 1放射解剖學題目時,辨認解剖結構的正確率很低(僅4–7.5%),但能正確判斷影像檢查方式。對於影像中有出現但非指定結構的辨識,表現較好(超過五成接近正確),但左右判斷仍有困難(約四成正確)。整體來說,ChatGPT-4目前在放射解剖影像判讀上還有很大進步空間。 PubMed DOI

這項研究發現,骨科住院醫師在判讀肌肉骨骼腫瘤切片的正確率(55%)明顯高於ChatGPT-4(25–33%)。兩者在某些腫瘤類型,特別是軟組織肉瘤上表現都不理想。目前ChatGPT-4還不適合獨立用於臨床診斷,未來還需要更專業的AI模型和進一步研究。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀X光片時,整體正確率約69%,腹部X光片表現比胸部好。它對常見異常如肺水腫、腸阻塞較準確,但對氣胸、肋骨骨折較弱。雖然AI回覆都算安全,但目前準確率還不夠高,還需改進才能真正成為臨床輔助工具。 PubMed DOI

這項回溯性研究發現,ChatGPT-4在解讀乳房超音波報告並用BI-RADS分類結節時,表現比資淺放射科醫師更好,和資深醫師差不多。它預測惡性腫瘤的準確度高(AUC 0.82,準確率80.63%,敏感度90.56%,特異度73.51%)。若把ChatGPT-4納入影像判讀流程,能進一步提升醫師診斷準確率,減少不同醫師間的判讀差異。 PubMed DOI

這項研究發現,GPT-4在判讀胸部CT報告、分類縱膈腫瘤的準確率達73.3%,跟資深放射科醫師差不多。特別是在報告品質較差或診斷淋巴瘤時,GPT-4表現甚至更好。顯示GPT-4未來有機會協助醫師處理較難或資訊不足的病例。 PubMed DOI