原始文章

這項回溯性研究發現,ChatGPT-4在解讀乳房超音波報告並用BI-RADS分類結節時,表現比資淺放射科醫師更好,和資深醫師差不多。它預測惡性腫瘤的準確度高(AUC 0.82,準確率80.63%,敏感度90.56%,特異度73.51%)。若把ChatGPT-4納入影像判讀流程,能進一步提升醫師診斷準確率,減少不同醫師間的判讀差異。 PubMed DOI


站上相關主題文章列表

本研究探討大型語言模型(LLMs)在從放射科報告中提取額外影像檢查建議(RAIs)的有效性。研究回顧了250份報告,確認231份包含RAIs,並使用自然語言處理算法進行分析。結果顯示,GPT-4在提取RAI檢查方式、身體部位和時間框架方面的準確率均優於GPT-3.5,顯示出LLMs在確保影像檢查建議及時完成的潛力,可能有助於減少診斷延遲。 PubMed DOI

這項研究評估了ChatGPT-4o在識別MRI影像及診斷腦腫瘤的表現,並與經驗豐富的放射科醫師進行比較。研究涵蓋46名腦腫瘤患者的術前MRI影像。結果顯示,ChatGPT-4o識別病變的準確率為95.7%,但在定位病變和區分腦外、腦內病變方面表現不佳。其診斷成功率僅為56.8%,遠低於放射科醫師的90.9-93.2%。雖然ChatGPT-4o在某些特徵識別上表現良好,但在診斷上仍需改進,未來有潛力成為放射科醫師的輔助工具。 PubMed DOI

這項研究評估了GPT-4在解讀乳房X光影像的表現,使用了120張影像,分為有發現和無發現兩類。GPT-4的正確識別率為53.3%,在微鈣化和腫塊的識別上,敏感度為50.0%,特異度為37.5%。研究顯示出許多假陽性和假陰性,並出現幻覺現象,顯示模型的局限性。這強調了在乳房X光檢查中使用大型語言模型的潛力與風險,呼籲對醫療AI工具進行專門訓練和驗證,以確保其臨床可靠性與安全性。 PubMed DOI

本研究評估了ChatGPT 4.0根據ACR-TI-RADS 2017標準解讀甲狀腺超音波報告的能力,並與醫療專家及一名缺乏經驗的使用者進行比較。結果顯示,ChatGPT在回聲焦點的評估上與專家一致,但在其他標準上則有不一致。缺乏經驗的使用者表現優於ChatGPT,顯示傳統醫學訓練的重要性。結論指出,ChatGPT可作為輔助診斷工具,但無法取代人類專業知識,並建議改善AI算法以增強其臨床實用性。 PubMed DOI

這項研究評估了GPT-4和GPT-4o在根據TI-RADS指引識別甲狀腺結節特徵的表現,使用了202張超音波影像。結果顯示,GPT-4在大多數類別中具高特異性但低敏感性,對低風險結節的敏感性僅25%,而高風險結節的敏感性為75%。雖然在識別平滑邊緣方面表現較好,但在其他特徵上則不理想。整體來看,這些模型在臨床應用前仍需改進和驗證。 PubMed DOI

這項研究發現,基於ChatGPT的工具在乳房X光片找腫塊的表現還可以,但在判斷乳房密度、腫瘤大小、位置、微鈣化和淋巴結侵犯等細節時,準確度不高。跟放射科醫師的BI-RADS評分一致性也只有普通到中等。總結來說,目前這類AI還不適合用在乳癌篩檢的全面影像分析。 PubMed DOI

這項研究發現,ChatGPT-4o在診斷肝臟局部病灶時,表現大致和資淺放射科醫師差不多,但還是比不上有經驗的醫師。把ChatGPT-4o加入診斷流程,也沒明顯提升醫師的診斷表現。總結來說,目前大型語言模型對診斷這類疾病的幫助有限,準確度還有待加強。 PubMed DOI

這項研究發現,ChatGPT-4用來判斷乳癌手術切緣狀態,整體準確率有84%,對完全切除的判斷很準,但對切除不完全的偵測能力還不夠好。雖然有潛力輔助醫師決策,但目前還不適合直接用在臨床,需要更多專業訓練和驗證。 PubMed DOI

研究發現,ChatGPT-4.0在判讀肌肉骨骼腫瘤影像時,主要診斷正確率低於人類專家(44%比87%),但若加上次要診斷,差距縮小(71%比94%)。雖然準確度還不及專家,但因為速度快又隨時可用,未來有機會成為放射科的輔助工具。 PubMed DOI

這項研究發現,GPT-4在判讀胸部CT報告、分類縱膈腫瘤的準確率達73.3%,跟資深放射科醫師差不多。特別是在報告品質較差或診斷淋巴瘤時,GPT-4表現甚至更好。顯示GPT-4未來有機會協助醫師處理較難或資訊不足的病例。 PubMed DOI