原始文章

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 PubMed DOI


站上相關主題文章列表

這項研究顯示生成式人工智慧,特別是OpenAI的GPT-4 Turbo API,在提升放射學訓練方面的潛力。研究發現,這個AI模型能檢測到的差異明顯多於專業放射科醫師,顯示其在傳統審查中可能被忽略的改進空間。雖然AI在差異檢測上表現優異,但在評分一致性上仍有改進空間。生成的教學要點在85%的案例中被認為適當,顯示其教育價值。未來研究可著重於提高模型準確性及評分者一致性,並探討AI反饋對實習生的長期影響。 PubMed DOI

這項研究評估了GPT-4撰寫放射學社論的能力,並與人類撰寫的社論進行比較。分析了來自八本期刊的十六篇社論,結果顯示AI撰寫的社論在評分上表現較好,但人類撰寫的文章在整體感知上仍較受青睞。編輯們在配對評估中,有82%更傾向於出版人類撰寫的文章。研究結論指出,雖然GPT-4能產出高品質文章,但編輯對人類內容的偏好依然明顯。 PubMed DOI

這項研究評估了ChatGPT-4 Vision在解讀臨床影像(如X光、CT、MRI等)的表現。分析了206個影像研究,結果顯示提供臨床上下文能顯著提高診斷準確率,從8.3%提升至29.1%和63.6%。但在30天和90天後重新評估時,準確率下降多達30%。雖然建議診斷與實際發現匹配率高達92.7%,但GPT-4V仍虛構了258個發現,並錯誤識別了65個案例。總體來看,GPT-4V目前無法可靠解讀放射影像,需進一步改進以確保病人安全。 PubMed DOI

這項研究評估了GPT-4在總結介入放射學報告的效果,旨在幫助外行人理解並翻譯醫學文本。研究總結了200份報告,並用Flesch-Kincaid閱讀水平和Flesch閱讀容易度分數來評估可讀性。結果顯示,總結後的可讀性明顯改善,外行人的理解分數也從2.5提升至4.3。雖然翻譯成其他語言後誤資訊略有增加,但關鍵錯誤資訊並未顯著上升。整體而言,GPT-4在提升報告可讀性和病人溝通方面展現了潛力。 PubMed DOI

這項研究評估了GPT-4和GPT-4o在識別需進一步評估的胸部放射線報告的效果。研究分析了來自NIH的100個案例,結果顯示GPT-4o在敏感性、準確性和陰性預測值上均優於GPT-4,而GPT-4在特異性和陽性預測值上則表現更佳。總體來看,GPT-4o在臨床應用中顯示出良好的潛力。 PubMed DOI

這項研究評估了GPT-4o在識別ACR TIRADS超音波報告錯誤的有效性及其加速報告生成的能力。分析了福建醫科大學第二附屬醫院的200份甲狀腺超音波報告,結果顯示GPT-4o成功檢測到90%的錯誤,接近資深醫師的93%。在效率上,GPT-4o的審查速度明顯快於醫師,平均只需0.79小時,而醫師則需1.8到3.1小時。研究結果顯示,GPT-4o不僅在錯誤檢測上表現優異,還能顯著提升報告處理效率,對於改善診斷準確性及支持住院醫師非常有幫助。 PubMed DOI

這項研究評估了ChatGPT 4.0在識別德國神經學報告錯誤的效果,並與人類專家比較。分析了十份報告,每份有十個語言錯誤和一個重要內容錯誤。結果顯示,使用第一個提示時,AI的準確率為35%,而第二個提示則達到75%。AI的處理速度明顯快於人類,第一個提示平均102.4秒,第二個209.4秒,人類則需374秒。研究指出,AI能有效協助醫療報告撰寫,且提示設計對結果影響重大。 PubMed DOI

這項研究比較多種大型語言模型在偵測胸腔放射科報告錯誤的表現,發現經過微調的 Llama-3-70B-Instruct 模型最準確,F1 分數約 0.75–0.83。實測也證實,這模型能有效協助醫師找出報告錯誤,顯示微調後的生成式語言模型有助提升放射科報告校對效率與準確度。 PubMed DOI

AI(GPT-4)能快速又準確找出癌症病理報告中的錯誤,偵測率高達88%,速度也比醫師快很多。雖然準確度接近專家,但誤判(偽陽性)較多,所以還是需要醫師把關。這技術有望提升癌症診斷效率,但專業監督還是不可少。 PubMed DOI

這項研究發現,GPT-4在判讀胸部CT報告、分類縱膈腫瘤的準確率達73.3%,跟資深放射科醫師差不多。特別是在報告品質較差或診斷淋巴瘤時,GPT-4表現甚至更好。顯示GPT-4未來有機會協助醫師處理較難或資訊不足的病例。 PubMed DOI