原始文章

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI


站上相關主題文章列表

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

ChatGPT 能生成類似人類的文本,並在醫療應用上特別擅長自然語言處理。雖然它無法直接分析醫療影像,但可以協助撰寫報告、總結發現,並根據相關文本提供見解。在顱面疾病方面,ChatGPT 可幫助撰寫和翻譯放射科報告,並整合病歷與症狀,輔助醫療專業人員做出決策。不過,任何診斷或臨床決策仍需由合格的醫療專業人員負責,AI 只是輔助工具。 PubMed DOI

這項研究評估了OpenAI開發的GPT-4在病理影像分析中的診斷準確性。研究涵蓋16個器官的44張組織病理影像及100張結直腸活檢顯微照片。GPT-4在腫瘤類型和組織來源的整體準確率為0.64,結腸息肉的分類準確率介於0.57到0.75之間。它在區分低級別和高級別不典型增生方面表現良好,準確率達0.88,對腺癌檢測的敏感性也很高。整體來看,GPT-4的表現與病理住院醫師相當,顯示其作為輔助工具的潛力。 PubMed DOI

梅約內視鏡子評分(MES)是評估潰瘍性結腸炎(UC)黏膜活動的重要工具。本研究探討了人工智慧模型ChatGPT-4在根據MES評估UC患者內視鏡影像的有效性。專家小組審查了內視鏡影像並給予等級,只有一致評分的影像才進一步分析。結果顯示,ChatGPT-4的準確率為78.9%,而IBD專家的準確率為81.1%,兩者差異不顯著(P = 0.71)。研究表明,ChatGPT-4能有效評估UC患者的黏膜炎症,表現與專家相當,且無需額外調整。 PubMed DOI

這項研究發現,ChatGPT-4在回答FRCR Part 1放射解剖學題目時,辨認解剖結構的正確率很低(僅4–7.5%),但能正確判斷影像檢查方式。對於影像中有出現但非指定結構的辨識,表現較好(超過五成接近正確),但左右判斷仍有困難(約四成正確)。整體來說,ChatGPT-4目前在放射解剖影像判讀上還有很大進步空間。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

這項研究評估ChatGPT在診斷急性闌尾炎、膽囊炎和憩室炎的表現,發現它雖然整體表現不錯,但在膽囊炎和憩室炎的診斷準確度還是比不上臨床醫師。有些症狀會讓AI搞混,導致誤判。總結來說,ChatGPT在資源有限的情況下可以當作輔助工具,但遇到複雜病例還需要再加強。 PubMed DOI

這項研究開發了專為食道癌設計的聊天機器人 chatEndoscopist,雖然在文字回答的精確度和多樣性上不如 ChatGPT,可能因為訓練資料太少,但在圖片搜尋方面表現不錯。未來會增加資料量,提升準確度和語言表現。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀X光片時,整體正確率約69%,腹部X光片表現比胸部好。它對常見異常如肺水腫、腸阻塞較準確,但對氣胸、肋骨骨折較弱。雖然AI回覆都算安全,但目前準確率還不夠高,還需改進才能真正成為臨床輔助工具。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 PubMed DOI