原始文章

這項研究開發了專為食道癌設計的聊天機器人 chatEndoscopist,雖然在文字回答的精確度和多樣性上不如 ChatGPT,可能因為訓練資料太少,但在圖片搜尋方面表現不錯。未來會增加資料量,提升準確度和語言表現。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT生成的胃腸科資訊的質量與可讀性,特別針對對話式和定義式問題的回應。三位認證的胃腸科醫生使用5點李克特量表評估回應的適當性,涵蓋六個類別。結果顯示,44%的對話式回應和69%的定義式回應被認為適當,但與胃腸急症相關的回應則全都不適當。可讀性評估顯示這些內容需大學程度的閱讀能力。總體而言,雖然ChatGPT能生成一般適合的回應,但在適當性和可讀性上仍需改進,才能成為可靠的醫療資訊來源。 PubMed DOI

這項研究強調了Endo-chat醫療聊天應用程式的開發,利用檢索增強生成(RAG)技術來提升對胃腸內視鏡檢查的回應準確性與效率。透過整合內部數據和胃腸科指導方針,Endo-chat能提供準確且專業的答案,並在回應效率、完整性及患者滿意度上超越傳統手動方式。雖然與ChatGPT相比,準確性差異不大,但患者更喜愛這項AI服務,並支持其實施。護理人員也認為AI能減輕工作負擔,總體而言,Endo-chat被視為消化內視鏡護理的有效輔助工具。 PubMed DOI

這項研究評估了ChatGPT-4在分析663張匿名內視鏡影像時,對結腸鏡檢查腸道準備品質的表現。結果顯示,ChatGPT-4僅將62.9%的影像評為準備充分,而人類評估者則有89.3%。兩者之間的協議程度不高,κ值為0.099。人類的平均BBPS分數為3,ChatGPT-4則為2,顯示出中等一致性(W: 0.554)。雖然ChatGPT-4在評估腸道準備品質上有潛力,但仍需進一步改進。 PubMed DOI

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT-4o在晚期胃癌治療建議的準確性和完整性上,表現都比Gemini Advanced更穩定。不過,兩者的建議都只能當作輔助工具,還是需要專業醫師監督,不能單獨用來做臨床決策。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

DeepSeek 這款新 AI 在腸胃科專科考試表現比舊版 ChatGPT 更好,分數都超過及格線。不過,DeepSeek 對冷門題目還是有盲點,也還沒辦法看影像,實際應用還需要專科醫師再確認。 PubMed DOI

這項研究提出一套結合大型語言模型、內視鏡影像和病患資料的AI系統,能即時輔助醫師判讀、偵測病灶並自動產生報告。透過自我監督和領域自適應學習,系統提升了診斷準確率和一致性,強化醫師與AI的合作,展現多模態AI在內視鏡檢查上的應用潛力。 PubMed DOI