原始文章

這項研究開發了專為食道癌設計的聊天機器人 chatEndoscopist,雖然在文字回答的精確度和多樣性上不如 ChatGPT,可能因為訓練資料太少,但在圖片搜尋方面表現不錯。未來會增加資料量,提升準確度和語言表現。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個大型語言模型(LLMs),ERNIE Bot 和 ChatGPT,在回答肝癌介入放射學問題的有效性,特別是針對經動脈化療栓塞(TACE)和肝動脈灌注化療(HAIC)。共設計38個問題,由10位專業人士評估兩者的回答。結果顯示,ERNIE Bot 在中文環境中表現較佳,而 ChatGPT 在英文環境中更優。研究強調根據語言選擇合適的 LLM 以提供準確的治療資訊,但也指出兩者都需人工審查以確保資訊可靠性。 PubMed DOI

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

梅約內視鏡子評分(MES)是評估潰瘍性結腸炎(UC)黏膜活動的重要工具。本研究探討了人工智慧模型ChatGPT-4在根據MES評估UC患者內視鏡影像的有效性。專家小組審查了內視鏡影像並給予等級,只有一致評分的影像才進一步分析。結果顯示,ChatGPT-4的準確率為78.9%,而IBD專家的準確率為81.1%,兩者差異不顯著(P = 0.71)。研究表明,ChatGPT-4能有效評估UC患者的黏膜炎症,表現與專家相當,且無需額外調整。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT-4o在晚期胃癌治療建議的準確性和完整性上,表現都比Gemini Advanced更穩定。不過,兩者的建議都只能當作輔助工具,還是需要專業醫師監督,不能單獨用來做臨床決策。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

DeepSeek 這款新 AI 在腸胃科專科考試表現比舊版 ChatGPT 更好,分數都超過及格線。不過,DeepSeek 對冷門題目還是有盲點,也還沒辦法看影像,實際應用還需要專科醫師再確認。 PubMed DOI

這項研究提出一套結合大型語言模型、內視鏡影像和病患資料的AI系統,能即時輔助醫師判讀、偵測病灶並自動產生報告。透過自我監督和領域自適應學習,系統提升了診斷準確率和一致性,強化醫師與AI的合作,展現多模態AI在內視鏡檢查上的應用潛力。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答大腸鏡檢查前常見問題時,內容準確且符合醫學指引,有潛力成為病人衛教的好幫手。不過,還需要更多實際測試和不同問題的驗證,才能確定它的實用性。 PubMed DOI