原始文章

這項研究提出一套結合大型語言模型、內視鏡影像和病患資料的AI系統,能即時輔助醫師判讀、偵測病灶並自動產生報告。透過自我監督和領域自適應學習,系統提升了診斷準確率和一致性,強化醫師與AI的合作,展現多模態AI在內視鏡檢查上的應用潛力。 PubMed DOI


站上相關主題文章列表

這項研究探討了兩種大型語言模型(LLMs)在胃腸科臨床實踐中的應用,分別是自訂的GPT模型和傳統的GPT-4o。研究發現,自訂模型在15個臨床問題中正確回答了8個,而研究員則回答了10個。傳統的GPT-4o表現最佳,正確率達14/15。雖然兩種模型的表現略低於專家醫生,但顯示出在病人諮詢等專業任務中的潛力。研究強調了RAG技術的重要性及臨床醫師監督的必要性。 PubMed DOI

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

炎症性腸病(IBD)影響全球數百萬人,因此有效的病人教育非常重要。大型語言模型(LLMs)如ChatGPT-4.0、Claude-3-Opus和Gemini-1.5-Pro可能能提供相關資訊,但其準確性尚未廣泛研究。研究中,腸胃科專家設計了15個IBD問題,評估這三個模型的表現。結果顯示,這些模型在基本資訊上表現良好,但在複雜主題如藥物副作用和飲食改變時,表現差異明顯。Claude-3-Opus在可讀性上表現最佳。儘管顯示潛力,但仍需進一步優化以確保資訊的準確性和安全性。 PubMed DOI

大型語言模型(LLMs)在醫療保健,特別是胃腸科,展現出提升臨床決策、研究及病人管理的潛力。為了安全有效地應用這些模型,必須解決偏見、幻覺及法規遵循等挑戰。本文提出一個結構化框架,針對C型肝炎治療進行案例研究,涵蓋臨床目標定義、多學科團隊組建、數據準備、模型選擇與微調等步驟。此外,還強調遵循HIPAA和GDPR等法規,以確保負責任的AI應用。未來研究應聚焦於多機構驗證及AI輔助的臨床試驗。 PubMed DOI

大型語言模型有機會提升腸胃科醫療品質和效率,但目前還有偏見、隱私和透明度等問題。要讓AI安全應用在醫療現場,醫師、AI工程師和政策單位必須共同合作,訂出明確規範,確保AI只是輔助,不會取代專業醫療判斷。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

這項研究開發了專為食道癌設計的聊天機器人 chatEndoscopist,雖然在文字回答的精確度和多樣性上不如 ChatGPT,可能因為訓練資料太少,但在圖片搜尋方面表現不錯。未來會增加資料量,提升準確度和語言表現。 PubMed DOI

大型語言模型有助於提供IBD患者更個人化的衛教資訊,但需針對疾病微調、完善評估方法,並結合臨床決策系統。同時要注意偏見、隱私及數位素養等倫理問題。跨領域合作能確保公平應用,提升照護品質,幫助患者更好管理疾病。 PubMed DOI

這項研究評估多種大型語言模型,利用提示工程從胃鏡和大腸鏡報告中擷取結構化資訊。結果顯示,大型且專業化的模型在基本資訊擷取表現最好,但遇到複雜推理時仍有限制。少樣本學習對部分模型有幫助,顯示LLMs自動化醫療文本分析有潛力,但還需改進。 PubMed DOI

大型語言模型如 ChatGPT、Claude、Gemini,正逐步改變肝胰膽外科手術,包括自動化文件、輔助決策、手術規劃及病患監測。不過,資料隱私、AI 錯誤、倫理、教育及醫療不平等等問題仍待解決。未來需發展專業化模型、強化醫師與 AI 合作,並建立完善倫理規範,才能安全有效地應用於臨床。 PubMed DOI