原始文章

梅約內視鏡子評分(MES)是評估潰瘍性結腸炎(UC)黏膜活動的重要工具。本研究探討了人工智慧模型ChatGPT-4在根據MES評估UC患者內視鏡影像的有效性。專家小組審查了內視鏡影像並給予等級,只有一致評分的影像才進一步分析。結果顯示,ChatGPT-4的準確率為78.9%,而IBD專家的準確率為81.1%,兩者差異不顯著(P = 0.71)。研究表明,ChatGPT-4能有效評估UC患者的黏膜炎症,表現與專家相當,且無需額外調整。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在解讀各種胃腸科影像的表現,分析了740張影像,並將預測結果與既有診斷進行比較。結果顯示,ChatGPT-4的準確性在不同程序中差異明顯,膠囊內視鏡的準確率介於50%到90%之間,設備輔助腸鏡為67%,而內視鏡超音波和高解析度肛門鏡的表現則較差。整體來看,這顯示ChatGPT-4的診斷能力尚不理想,臨床應用前仍需進一步改進。 PubMed DOI

這項研究評估了OpenAI開發的GPT-4在病理影像分析中的診斷準確性。研究涵蓋16個器官的44張組織病理影像及100張結直腸活檢顯微照片。GPT-4在腫瘤類型和組織來源的整體準確率為0.64,結腸息肉的分類準確率介於0.57到0.75之間。它在區分低級別和高級別不典型增生方面表現良好,準確率達0.88,對腺癌檢測的敏感性也很高。整體來看,GPT-4的表現與病理住院醫師相當,顯示其作為輔助工具的潛力。 PubMed DOI

本研究評估了ChatGPT 4.0根據ACR-TI-RADS 2017標準解讀甲狀腺超音波報告的能力,並與醫療專家及一名缺乏經驗的使用者進行比較。結果顯示,ChatGPT在回聲焦點的評估上與專家一致,但在其他標準上則有不一致。缺乏經驗的使用者表現優於ChatGPT,顯示傳統醫學訓練的重要性。結論指出,ChatGPT可作為輔助診斷工具,但無法取代人類專業知識,並建議改善AI算法以增強其臨床實用性。 PubMed DOI

這項研究探討了基於人工智慧的聊天機器人ChatGPT-4在口腔黏膜病變鑑別診斷中的有效性。研究收集了因口腔黏膜活檢而轉診的患者數據,並將病變描述輸入ChatGPT以生成診斷,與專家診斷進行比較。結果顯示,聊天機器人的診斷與專家之間有顯著相關性,且能高敏感性識別惡性病變。整體而言,ChatGPT-4在識別可疑惡性病變方面表現出色,顯示出其在口腔醫學中的輔助潛力。 PubMed DOI

這項研究評估了ChatGPT在提供慢性疾病患者教育方面的表現,特別針對炎症性腸病(IBD),並與專科醫生的回應進行比較。結果顯示,ChatGPT的整體品質評分與專科醫生相似,且在信息完整性上有明顯優勢。雖然準確性無顯著差異,但在患者和醫生共同回應時,ChatGPT表現較差。研究建議在健康信息創建和評估中,應納入患者的參與,以提升質量和相關性。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

這項研究發現,ChatGPT-4-vision 能用數位肝臟切片影像判讀MASH肝纖維化分期,表現接近專業病理醫師。給予範例影像後,準確率最高達88%,尤其在辨識晚期纖維化(F4)更突出。分期結果也和膠原蛋白測量高度相關,顯示大型語言模型有潛力協助病理診斷。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

這項研究評估ChatGPT在診斷急性闌尾炎、膽囊炎和憩室炎的表現,發現它雖然整體表現不錯,但在膽囊炎和憩室炎的診斷準確度還是比不上臨床醫師。有些症狀會讓AI搞混,導致誤判。總結來說,ChatGPT在資源有限的情況下可以當作輔助工具,但遇到複雜病例還需要再加強。 PubMed DOI

這項研究比較了三種ChatGPT版本在回答幽門螺旋桿菌相關問題的表現。結果顯示,ChatGPT-4o答得最準確但穩定性較差,3.5版則最穩定但偶有錯誤。整體來說,AI聊天機器人能有效協助病患衛教,也能幫醫師提供可靠醫療資訊。 PubMed DOI