原始文章

研究團隊開發出一套機器學習模型,能透過十二指腸切片影像診斷乳糜瀉。這個模型在超過3,000張切片訓練,測試時準確率、敏感度和特異性都超過95%,AUC更高於99%,表現媲美專家病理醫師。未來有望大幅提升臨床診斷乳糜瀉的效率與速度。 PubMed DOI


站上相關主題文章列表

這項研究比較了大型語言模型(LLMs)與人類腸胃科醫生在挑戰性腸胃病例中的診斷能力。研究分析了67個病例,發現LLM Claude 3.5 Sonnet的準確率達76.1%,明顯高於腸胃科醫生的45.5%。這顯示先進的LLMs能成為腸胃科醫生的有力工具,提供高效且具成本效益的診斷支持。 PubMed DOI

這項研究用GPT-4o和Llama3.3等大型語言模型,測試它們在227份人工合成病理報告中辨識和分類癌症的能力。結果顯示,這些AI模型在準確率、敏感度和特異性上都比傳統方法更優秀,有機會讓癌症登記流程更快、更可靠,提升公共衛生和臨床照護品質。 PubMed DOI

這項研究發現,ChatGPT-4-vision 能用數位肝臟切片影像判讀MASH肝纖維化分期,表現接近專業病理醫師。給予範例影像後,準確率最高達88%,尤其在辨識晚期纖維化(F4)更突出。分期結果也和膠原蛋白測量高度相關,顯示大型語言模型有潛力協助病理診斷。 PubMed DOI

這項研究發現,開源大型語言模型(LLMs)能準確從電子病歷的病理報告中,萃取癌症和異型增生等重要診斷,連複雜案例也適用。只用簡單「是/否」提示,在美國退伍軍人健康管理局資料庫中,診斷準確率超過93%。這方法不但省資源、設定簡單,還能大規模應用,對臨床和研究都很有幫助。 PubMed DOI

這項研究比較了ChatGPT-4.0、ChatGPT-3.5和Google Gemini Advanced在20個腸胃道病理案例的表現。結果顯示,ChatGPT-4.0和Gemini Advanced部分表現較佳,但整體水準還是普通。三款AI都無法正確判斷癌症分期,且有不少引用文獻是假的。研究認為,AI雖然進步中,但臨床應用前還是需要專家把關。 PubMed DOI

這項研究用ResNet18深度學習模型,訓練超過4,000張腎臟切片EM影像,能自動判斷電子緻密沉積物的位置,AUC高達0.928–0.987,表現比資深醫師還好。團隊也開發網頁工具,讓臨床醫師能快速上傳影像並獲得自動判讀結果,提升效率與一致性。 PubMed DOI

這項研究比較七款主流多模態大型語言模型在診斷皮膚病的表現,GPT-4o準確率最高達67.8%。不同疾病和圖片的診斷準確度差異大,有些圖片所有模型都誤判。部分模型遇到敏感圖片會拒絕診斷。整體來說,這些模型在皮膚科影像判讀有潛力,但目前還有不少限制,未來需結合臨床資料才能更可靠。 PubMed DOI

這項研究發現,GPT-4.o 在診斷角膜疾病的準確率最高(80%),但還是比不上人類角膜專科醫師(92.5%)。雖然 GPT-4.o 等大型語言模型有潛力,但在複雜病例上表現不穩定,目前只能當作輔助工具,臨床決策還是得靠專家判斷。 PubMed DOI

這項研究發現,雖然像Gemini 1.5和GPT-4o這類具電腦視覺功能的大型語言模型表現不錯,但在診斷口腔扁平苔癬時,整體表現還是比傳統CNN差。目前CNN仍是臨床OLP影像診斷的首選,LLMs還不適合直接應用於臨床。 PubMed DOI

這個AI模型結合電子病歷和大型語言模型,能準確找出住院病人有營養不良風險,表現比傳統護理師篩檢工具更好,AUC最高達0.95。它也能更有效預測再住院和死亡風險,有助提升醫院營養不良偵測效率。 PubMed DOI